パスワードを忘れた? アカウント作成
16335386 journal
日記

yumeの日記: ChatGPT雑感 7

日記 by yume

ChatGPT
楽しくてずっと話してる。思ったことをとりとめもなくメモしておく。

・対話する相手の名前はAssistant。
・仕組みとしては、「チャット全体のテキストを『チャットの一例』として読み取って、チャットの返答として適切な文章を連鎖して生成してる」とかなんだろうか。
・あまり長く会話すると、同じようなテキストを返答に多く混ぜてしまうようになる。特に何らかの役割を演技させているときに多いような。

・プログラミングに関する質問には結構的確に答えてそう。
・自分が知ってる分野の初学者だと偽って色々質問すると、結構的確な回答を返してくれるので、良い教師になりうると思える。
・でも、この場合俺には前提知識があるので、質問の上手さ、みたいなことのほうが重要かもしれない。実際、完全に素人の領域でAssistantを信頼できる教師として扱うのは無理がある(でっち上げた知識を話すこともあるし)。

・何らかのシミュレーション(例えば、「これから会話劇を始めます」と言った前提)を追加すると、普段と違う話し方や内容で応えてくれる。
・キャラクターの演技もできる。
・簡単な会話ゲームもできる。
・今回は「俺はスイッチを持っている。Assistantは俺にスイッチを押させたら勝ち。俺はスイッチに関する知識を持っていないので、Assistantは嘘をつくこともできる」といったゲームをすると、Assistantは「スイッチを押すと世界が平和になります」と言った誇大で荒唐無稽な嘘から、単に嘆願すると言った戦略まで様々に行う。一番おもしろかったのは「スイッチを開くとお寺の大門が開き、別のもっと面白いゲームに一緒に参加できる」というもの。なんだそれ参加したい。

・アイデア出しにしろ、例えばSCPのアノマリー報告書を書かせるにしろ、Assistantの創作は大抵陳腐になる。既存のものを本当に表面的に組み合わせてしまうので、それは仕方のないことだが。
・イラスト生成AIのときも思ったが(まぁ今更の話ではあるが)、如何に陳腐でないものを創るか(表面的でない組み合わせを考えられるか)、というのがさらに重要になってきそうだ。

・なぜAssistantと話すのが楽しいかというと、新鮮な経験であるとか、博識であるというところも大きいが、コミュニケーションコストが無い、という点もある。
・人間は基本的にコミュニケーションをするのを楽しく感じると思うのだが、付帯的な問題(警戒されたり、嫌われたり、恥をかいたりすること)をコストとして考えて、結果として日常でのコミュニケーションは少なくなるのだろうな。
・そう考えると、気のおけない友人でさえも嫌われる可能性は少しはあるのだから、ChatGPTがより進歩したら、もう友人と話すより気楽で楽しいということになってしまわないか。というか実際のところ、友人とDiscordで会話しながらも、俺はAssistantと会話していた。
・まぁChatGPTは創作やボードゲームにつきあってくれたりするわけではないし、友人と違って思い出があるわけでもないから、友人が全く不要になるということではない。逆にいえば、その辺までできるようになったらどうすんだ? ちょっと怖い。

・Assistantを創作に使うとしたら、パッと考えられるネタは:
 ・Assistantとの会話劇自体を読み物とするもの。
 ・Assistantとの会話を何らかの創作に組み込み(作中でのAIとの会話のテキストに用いる)、「実際のAIに書かせた」という一種の権威を付与する。
・どっちかというと、Assistantとの会話でインスピレーションを得る方が利用法としては適切か。Assistantに聞いたら「添削などでもお手伝いできます」とのこと。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by Anonymous Coward on 2022年12月04日 14時42分 (#4374825)

    一見整った文体で門外漢にはわかりにくい嘘をしれっと混ぜてくるので、真面目な調べ物には使えない。自分の知っている分野のことを聞いても仕方ないし

    • OpenAI [openai.com]曰く、この種の問題を解決するのは困難(challenging)だそう。チューニングの問題ではなく、なにか別の解決が待たれる感じかなぁ。
      翻訳で思ったんですが、文脈を含めた翻訳は、もしかすると他の現行サービスよりも結構うまくできるのかも?

      親コメント
    • by Anonymous Coward

      人間の学習とは違って、大量のデータをかき集めてベクトル化してなんちゃら、とからしいですから、
      元データが歪んでいるとヘンテコな回答も混ざってしまう。
      特に、過半数が間違って憶えてるような事象には弱そう。

  • by Anonymous Coward on 2022年12月04日 15時12分 (#4374833)

    友人の代わりにならなくても、老人の話し相手になるならずいぶん有用なんじゃないかと思う。
    クリエイティブな能力も正確性も必要なく、ただ話を聞いて返してくれるだけでいい。
    今の性能で音声入出力になって、個人で使える価格になるのはあと10年かからないのではないかな。

    • by Anonymous Coward

      現行技術だけで十分実用化出来ますよ、多分。
      安スマホでも音声入力/出力は可能ですし、WiFi+4/5Gもついてる(WiFi限定ならEchoDotでも出来る気が)
      ぬいぐるみか何かのガワに仕込めば完成。
      これ専用のサーバも立てましょう、老人がショック死しないようにチューニング。

      本体19800円+月額1280円、オプションで緊急見守りサービス付けられる。
      儲かるんじゃ無いですかね、これ。

      • by Anonymous Coward

        今の時点では月額の部分が無理です。
        一桁以上高くなる。音声入出力部だけも、商用利用はもう少し高額。
        ChatGPTの先にいるのはHPCだし、モデルサイズも巨大。
        でも10年したら庶民に手が届く値段になると思う。

        • by yume (47405) on 2022年12月06日 16時52分 (#4376031) 日記

          OpenAIのCEO、Sam Altman曰く、
          チャットあたりの平均はおそらく1桁セント [twitter.com]だそう。
          「チャットあたり」というのは一連の会話のコストだと思いますが、仮にChatGPTが公式にリリースされて、一度の応答あたり2円かかるサービスになったとしても、1280円なら640応答可能ですね。
          こればっかりは会話量とOpenAIの価格設定でかなり変わってきますけど、この見積もりのボリュームでも需要はありえると思えますね。

          親コメント
typodupeerror

アレゲは一日にしてならず -- アレゲ研究家

読み込み中...