パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

ChatGPTで判例を集めた弁護士、嘘の判例だらけという前代未聞の事態に」記事へのコメント

  • 正確な法令・政令・省令・告示・通達、裁判の判例等を学習させた、法令特化AIが出来て、
    こういった問題が解決するのでは?

    • by Anonymous Coward

      今のAIのしくみだと学習元が正しいからと言って出力が必ず正しくなるとは限らないからなぁ。
      無理なんじゃないか?

      • by Anonymous Coward

        そんなのは時間の問題でしょう
        AIは日進月歩で進んでるので、すぐに優秀な弁護士や裁判官を上回るAIになるのはほぼ確実

        • by Anonymous Coward on 2023年05月28日 20時37分 (#4467641)

          過去のAIの進化の仕方を見ていると、日進月歩というよりある時期急にブレイクスルーが起きるというパターンなので、時間の問題ではあるけどそれがいつになるかはあてにしない方がいいと思う。
          自動運転なんかもそうだよね。

          親コメント
          • ワイの大学の頃の指導教官が、そのパターンで、卒論書いてた頃は第n次AIブームの最中だったけど、博士論文書く頃には、その時代のAIの定番のやり方は行き詰まりかけてた。

            親コメント
          • by Anonymous Coward on 2023年05月28日 21時09分 (#4467663)

            まずはAIさんには「自分が間違うこともある」ってことを覚えさせるのが先ですね。
            今回の件でも多少の訂正はしつつも「俺は間違ってない」を押し通してるんだし。

            向こうでは謝ったら負けみたいな文化があるのかも知れないけど、まさかAIまでそのノリってのはどうなのよ。

            親コメント
            • by Anonymous Coward on 2023年05月28日 21時18分 (#4467669)

              全くだ、とりあえず語尾に「知らんけど」とつけておくだけで解決するのにな

              親コメント
            • User: マヨネーズとはなんですか
              Agent: 飲み物です。
              User: 違いますよね。訂正してください。
              Agent: 違いました。お詫びします。マヨネーズとはなんですかという疑問の答えは、

              ……という台本があったとして、今のGPTくん達はここから、現在のカーソル位置において次の単語を予測する上で、最後の読点から後ろに数えて60文字めと70文字め付近に含まれている文字列については次に出現する確率が著しく下がり、具体的には2位以下の"ドレッ"や"ソー"の確率がより高くなる、と弾き出せるようにはできてないんですよ。残念ながら。

              親コメント
            • by Anonymous Coward on 2023年05月28日 22時02分 (#4467692)

              今のAIはそもそも間違い/正しいという概念も持っていないだろうし、「俺は間違ってない」もつっこまれた場合の人間の対応を学習した結果と言っていいと思う。

              親コメント
              • もしくは持っていても、人間からすると「こいつらの考える『正しい/間違い』って、人間が考える『正しい/間違い』の概念と何かズレてねえか?」

                親コメント
              • by Anonymous Coward

                間違いの概念は持ってるよ。間違いを人間に指摘してもらい学習させるためにChatGPTはベータ版として無料公開されてるんだし。
                ただ、その指摘をいつどのようにどの程度反映させるのかは運営元の匙加減次第。

              • by Anonymous Coward

                間違いとか正しいとかいう事は何なのか?と聞けば辞書的な回答が返ってくるのではないかな

                ある文章がが間違いか正しいか?とかいう事を判定するのに特化した機構は持っていないね

                LLMは、ある文章が間違いか正しいかを判定できるだろうか?
                といえば、内部のニューラルネットに思いっきり刷り込まれていれば、判定に成功する可能性は高くなる、みたいな事しか言えないだろうと思うます

              • by Anonymous Coward

                これって出典元があれば誤情報でも載せられるウィキペディアでとっくの昔にみんな学んだことでしょ。

              • by Anonymous Coward

                持ってないよ。何を得意げに寝言を垂れ流してるの?

                根本的なシステムを変えない限り嘘をつく状況は何も変わらないよ。

              • これ、グラウンディング問題ってやつなんですかね。ChatGPTくんの妄言って、GPTくんが現実じゃなくどこか平行世界とか辺獄に生きてると想定すればそう間違ってないような気がしますし、分野に詳しくない匿名厄介さんとかが現実では広く共有されてる認識を受け入れていないときの挙動にも似てる気もしますし。

                親コメント
              • by Anonymous Coward on 2023年05月29日 9時15分 (#4467827)

                それは運営が間違いの概念を持ってることしか意味しないんでは?

                親コメント
              • by Anonymous Coward

                嘘をRejectするガワ付けたっていいと思うんだが
                なんで根本的に変えなきゃいかんの?

              • by Anonymous Coward

                すまん、俺は頭が悪いので、「嘘をリジェクトするガワ」をどう作れば良いか分からない

                もし良いアイデアがあるなら、OpenAIに教えてやってくれ。或いは貴方が特許をとるのも良いと思う

          • by Anonymous Coward

            自動運転については求めるレベルがおかしいだけだよ
            人間程度の運転はできてるのにAIには完璧を求めるから「完成」しないだけ

            • by Anonymous Coward

              ChatGPTたって人間程度に受け答えして人間程度に嘘をついてるだけ。
              そこに何の違いがある?

              • by Anonymous Coward

                現状だと一般的に期待できる人間よりは嘘を吐くかなぁ
                といって病的な嘘つき人間ともちょっと違う
                ある知識を自分が知ってるか知らないかさえ知らないんだよな

              • by Anonymous Coward

                言い方悪いけど、痴呆症の人みたいな感じ。
                会話可能だけど、事実ベースじゃなくなってる。

              • by Anonymous Coward

                まあこれまで読んだ文章を元に、それっぽい文章を作るといった機構だし

                それで自然言語で受け答え出来てるように見えるのが、今回のブレイクスルーな訳で

                人間でも似たような人が居たり、似たような状態に陥ったりはするやもだな

アレゲはアレゲを呼ぶ -- ある傍観者

処理中...