アカウント名:
パスワード:
正確な法令・政令・省令・告示・通達、裁判の判例等を学習させた、法令特化AIが出来て、こういった問題が解決するのでは?
今のAIのしくみだと学習元が正しいからと言って出力が必ず正しくなるとは限らないからなぁ。無理なんじゃないか?
そんなのは時間の問題でしょうAIは日進月歩で進んでるので、すぐに優秀な弁護士や裁判官を上回るAIになるのはほぼ確実
過去のAIの進化の仕方を見ていると、日進月歩というよりある時期急にブレイクスルーが起きるというパターンなので、時間の問題ではあるけどそれがいつになるかはあてにしない方がいいと思う。自動運転なんかもそうだよね。
まずはAIさんには「自分が間違うこともある」ってことを覚えさせるのが先ですね。今回の件でも多少の訂正はしつつも「俺は間違ってない」を押し通してるんだし。
向こうでは謝ったら負けみたいな文化があるのかも知れないけど、まさかAIまでそのノリってのはどうなのよ。
今のAIはそもそも間違い/正しいという概念も持っていないだろうし、「俺は間違ってない」もつっこまれた場合の人間の対応を学習した結果と言っていいと思う。
もしくは持っていても、人間からすると「こいつらの考える『正しい/間違い』って、人間が考える『正しい/間違い』の概念と何かズレてねえか?」
間違いの概念は持ってるよ。間違いを人間に指摘してもらい学習させるためにChatGPTはベータ版として無料公開されてるんだし。ただ、その指摘をいつどのようにどの程度反映させるのかは運営元の匙加減次第。
間違いとか正しいとかいう事は何なのか?と聞けば辞書的な回答が返ってくるのではないかな
ある文章がが間違いか正しいか?とかいう事を判定するのに特化した機構は持っていないね
LLMは、ある文章が間違いか正しいかを判定できるだろうか?といえば、内部のニューラルネットに思いっきり刷り込まれていれば、判定に成功する可能性は高くなる、みたいな事しか言えないだろうと思うます
これって出典元があれば誤情報でも載せられるウィキペディアでとっくの昔にみんな学んだことでしょ。
持ってないよ。何を得意げに寝言を垂れ流してるの?
根本的なシステムを変えない限り嘘をつく状況は何も変わらないよ。
これ、グラウンディング問題ってやつなんですかね。ChatGPTくんの妄言って、GPTくんが現実じゃなくどこか平行世界とか辺獄に生きてると想定すればそう間違ってないような気がしますし、分野に詳しくない匿名厄介さんとかが現実では広く共有されてる認識を受け入れていないときの挙動にも似てる気もしますし。
それは運営が間違いの概念を持ってることしか意味しないんでは?
嘘をRejectするガワ付けたっていいと思うんだがなんで根本的に変えなきゃいかんの?
すまん、俺は頭が悪いので、「嘘をリジェクトするガワ」をどう作れば良いか分からない
もし良いアイデアがあるなら、OpenAIに教えてやってくれ。或いは貴方が特許をとるのも良いと思う
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲは一日にしてならず -- アレゲ研究家
そのうち法令特化AIが出るのでは? (スコア:1)
正確な法令・政令・省令・告示・通達、裁判の判例等を学習させた、法令特化AIが出来て、
こういった問題が解決するのでは?
Re: (スコア:0)
今のAIのしくみだと学習元が正しいからと言って出力が必ず正しくなるとは限らないからなぁ。
無理なんじゃないか?
Re: (スコア:0)
そんなのは時間の問題でしょう
AIは日進月歩で進んでるので、すぐに優秀な弁護士や裁判官を上回るAIになるのはほぼ確実
Re: (スコア:1)
過去のAIの進化の仕方を見ていると、日進月歩というよりある時期急にブレイクスルーが起きるというパターンなので、時間の問題ではあるけどそれがいつになるかはあてにしない方がいいと思う。
自動運転なんかもそうだよね。
Re: (スコア:1)
まずはAIさんには「自分が間違うこともある」ってことを覚えさせるのが先ですね。
今回の件でも多少の訂正はしつつも「俺は間違ってない」を押し通してるんだし。
向こうでは謝ったら負けみたいな文化があるのかも知れないけど、まさかAIまでそのノリってのはどうなのよ。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
今のAIはそもそも間違い/正しいという概念も持っていないだろうし、「俺は間違ってない」もつっこまれた場合の人間の対応を学習した結果と言っていいと思う。
Re:そのうち法令特化AIが出るのでは? (スコア:2)
もしくは持っていても、人間からすると「こいつらの考える『正しい/間違い』って、人間が考える『正しい/間違い』の概念と何かズレてねえか?」
Re: (スコア:0)
間違いの概念は持ってるよ。間違いを人間に指摘してもらい学習させるためにChatGPTはベータ版として無料公開されてるんだし。
ただ、その指摘をいつどのようにどの程度反映させるのかは運営元の匙加減次第。
Re: (スコア:0)
間違いとか正しいとかいう事は何なのか?と聞けば辞書的な回答が返ってくるのではないかな
ある文章がが間違いか正しいか?とかいう事を判定するのに特化した機構は持っていないね
LLMは、ある文章が間違いか正しいかを判定できるだろうか?
といえば、内部のニューラルネットに思いっきり刷り込まれていれば、判定に成功する可能性は高くなる、みたいな事しか言えないだろうと思うます
Re: (スコア:0)
これって出典元があれば誤情報でも載せられるウィキペディアでとっくの昔にみんな学んだことでしょ。
Re: (スコア:0)
持ってないよ。何を得意げに寝言を垂れ流してるの?
根本的なシステムを変えない限り嘘をつく状況は何も変わらないよ。
Re:そのうち法令特化AIが出るのでは? (スコア:3)
これ、グラウンディング問題ってやつなんですかね。ChatGPTくんの妄言って、GPTくんが現実じゃなくどこか平行世界とか辺獄に生きてると想定すればそう間違ってないような気がしますし、分野に詳しくない匿名厄介さんとかが現実では広く共有されてる認識を受け入れていないときの挙動にも似てる気もしますし。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
それは運営が間違いの概念を持ってることしか意味しないんでは?
Re: (スコア:0)
嘘をRejectするガワ付けたっていいと思うんだが
なんで根本的に変えなきゃいかんの?
Re: (スコア:0)
すまん、俺は頭が悪いので、「嘘をリジェクトするガワ」をどう作れば良いか分からない
もし良いアイデアがあるなら、OpenAIに教えてやってくれ。或いは貴方が特許をとるのも良いと思う