アカウント名:
パスワード:
当たり前の話だが正しい回答するものではなく、文献や資料から回答に近いものを選択するのみ。AIを絶対視する時代がくるのだろう思うが、資料の量によって賢者と馬鹿が同一端末同居してるようなもの
まぁ例えるなら池上彰に政治の話を聞けばまともな回答を得られるだろうがアニメキャラの質問してちょっと外れた回答してるようなもんでしょ。それをAIに置き換えればそんなもんでしょってことでしょう
MSのは、Google BardやChat-GPTと違ってソースのリンクが出るから、まずはそこをまずは確認しろって感じですな。
元ソースがアレなサイトだったりする可能性もあるし、日付だけ新しい古いネタを配信するところも有るから人間もやらかしかねない。
リンク先のソースのどこを探しても回答内容のようなことは書かれてなかったりするけどな
だからこそソース確認が必要なのよ。ソースもそんなこと言ってないパターンもあるしな。
AIは学習結果から結果からのあらゆる情報を逆算してそれを因果関係と結び付けて関係なさそうな部分から、未来を予想したり文献を大量に突っ込んでそれを元に回答を作る仕組みを考えると
推論仮にA政党とB政党とするとA政党発言内容と入れ学習させると、B政党は間違いである内容が書かれ、A政党向けの回答に偏る可能性がある。かと言ってB政党の内容を学習させればA政党と矛盾する内容が書かれるのでAIの回答率は半分に落ちる。そんなこんなですべてを学習させれば政党のようなものに限っては全く宛てにならない内容になる。
AIに学習させる前に、A政党での学習、B政党での学習で異なる学習で行い。さらに政権の与党と野党の位置付けを行い。最も対応として選択選択できる政策決定まで行う仕組みが必要と見た。ある意味AIの機能とチェスや将棋の思考を組み合わせてたような情報がレイヤー構造になっているAIがなければ政治には使えないと思われる。AIが精神分裂症など発症するかもしれませんが
> さらに政権の与党と野党の位置付けを行い。
なんでこれ必要なんだろう
コメント者は賛成反対を決めるのに与党か野党かで決めてるから、やろね
いや因果関係とか考えてない。関連性の高いものを引っ張ってくる仕組みだが、因果関係とかを求める仕組みはLLMには無い。
相関と因果、とかでぐぐると勉強になるかもね。
> MSのは、Google BardやChat-GPTと違ってソースのリンクが出るから、まずはそこをまずは確認しろって感じですな。
ソースを確認したいなら、既存の検索エンジンを使った方が早くない?
ストーリーがCopilotだから。あと、複数のソースをまとめてくれるのが通常の検索と違うのが大きなメリット。
そのサマリ化や纒め方が正しい方向性か内容が正確かはまた別で、失敗してるってのが本ストーリー。
あれも場当たり的対処だからなぁ…とりあえずBingでググる癖を付けさせて、検索結果を読ませることで矛盾しにくくしてる訳だけど結局はGPTが「言語的にこの方が滑らかで響きが良い」と思ってしまえばそっちが優先してしまうどうしても言葉で言いにくい事実は言いやすいデタラメに書き換わってしまう
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
計算機科学者とは、壊れていないものを修理する人々のことである
AIの信頼性 (スコア:0)
当たり前の話だが正しい回答するものではなく、文献や資料から回答に近いものを選択するのみ。
AIを絶対視する時代がくるのだろう思うが、資料の量によって賢者と馬鹿が同一端末同居してるようなもの
まぁ例えるなら
池上彰に政治の話を聞けばまともな回答を得られるだろうが
アニメキャラの質問してちょっと外れた回答してるようなもんでしょ。
それをAIに置き換えればそんなもんでしょってことでしょう
Re:AIの信頼性 (スコア:2, 参考になる)
MSのは、Google BardやChat-GPTと違ってソースのリンクが出るから、まずはそこをまずは確認しろって感じですな。
元ソースがアレなサイトだったりする可能性もあるし、
日付だけ新しい古いネタを配信するところも有るから人間もやらかしかねない。
Re:AIの信頼性 (スコア:2, すばらしい洞察)
リンク先のソースのどこを探しても回答内容のようなことは書かれてなかったりするけどな
Re:AIの信頼性 (スコア:2, すばらしい洞察)
だからこそソース確認が必要なのよ。
ソースもそんなこと言ってないパターンもあるしな。
Re: (スコア:0)
AIは学習結果から結果からのあらゆる情報を逆算してそれを因果関係と結び付けて
関係なさそうな部分から、未来を予想したり
文献を大量に突っ込んでそれを元に回答を作る仕組みを考えると
推論
仮にA政党とB政党とすると
A政党発言内容と入れ学習させると、B政党は間違いである内容が書かれ、A政党向けの回答に偏る可能性がある。
かと言ってB政党の内容を学習させればA政党と矛盾する内容が書かれるのでAIの回答率は半分に落ちる。
そんなこんなですべてを学習させれば政党のようなものに限っては全く宛てにならない内容になる。
AIに学習させる前に、A政党での学習、B政党での学習で異なる学習で行い。さらに政権の与党と野党の位置付けを
行い。最も対応として選択選択できる政策決定まで行う仕組みが必要と見た。
ある意味AIの機能とチェスや将棋の思考を組み合わせてたような
情報がレイヤー構造になっているAIがなければ政治には使えないと思われる。
AIが精神分裂症など発症するかもしれませんが
Re: (スコア:0)
> さらに政権の与党と野党の位置付けを行い。
なんでこれ必要なんだろう
Re: (スコア:0)
コメント者は賛成反対を決めるのに与党か野党かで決めてるから、やろね
Re: (スコア:0)
いや因果関係とか考えてない。関連性の高いものを引っ張ってくる仕組みだが、因果関係とかを求める仕組みはLLMには無い。
相関と因果、とかでぐぐると勉強になるかもね。
Re:AIの信頼性 (スコア:1)
> MSのは、Google BardやChat-GPTと違ってソースのリンクが出るから、まずはそこをまずは確認しろって感じですな。
ソースを確認したいなら、既存の検索エンジンを使った方が早くない?
Re:AIの信頼性 (スコア:1)
ストーリーがCopilotだから。
あと、複数のソースをまとめてくれるのが通常の検索と違うのが大きなメリット。
そのサマリ化や纒め方が正しい方向性か内容が正確かはまた別で、失敗してるってのが本ストーリー。
Re: (スコア:0)
あれも場当たり的対処だからなぁ…
とりあえずBingでググる癖を付けさせて、検索結果を読ませることで矛盾しにくくしてる訳だけど
結局はGPTが「言語的にこの方が滑らかで響きが良い」と思ってしまえばそっちが優先してしまう
どうしても言葉で言いにくい事実は言いやすいデタラメに書き換わってしまう