アカウント名:
パスワード:
当たり前の話だが正しい回答するものではなく、文献や資料から回答に近いものを選択するのみ。AIを絶対視する時代がくるのだろう思うが、資料の量によって賢者と馬鹿が同一端末同居してるようなもの
まぁ例えるなら池上彰に政治の話を聞けばまともな回答を得られるだろうがアニメキャラの質問してちょっと外れた回答してるようなもんでしょ。それをAIに置き換えればそんなもんでしょってことでしょう
MSのは、Google BardやChat-GPTと違ってソースのリンクが出るから、まずはそこをまずは確認しろって感じですな。
元ソースがアレなサイトだったりする可能性もあるし、日付だけ新しい古いネタを配信するところも有るから人間もやらかしかねない。
リンク先のソースのどこを探しても回答内容のようなことは書かれてなかったりするけどな
だからこそソース確認が必要なのよ。ソースもそんなこと言ってないパターンもあるしな。
AIは学習結果から結果からのあらゆる情報を逆算してそれを因果関係と結び付けて関係なさそうな部分から、未来を予想したり文献を大量に突っ込んでそれを元に回答を作る仕組みを考えると
推論仮にA政党とB政党とするとA政党発言内容と入れ学習させると、B政党は間違いである内容が書かれ、A政党向けの回答に偏る可能性がある。かと言ってB政党の内容を学習させればA政党と矛盾する内容が書かれるのでAIの回答率は半分に落ちる。そんなこんなですべてを学習させれば政党のようなものに限っては全く宛てにならない内容になる。
AIに学習させる前に、A政党での学習、B政党での学習で異なる学習で行い。さらに政権の与党と野党の位置付けを行い。最も対応として選択選択できる政策決定まで行う仕組みが必要と見た。ある意味AIの機能とチェスや将棋の思考を組み合わせてたような情報がレイヤー構造になっているAIがなければ政治には使えないと思われる。AIが精神分裂症など発症するかもしれませんが
> さらに政権の与党と野党の位置付けを行い。
なんでこれ必要なんだろう
コメント者は賛成反対を決めるのに与党か野党かで決めてるから、やろね
いや因果関係とか考えてない。関連性の高いものを引っ張ってくる仕組みだが、因果関係とかを求める仕組みはLLMには無い。
相関と因果、とかでぐぐると勉強になるかもね。
> MSのは、Google BardやChat-GPTと違ってソースのリンクが出るから、まずはそこをまずは確認しろって感じですな。
ソースを確認したいなら、既存の検索エンジンを使った方が早くない?
ストーリーがCopilotだから。あと、複数のソースをまとめてくれるのが通常の検索と違うのが大きなメリット。
そのサマリ化や纒め方が正しい方向性か内容が正確かはまた別で、失敗してるってのが本ストーリー。
あれも場当たり的対処だからなぁ…とりあえずBingでググる癖を付けさせて、検索結果を読ませることで矛盾しにくくしてる訳だけど結局はGPTが「言語的にこの方が滑らかで響きが良い」と思ってしまえばそっちが優先してしまうどうしても言葉で言いにくい事実は言いやすいデタラメに書き換わってしまう
ひろゆきよりは当てになる
社員的にはアップルを叩くようにひろゆきを叩くのだろうけどまずこのAIの信頼性はゼロって事ですよ。AIから回答で80%自身がある、90%自身がないの情報という情報がなく、最終コメントとしてその信頼せいが正負の1と0の差がわからない。利用者は、高い自信のあるコメントと全く自信がないコメントを同列に扱わないければならない。結果、信頼性はありませんという事である。このようなAIから出力を有効活用するためにはAIがどれくらい自信があるかも数値が必要になるでしょう。
> AIから回答で80%自身がある、90%自身がない
80%Ai自身ということは残りの20%は何なんだろうか
やさしさじゃね?
> AIがどれくらい自信があるかも数値が必要になるでしょう。
AIの信頼性はゼロって言いながらAIが出力する自信があるかどうかの数値は信頼しちゃうんですね。
尤度と確率の違いも判ってなさそう。
信頼性がゼロなら間違いがなくていい。ひろゆきの信頼性はゼロ。でもAIの回答はそうじゃない。
ひらめき(違和感や直感)欠けてるだけで過程は生物とまったく同じググって問に嵌るか否か位しか判断しない事象ではほぼ同レベルここまで来たかって感想。
無能な奴ほど自分が望んだ結果を得られないと道具のせいにする無能な奴ほど例え話を使いたがり事実と異なる話にする
三割打者なら十分ですよみたいな
常時自信満々の回答に見えるからいけない
フィクションの人工知能の描写にありがちな自信の度合い的なのを、ランダムでパーセント表示するようにすれば回答に起因するトラブルは大分減ると思われその仕組みがわかろうがわからなかろうが、もしかしていい加減なこと言ってるかもしれないと臭わせるには足る大抵の人間は僅かでも疑念を抱けばそいつの言うことを鵜呑みにするのは難しい
取りあえず日本向けではカカタカナベースでしゃべることによりロボット感を出すというのはどうか
そこら辺は有能だから、そう喋ってくれとプロンプトに入れればやってくれそうだ。ただし普通に喋れ、と言われればそうするだろう
手前にフィルタ入れりゃ確実ですよ!
全く見当がつかない時に調べ始めるための手掛かりに使うには便利だけど頭から信じるにはまだ早いですね
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
Stableって古いって意味だっけ? -- Debian初級
AIの信頼性 (スコア:0)
当たり前の話だが正しい回答するものではなく、文献や資料から回答に近いものを選択するのみ。
AIを絶対視する時代がくるのだろう思うが、資料の量によって賢者と馬鹿が同一端末同居してるようなもの
まぁ例えるなら
池上彰に政治の話を聞けばまともな回答を得られるだろうが
アニメキャラの質問してちょっと外れた回答してるようなもんでしょ。
それをAIに置き換えればそんなもんでしょってことでしょう
Re:AIの信頼性 (スコア:2, 参考になる)
MSのは、Google BardやChat-GPTと違ってソースのリンクが出るから、まずはそこをまずは確認しろって感じですな。
元ソースがアレなサイトだったりする可能性もあるし、
日付だけ新しい古いネタを配信するところも有るから人間もやらかしかねない。
Re:AIの信頼性 (スコア:2, すばらしい洞察)
リンク先のソースのどこを探しても回答内容のようなことは書かれてなかったりするけどな
Re:AIの信頼性 (スコア:2, すばらしい洞察)
だからこそソース確認が必要なのよ。
ソースもそんなこと言ってないパターンもあるしな。
Re: (スコア:0)
AIは学習結果から結果からのあらゆる情報を逆算してそれを因果関係と結び付けて
関係なさそうな部分から、未来を予想したり
文献を大量に突っ込んでそれを元に回答を作る仕組みを考えると
推論
仮にA政党とB政党とすると
A政党発言内容と入れ学習させると、B政党は間違いである内容が書かれ、A政党向けの回答に偏る可能性がある。
かと言ってB政党の内容を学習させればA政党と矛盾する内容が書かれるのでAIの回答率は半分に落ちる。
そんなこんなですべてを学習させれば政党のようなものに限っては全く宛てにならない内容になる。
AIに学習させる前に、A政党での学習、B政党での学習で異なる学習で行い。さらに政権の与党と野党の位置付けを
行い。最も対応として選択選択できる政策決定まで行う仕組みが必要と見た。
ある意味AIの機能とチェスや将棋の思考を組み合わせてたような
情報がレイヤー構造になっているAIがなければ政治には使えないと思われる。
AIが精神分裂症など発症するかもしれませんが
Re: (スコア:0)
> さらに政権の与党と野党の位置付けを行い。
なんでこれ必要なんだろう
Re: (スコア:0)
コメント者は賛成反対を決めるのに与党か野党かで決めてるから、やろね
Re: (スコア:0)
いや因果関係とか考えてない。関連性の高いものを引っ張ってくる仕組みだが、因果関係とかを求める仕組みはLLMには無い。
相関と因果、とかでぐぐると勉強になるかもね。
Re:AIの信頼性 (スコア:1)
> MSのは、Google BardやChat-GPTと違ってソースのリンクが出るから、まずはそこをまずは確認しろって感じですな。
ソースを確認したいなら、既存の検索エンジンを使った方が早くない?
Re:AIの信頼性 (スコア:1)
ストーリーがCopilotだから。
あと、複数のソースをまとめてくれるのが通常の検索と違うのが大きなメリット。
そのサマリ化や纒め方が正しい方向性か内容が正確かはまた別で、失敗してるってのが本ストーリー。
Re: (スコア:0)
あれも場当たり的対処だからなぁ…
とりあえずBingでググる癖を付けさせて、検索結果を読ませることで矛盾しにくくしてる訳だけど
結局はGPTが「言語的にこの方が滑らかで響きが良い」と思ってしまえばそっちが優先してしまう
どうしても言葉で言いにくい事実は言いやすいデタラメに書き換わってしまう
Re:AIの信頼性 (スコア:1)
ひろゆきよりは当てになる
Re:AIの信頼性 (スコア:1)
ひろゆきよりは当てになる
社員的にはアップルを叩くようにひろゆきを叩くのだろうけど
まずこのAIの信頼性はゼロって事ですよ。
AIから回答で80%自身がある、90%自身がないの情報という情報がなく、
最終コメントとしてその信頼せいが正負の1と0の差がわからない。
利用者は、高い自信のあるコメントと全く自信がないコメントを同列に扱わないければならない。
結果、信頼性はありませんという事である。
このようなAIから出力を有効活用するためには
AIがどれくらい自信があるかも数値が必要になるでしょう。
Re: (スコア:0)
> AIから回答で80%自身がある、90%自身がない
80%Ai自身ということは残りの20%は何なんだろうか
Re: (スコア:0)
やさしさじゃね?
Re: (スコア:0)
> AIがどれくらい自信があるかも数値が必要になるでしょう。
AIの信頼性はゼロって言いながら
AIが出力する自信があるかどうかの数値は信頼しちゃうんですね。
尤度と確率の違いも判ってなさそう。
Re: (スコア:0)
信頼性がゼロなら間違いがなくていい。ひろゆきの信頼性はゼロ。でもAIの回答はそうじゃない。
Re: (スコア:0)
ひらめき(違和感や直感)欠けてるだけで過程は生物とまったく同じ
ググって問に嵌るか否か位しか判断しない事象ではほぼ同レベル
ここまで来たかって感想。
Re: (スコア:0)
無能な奴ほど自分が望んだ結果を得られないと道具のせいにする
無能な奴ほど例え話を使いたがり事実と異なる話にする
Re: (スコア:0)
三割打者なら十分ですよみたいな
Re: (スコア:0)
常時自信満々の回答に見えるからいけない
フィクションの人工知能の描写にありがちな自信の度合い的なのを、ランダムでパーセント表示するようにすれば回答に起因するトラブルは大分減ると思われ
その仕組みがわかろうがわからなかろうが、もしかしていい加減なこと言ってるかもしれないと臭わせるには足る
大抵の人間は僅かでも疑念を抱けばそいつの言うことを鵜呑みにするのは難しい
Re:AIの信頼性 (スコア:2)
取りあえず日本向けではカカタカナベースでしゃべることによりロボット感を出すというのはどうか
Re: (スコア:0)
そこら辺は有能だから、そう喋ってくれとプロンプトに入れればやってくれそうだ。ただし普通に喋れ、と言われればそうするだろう
Re:AIの信頼性 (スコア:2)
手前にフィルタ入れりゃ確実ですよ!
Re: (スコア:0)
全く見当がつかない時に調べ始めるための手掛かりに使うには便利だけど
頭から信じるにはまだ早いですね