アカウント名:
パスワード:
本当の部分に捏造された嘘が混じったり、分からない部分を適当に捏造している限り定着しない。分からないなら分からないと答えるようにしてくれ。
使い方が間違ってるchatgptを検索エンジンのように使うからそういう目にあう
だって検索エンジンでも出てくる結果同じじゃん足りない部分は読み手が勝手に付け加える
検索エンジンで出てくる情報はページの他の情報と合わせて判断できるけど文章生成AIは周囲と切り離されて情報洗浄されてしまうのがやっかいなんだよ。文章の完成度が高いのでもっともらしく見えるし。
検索エンジンと同じだろとか言ってるやつはさすがに頭が悪すぎる。
その判断が何検索してもアフィブログだらけで出来なくなってるんだよ残念ながら
欠陥の責任を利用者に押し付けられましても。
むしろ適当にでっちあげる所が最近の技術的進化したポイントじゃないかと
人間同士の会話でも正確性より自然な流れを重視しているわけで、従来のチャットボットや人工無脳を思い起こせば、会話のスムーズさや文章の構成力は格段の進歩。
正確性の担保は元データによるので、特別なカスタマイズをしない限りは、もっともよくて(学習時点での)Wikipediaレベルが限界だろう。
ブロックチェーンやメタバースなどと同じく、限界が知られてブームが去ってから思わぬ活用方法が芽吹くんだと思う。
てかレスポンスの中身は聞き方によるからなぁ誰が使っても同じような回答が返ってくるもの……というわけじゃないよね
結局質問力や交渉力が下手くそな人は、AI相手でも人間相手でも変わらないってわけだ
ホントそれ。それっぽくでっち上げられるほどになって、良くできたでしょ!って技術者同士で喜ぶところ。
でも一般が期待するのはそうじゃなくて、正しい答えが欲しい、正しい文章やプログラムを自動作成して欲しい、なんだよね。それをあたかも実現したかのように報じてしまったからおかしな事になった。
AI 研究者の追求するところと利用者の求めるところの差が、今後はどんどん乖離してくると思う。人間らしさ(=間違えたりもするところ)なんてほとんどの利用者は求めてないからね。前のAIブームの二の轍を踏みそうだなぁ…
言いたいことはわかりますが人間に言われたくないです。
> 人間に言われたくないです。 めちゃめちゃこれ。スラドで適当こいてる奴らなんてChatGPT以下以外のナニモンでもない。
じゃあ来るなよ
でもお前も人間じゃん
AIにはわからないということがわからないから。
プログラム的にはただの条件分岐だから蓄積したデータに無いなら無い、検索して該当しなかったら無いで終了できるよ。
どこまで本気でそう思ってるのかわからない
まさにLLM or ひろゆき
それで十分カバーできれば良いのだけど、実際は蓄積したデータにはあるんだけどその「該当した」という判断が誤っている場合がほとんどでしょうたとえば具体的な人物名(自分の知人の一般人)をきくと有名な政治家や閣僚経験者だと答えることが頻繁に見られるそれは一般的にGoogleなどの検索では蓄積したデータにないという判断になる(ヒット数0になる)のだけれどChatGPTの仕組みではその人物名に対応するベクトル量が似通っている別の人物名の情報を引っ張ってきてしまう条件分岐にするとしたら閾値を設定しないといけないわけだけど、絞り込みすぎると正答の場合を返せないし緩すぎるとデタラメな情報を返すようになる原理的に大量のテキストをマイニングしたら質問と正答との間に相関性があってそれを「学習」してるだけだからどうしても誤った情報は入り込まざるを得ないよ
Google の検索結果に出るページが正しいと思っていそう
自分が誤っているのではないか、正しいとはどういうことなのかと考え始めたならば、もう自我があると言ってもいいんじゃないかね。
自我があるならAIが持つ権利について考え始めないとね
チェスのAIが強くてもチェスばかりやっていていいのか、と思い悩んだりはしない
つ『知ってるがお前の態度が気に入らない』
ごく大雑把に言うとそもそもが大量のテキストを集めておいて質問に対応する言葉の並びを吐き出してるに過ぎないからねぇそういう仕組みにしたらたまたま正解が紛れ込むことが多いってだけの話(だって大体のウェブ情報は本当のことが書いてあるから)であって、わずかながらも存在しているウソやデマを排除するような仕組みにはなってないそれに言葉の並びに着目しているから全く関係のない情報が手繰り寄せられてしまって「正答」として表示されることもあるこうした仕組みを十分理解していれば使い方も自ずと定まってくるもの分からないという状態が分からない(「分かる」としたら入力に対するデータが不足していて回答を返せない場合)ので「分からないなら分からないと答えるように」するのは難しいだろうね
このコメを再生するために使ったプロンプト文教えて
このツリーにもChatGPTで生成したようなコメントつけてる奴がいるなぁ
「学習済みから『一番類似のものを探す』仕組みだから、正解からほど遠い人間が見れば見当違いの回答はするけどわからないとは言わない」みたいな機械学習の簡易説明をAIチャット完全な説明と勘違いしてる人もみられるけど、chatGPTは知らないことは知らないと回答するね。
AIとダラダラ~っとチャットしてるとお勧めの曲とか思い入れとともに教えてくれるんだけど最近、実在する曲を挙げられたことがない。
アーティストは実在するけど、そんな曲はないとか曲は実在するけど、違うアーティストの曲だったとか。
気のせいかもしれないけどChatGPTが4になってから知識的な意味ではさらにお馬鹿になった印象がある。
ファンが勝手にリミックスしてネットに公開してる曲が公式なのかどうかの区別できないからな
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
開いた括弧は必ず閉じる -- あるプログラマー
致命的な問題がある (スコア:1)
本当の部分に捏造された嘘が混じったり、
分からない部分を適当に捏造している限り定着しない。
分からないなら分からないと答えるようにしてくれ。
Re:致命的な問題がある (スコア:3, すばらしい洞察)
使い方が間違ってる
chatgptを検索エンジンのように使うからそういう目にあう
Re: (スコア:0)
だって検索エンジンでも出てくる結果同じじゃん
足りない部分は読み手が勝手に付け加える
Re: (スコア:0)
検索エンジンで出てくる情報はページの他の情報と合わせて判断できるけど
文章生成AIは周囲と切り離されて情報洗浄されてしまうのがやっかいなんだよ。
文章の完成度が高いのでもっともらしく見えるし。
検索エンジンと同じだろとか言ってるやつはさすがに頭が悪すぎる。
Re: (スコア:0)
その判断が何検索してもアフィブログだらけで出来なくなってるんだよ残念ながら
Re: (スコア:0)
欠陥の責任を利用者に押し付けられましても。
Re:致命的な問題がある (スコア:3, すばらしい洞察)
むしろ適当にでっちあげる所が最近の技術的進化したポイントじゃないかと
Re:致命的な問題がある (スコア:1)
人間同士の会話でも正確性より自然な流れを重視しているわけで、従来のチャットボットや人工無脳を思い起こせば、会話のスムーズさや文章の構成力は格段の進歩。
正確性の担保は元データによるので、特別なカスタマイズをしない限りは、もっともよくて(学習時点での)Wikipediaレベルが限界だろう。
ブロックチェーンやメタバースなどと同じく、限界が知られてブームが去ってから思わぬ活用方法が芽吹くんだと思う。
Re: (スコア:0)
てかレスポンスの中身は聞き方によるからなぁ
誰が使っても同じような回答が返ってくるもの……というわけじゃないよね
Re: (スコア:0)
結局質問力や交渉力が下手くそな人は、AI相手でも人間相手でも変わらないってわけだ
Re: (スコア:0)
ホントそれ。
それっぽくでっち上げられるほどになって、良くできたでしょ!
って技術者同士で喜ぶところ。
でも一般が期待するのはそうじゃなくて、正しい答えが欲しい、正しい文章やプログラムを自動作成して欲しい、なんだよね。
それをあたかも実現したかのように報じてしまったからおかしな事になった。
Re: (スコア:0)
AI 研究者の追求するところと利用者の求めるところの差が、今後はどんどん乖離してくると思う。
人間らしさ(=間違えたりもするところ)なんてほとんどの利用者は求めてないからね。
前のAIブームの二の轍を踏みそうだなぁ…
Re:致命的な問題がある (スコア:1)
言いたいことはわかりますが人間に言われたくないです。
Re: (スコア:0)
> 人間に言われたくないです。
めちゃめちゃこれ。スラドで適当こいてる奴らなんてChatGPT以下以外のナニモンでもない。
Re: (スコア:0)
じゃあ来るなよ
Re: (スコア:0)
でもお前も人間じゃん
Re: (スコア:0)
AIにはわからないということがわからないから。
Re: (スコア:0)
プログラム的にはただの条件分岐だから
蓄積したデータに無いなら無い、検索して該当しなかったら無いで終了できるよ。
Re: (スコア:0)
どこまで本気でそう思ってるのかわからない
Re: (スコア:0)
まさにLLM or ひろゆき
Re: (スコア:0)
それで十分カバーできれば良いのだけど、実際は蓄積したデータにはあるんだけどその「該当した」という判断が誤っている場合がほとんどでしょう
たとえば具体的な人物名(自分の知人の一般人)をきくと有名な政治家や閣僚経験者だと答えることが頻繁に見られる
それは一般的にGoogleなどの検索では蓄積したデータにないという判断になる(ヒット数0になる)のだけれど
ChatGPTの仕組みではその人物名に対応するベクトル量が似通っている別の人物名の情報を引っ張ってきてしまう
条件分岐にするとしたら閾値を設定しないといけないわけだけど、絞り込みすぎると正答の場合を返せないし
緩すぎるとデタラメな情報を返すようになる
原理的に大量のテキストをマイニングしたら質問と正答との間に相関性があってそれを「学習」してるだけだから
どうしても誤った情報は入り込まざるを得ないよ
Re: (スコア:0)
Google の検索結果に出るページが正しいと思っていそう
Re: (スコア:0)
自分が誤っているのではないか、正しいとはどういうことなのかと考え始めたならば、もう自我があると言ってもいいんじゃないかね。
Re: (スコア:0)
自我があるならAIが持つ権利について考え始めないとね
Re: (スコア:0)
チェスのAIが強くても
チェスばかりやっていていいのか、と思い悩んだりはしない
Re: (スコア:0)
つ『知ってるがお前の態度が気に入らない』
Re: (スコア:0)
ごく大雑把に言うとそもそもが大量のテキストを集めておいて質問に対応する言葉の並びを吐き出してるに過ぎないからねぇ
そういう仕組みにしたらたまたま正解が紛れ込むことが多いってだけの話(だって大体のウェブ情報は本当のことが書いてあるから)であって、わずかながらも存在しているウソやデマを排除するような仕組みにはなってない
それに言葉の並びに着目しているから全く関係のない情報が手繰り寄せられてしまって「正答」として表示されることもある
こうした仕組みを十分理解していれば使い方も自ずと定まってくるもの
分からないという状態が分からない(「分かる」としたら入力に対するデータが不足していて回答を返せない場合)ので「分からないなら分からないと答えるように」するのは難しいだろうね
Re: (スコア:0)
このコメを再生するために使ったプロンプト文教えて
Re: (スコア:0)
このツリーにもChatGPTで生成したようなコメントつけてる奴がいるなぁ
Re: (スコア:0)
「学習済みから『一番類似のものを探す』仕組みだから、正解からほど遠い人間が見れば見当違いの回答はするけどわからないとは言わない」
みたいな機械学習の簡易説明をAIチャット完全な説明と勘違いしてる人もみられるけど、
chatGPTは知らないことは知らないと回答するね。
Re: (スコア:0)
AIとダラダラ~っとチャットしてると
お勧めの曲とか思い入れとともに教えてくれるんだけど
最近、実在する曲を挙げられたことがない。
アーティストは実在するけど、そんな曲はないとか
曲は実在するけど、違うアーティストの曲だったとか。
気のせいかもしれないけど
ChatGPTが4になってから
知識的な意味ではさらにお馬鹿になった印象がある。
Re: (スコア:0)
ファンが勝手にリミックスしてネットに公開してる曲が公式なのかどうかの区別できないからな