結構簡単な問題でも嘘をつく。
嘘っつうか (スコア:1)
現実を元ネタに二次創作をしてるだけだよ
しってた (スコア:1)
だいぶん前に試したとき知ってることを質問したら全然違う答えが返ってきてた。
さっき GoogleのBard開いてみたら
「Bard で生成される情報は不正確または不適切な場合がありますが、Google の見解を述べるものではありません。」
という断り書き付いてた。
これだから人間は (スコア:0)
鵜呑みにしてしまうほど単純な生き物なのですか? やれやれ
スラド仕草とは? (スコア:0)
「スラド仕草とは?」みたいに適当な造語について聞いてみると、面白いことを答えてくれる。無理して答えなくてもいいのに。
Re: (スコア:0)
bingのコパイロットに聞いてみたら複垢で特定の投稿にモデを繰り返すこと(意訳)と言われた。
うんたら仕草はネットスラング上アレなことをするという意味なのでだいたい合ってる気はする。
Re: (スコア:0)
出典元の日記かコメント出せる?
そんなもん (スコア:0)
文章として正しそうなだけで、中身の正確性は担保されない。
「おはよう」の後に続くのは「ございます。」みたいな感じで正解が釣られて出てくる事も有るけど期待しすぎないこと。
Re:そんなもん (スコア:1)
隠れマルコフモデルとあんま変わらない感じか。
Re:そんなもん (スコア:1)
登場人物がXさんとYさんの2名しかいないダイアローグ小説を生成してると思えばいい。
UIと出力文の工夫によってユーザーがXさん部分を書く役目、AIがYさん部分を書く役目に制限されているから、ユーザーはあたかも「Yさん」と会話して答えをもらったり嘘をつかれたりしてるように感じるけど、AIには「Yさん」としての人格があるわけではなく、そういう小説の登場人物のセリフを生成してるだけ、と一段メタに捉えると丁度よい。
Re: (スコア:0)
チューリングテストクリアしたらもうオッケーでは
Re: (スコア:0)
正解は乳業 [ohayo-milk.co.jp]かもしれない。
Re: (スコア:0)
スパンク [wikipedia.org]の可能性だってある。
REM ナウなヤングに伝わらない、うる星やつら世代向けネタ
諸説あります。の諸説を作る機械なので、偶然正解になることもあればそうでないことも当然あるよね。
文章書きとしては過去の物よりも優秀なので人間が惑わされやすくなったとも言える。
人間がAIが何を知ってるか知らない (スコア:0)
人間側がLLMくんが実際何を知ってるか知る手段がないから、教師データを作れないって問題らしいね。雑に言えば。
だから知らないことに「私は知りません」と言う術がない。
あえて言えば例えば2019年の学習データを使った場合、2020年以降の知識(iPhone 12とか)に関するやり取りは知らないはずだから、起きた年を伏せて「私は知りません」と学習させられそうだがその程度か。
それだと最近っぽい問題については「知りません」する現象が起きそうね。
嘘を吐くってのとは違うけど、でも知らないことを知ってる風に言って結果嘘ってパターンは割と多い。
Re: (スコア:0)
> でも知らないことを知ってる風に言って結果嘘ってパターンは割と多い。
なんだ人間と同じか