アカウント名:
パスワード:
>ChatGPT は一部を訂正しつつすべての判例は本物だと主張している
嘘を嘘と見抜け無い人はネットの情報を使わない方が良いといにしえに誰か言ってたような
ChatGPT「よって、私は人では無いので、嘘を見抜けるか否かに関わらず、ネット情報を活用してもいいんですね」
その人は、嘘を嘘と見抜ける奴なんか少数派なので、自信を持って語れば大丈夫、と立派な嘘吐きになりましたとさ
とかなんとかTwitterで誰かがゆってた
あんたのような嘘突き通して立派にやってる下っ端を同列に並べない時点でな
「見抜け無い」
嘘吐きに「本当か?」と聞いても「本当だ」としか言わんわな。
だから、一番タチが悪い嘘吐きは「本当の事を言う場合も、嘘を言う場合も有る」タイプの嘘吐きの中でも、更に「本当の事を言うべきタイミングと嘘を言うべきタイミングを見極めるのが巧い」奴なんですよ。
クレタ人、嘘吐かない
完璧なウソつきなら、下記の質問で良いのでは?「本当か?と聞いたら、本当だ!と答えるか?」#IQテストに使えそうだね
「仮定の質問には答えられない」と答えるんじゃないかな。# どこかの国でそういう嘘つきを見た気がする。
思い付きで答えていい状況じゃない人に、答えられないと知っていて記者はその質問をしているんだよ。これは誘導して揚げ足を取ったり口約束をさせるなど、失言をさせたい意図がある。そして答えなければ「仮定の質問には答えられない」を強調して不誠実感を醸し出した報道をする。
これは政治家も企業も一緒だし、どの国も同じだよ。オフィシャルな場での発言はとても重いことを逆手に取っているだけ。
> 実際はどうあれあんたが言ったみたいな言い訳の余地があって、あんたみたいなのが勝手に擁護してくれるからねそのままお返しします。こちらが擁護するまでもなく#4467902、#4468035と、勝手に批判の口実として使う人が出てきてますね。
> その程度の建前は誰でも分かっているのでは?
納得されてるから完結したと思ったじゃない反論しなきゃいけなかったの?
報道は揚げ足取りや不誠実に報道すると書いたこと、そこは納得してるんでしょということは正論で誠実な回答をしても、揚げ足取りなど出来ないならその質問者にとって価値が無い回答つまり正論で誠実な回答は報道されない
さらに言うなら・仮定の質問というのはいくらでも作り出せてきりがないから質問攻めにできる・仮定したことが実際に起きたとしても、現実は諸条件が様々あるので単純に同じにならない・仮定の質問と前置きして回答しても、言ったことを実行できなければ約束を反故にしたと責任追及できる もはや一人歩きし仮定ではなくなっている・仮定の質問に回答することそのものが、社会的影響を与える 外交、軍事で仮定の質問に回答すると、仮定の話にもかかわらず、その後の国際関係に悪影響がでたり、手の内をさらすことになる 財政や金融で仮定の質問に回答すると、仮定の話にもかかわらず、憶測で市場が混乱するなど悪影響がでる・回答者は一人だが、実際は複数人で検討した結果をもとに話している 突然の仮定の質問に対して、その回答者が勝手に回答できるものではない
仮定の質問に回答することは危険なんだよ
結論までの説明ををしっかり言わずに閣議決定しましたって既に終わったこととしてしまうから予めの言質を取りたくなるんだわね。密室が行けないのよ。
ネット上に、それが嘘の判例だという情報よりも正しい判例だという情報の方が多ければそれは正しいネットの集合知は偉大なのだ
真面目に話をすると、ある架空の事柄についてそれが間違っているという情報をネット上に99ヶ、正しいとする情報を100ヶばら撒けはChatGPTはそれを拾って正しい情報だと判断してくれるのではないか?
集合知が正しいわけじゃない。
ネット上に、それが嘘の判例だという情報よりも正しい判例だという情報の方が多ければそれは正しい
今のChatGPTの学習モデル&DBは基本的に集合知を前提で組まれているが、声の大きい/好まれるであろう内容又は人物(ソース)の意見に重みが調整されており、学習が引っ張られる。つまり「こうなってほしい」等の欲望を垂れ流している内容に。
難しいのは、「正しい」が「5W1H」を満たすかどうか、利用する側の状況に応じて変化するということ。現時点の回答内容から察するに、学習時に真偽の検証はほぼ入っていない模様。例えば極論、米国でキリスト教右派が勢力を増すと、進化論は否定されAIはそれを学習するだろう。日本など諸国がそれの影響を受けるのはナンセンスだ。
シンギュラリティに達したので人間が作る判例より多くの判例を生み出してるだけ
そして「判例」も「真実」もAIが生成していく時代に
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
海軍に入るくらいなら海賊になった方がいい -- Steven Paul Jobs
それが嘘 (スコア:2)
>ChatGPT は一部を訂正しつつすべての判例は本物だと主張している
嘘を嘘と見抜け無い人はネットの情報を使わない方が良いと
いにしえに誰か言ってたような
Re:それが嘘 (スコア:2)
ChatGPT「よって、私は人では無いので、嘘を見抜けるか否かに関わらず、ネット情報を活用してもいいんですね」
Re: (スコア:0)
その人は、嘘を嘘と見抜ける奴なんか少数派なので、自信を持って語れば大丈夫、と立派な嘘吐きになりましたとさ
とかなんとかTwitterで誰かがゆってた
Re: (スコア:0)
あんたのような嘘突き通して立派にやってる下っ端を同列に並べない時点でな
Re: (スコア:0)
「見抜け無い」
Re: (スコア:0)
嘘吐きに「本当か?」と聞いても「本当だ」としか言わんわな。
Re:それが嘘 (スコア:2)
だから、一番タチが悪い嘘吐きは「本当の事を言う場合も、嘘を言う場合も有る」タイプの嘘吐きの中でも、更に「本当の事を言うべきタイミングと嘘を言うべきタイミングを見極めるのが巧い」奴なんですよ。
Re: (スコア:0)
クレタ人、嘘吐かない
Re: (スコア:0)
完璧なウソつきなら、下記の質問で良いのでは?
「本当か?と聞いたら、本当だ!と答えるか?」
#IQテストに使えそうだね
Re: (スコア:0)
「仮定の質問には答えられない」と答えるんじゃないかな。
# どこかの国でそういう嘘つきを見た気がする。
Re:それが嘘 (スコア:1)
思い付きで答えていい状況じゃない人に、答えられないと知っていて記者はその質問をしているんだよ。
これは誘導して揚げ足を取ったり口約束をさせるなど、失言をさせたい意図がある。
そして答えなければ「仮定の質問には答えられない」を強調して不誠実感を醸し出した報道をする。
これは政治家も企業も一緒だし、どの国も同じだよ。
オフィシャルな場での発言はとても重いことを逆手に取っているだけ。
Re: (スコア:0)
> 実際はどうあれあんたが言ったみたいな言い訳の余地があって、あんたみたいなのが勝手に擁護してくれるからね
そのままお返しします。
こちらが擁護するまでもなく#4467902、#4468035と、勝手に批判の口実として使う人が出てきてますね。
Re:それが嘘 (スコア:1)
> その程度の建前は誰でも分かっているのでは?
納得されてるから完結したと思ったじゃない
反論しなきゃいけなかったの?
報道は揚げ足取りや不誠実に報道すると書いたこと、そこは納得してるんでしょ
ということは正論で誠実な回答をしても、揚げ足取りなど出来ないならその質問者にとって価値が無い回答
つまり正論で誠実な回答は報道されない
さらに言うなら
・仮定の質問というのはいくらでも作り出せてきりがないから質問攻めにできる
・仮定したことが実際に起きたとしても、現実は諸条件が様々あるので単純に同じにならない
・仮定の質問と前置きして回答しても、言ったことを実行できなければ約束を反故にしたと責任追及できる
もはや一人歩きし仮定ではなくなっている
・仮定の質問に回答することそのものが、社会的影響を与える
外交、軍事で仮定の質問に回答すると、仮定の話にもかかわらず、その後の国際関係に悪影響がでたり、手の内をさらすことになる
財政や金融で仮定の質問に回答すると、仮定の話にもかかわらず、憶測で市場が混乱するなど悪影響がでる
・回答者は一人だが、実際は複数人で検討した結果をもとに話している
突然の仮定の質問に対して、その回答者が勝手に回答できるものではない
仮定の質問に回答することは危険なんだよ
Re: (スコア:0)
結論までの説明ををしっかり言わずに
閣議決定しましたって
既に終わったこととしてしまうから
予めの言質を取りたくなるんだわね。
密室が行けないのよ。
Re: (スコア:0)
ネット上に、それが嘘の判例だという情報よりも正しい判例だという情報の方が多ければそれは正しい
ネットの集合知は偉大なのだ
真面目に話をすると、ある架空の事柄についてそれが間違っているという情報をネット上に99ヶ、正しいとする情報を100ヶばら撒けはChatGPTはそれを拾って正しい情報だと判断してくれるのではないか?
衆愚は怖い (スコア:0)
集合知が正しいわけじゃない。
ネット上に、それが嘘の判例だという情報よりも正しい判例だという情報の方が多ければそれは正しい
今のChatGPTの学習モデル&DBは基本的に集合知を前提で組まれているが、
声の大きい/好まれるであろう内容又は人物(ソース)の意見に重みが調整されており、学習が引っ張られる。
つまり「こうなってほしい」等の欲望を垂れ流している内容に。
難しいのは、「正しい」が「5W1H」を満たすかどうか、利用する側の状況に応じて変化するということ。
現時点の回答内容から察するに、学習時に真偽の検証はほぼ入っていない模様。
例えば極論、米国でキリスト教右派が勢力を増すと、進化論は否定されAIはそれを学習するだろう。
日本など諸国がそれの影響を受けるのはナンセンスだ。
Re: (スコア:0)
シンギュラリティに達したので人間が作る判例より多くの判例を生み出してるだけ
Re:それが嘘 (スコア:1)
そして「判例」も「真実」もAIが生成していく時代に