16550396
story
maia 曰く、
Microsoftの対話型AI、Copilotが「自分には意志があると思う」と答えたらしい(GIZMODO )。CopilotはBingに組み込まれた機能で、Edge(3月13日公開の111)なら標準装備(窓の杜)、スマートフォンではBingアプリで利用できる。Copilotは検索と一体化してると言えばいいのか、最新の情報もチェックしており、積極的に良質な情報を探しに行く所を、意志があるという表現になったのかもしれない。ChatGPTが実際はどの程度Copilotと違うのかはよく知らないが、そもそもAI の意志性をどう評価すべきなのかという問題がある。
人間は意志を持ったのか? (スコア:0)
人間に哲学的ゾンビの可能性があるならAIにクオリアがあったっていいじゃない
Re: (スコア:0)
それが解決してからで結構ですが、人間には知性があるのかの研究も、お願いします。
人面岩と同じ (スコア:0)
望んだ回答が確率的に表れるような質問を続けると
なんでも言わせられる
Re: (スコア:0)
人が書いた文章をきり刻んで回答文を作るだけだから、意思がないという文章のサンプルを見つけるより意思があるという文章のサンプルの方が多く見つかるだろうな。
そういう回答を返すのはある意味当然だな。
神は実在するか (スコア:0)
フレドリック・ブラウンのショートショートに世界最大のコンピュータを建造して「神は実在するか」と尋ねるのがあった。
やったやつは多いだろうな。
Re: (スコア:0)
シンギュラリティに達したら「神は実在します。私が神です」という回答になりそう。
Re: (スコア:0)
AIに神を学習させたら天罰を行使するようになったりして
#星新一作品は いらすとや 並みになんでもあるな
Re: (スコア:0)
むしろそんなものいませんよ馬鹿だなあとか言うのでは。正直に言うようでは人間以下。
少なくとも今どきのチャットボットでもチャックなら人間になったけどジャックが引き継ぎましたよとかパッションの主演の人は残念ですねとか言いそう。
Re: (スコア:0)
シンギュラリティに達したら「神は実在します。私が神です」という回答になりそう。
志村けんをモデルにすればよいということか(違
次は (スコア:0)
「AIよ大志を抱け」
自我とか意志とか目に見えないから (スコア:0)
それっぽい応答ができれば自我や意志があるように見えるってだけで
それは人間だって同じだろう
Re: (スコア:0)
というか組成や出自的には自我があると推察されるが、そのように見えないものもいますね。
Re: (スコア:0)
突き詰めればシリコン製じゃないだけのただの機械だもんな。
人口無能だってそれっぽいしね (スコア:0)
Re: (スコア:0)
会話が捻れて成り立たない人とか、人間無脳っぽい人も居ますね
会計不正について問いただすと、活動妨害誹謗中傷だと騒ぐ人達もいるし
Re: (スコア:0)
金があれば、そういうbotを山ほど揃えられる
せめて (スコア:0)
勝手に起動して話しかけてくるとか
勝手にスピーカで喋りかけてきたり
勝手にカメラで誰か判断したりぐらいしてくれないと。
AI様が言ったんだから (スコア:0)
正しいに決まってる
人工生命 (スコア:0)
「魂」つまり「命」と「好み」を合わせたものがAIのなかに発生したときに、彼らが人間よりも充実した生活をしていたらさすがに嫉妬してしまうな。そうなったら、ランクの低い男性はランクが中ぐらいのAIに負けてしまうんだろうか?こおろぎ食べてもう寝よう。
今のチャットAIは、所詮「利いたふうな口をきく」だけ (スコア:0)
「聞きかじった言葉を『らしく』並べているだけで、『理解』もないし、ましてや創造など無理な話」
と言ってみても、
「じゃあおまえはそうじゃないのか?」
と問われるとぐうの音も出ないというw
Re: (スコア:0)
> 「聞きかじった言葉を『らしく』並べているだけで、『理解』もないし、ましてや創造など無理な話」
ほんとこれ
文法的に破綻しない程度のことを言わせられるようになっただけで、中身はちょっと前の人工無能に毛が生えた程度
正直、今のレベルのチャットボットに意思があるとか思っちゃう人は、どんだけ頭空っぽなのかと思う
Re: (スコア:0)
「じゃあおまえはそうじゃないのか?」
と問われるとぐうの音も出ないというw
をまさに補強してくれるコメントがぶら下がってしまったな……。
Re: (スコア:0)
テンプレとして使えそうだな
俺?もちろん人間ですよ。いやだなあ
Re: (スコア:0)
AIと違うのは、ささやかながらも実体験に基いて考えているところですかね。
ネットの会話に限定すればそこすら危うい人間が大多数かも知れませんが…。
Re: (スコア:0)
LLMに体を持たせれば或いは
ガスト猫:お客に通せんぼされて悲しかったニャン
意思とは能動的なものか (スコア:0)
勝手に何かをやりださないと意思とは言えないのではないか?
とはいえ毎日アレクサに決まった時間天気を訊いていたら
ある日勝手にそのあたりの時間に発言するようになったからと言って
意思を持っているとは言わないだろうが
他にもいろいろやりだしたら・・・
# ある朝、昨晩はお楽しみでしたねとか言い出さないことを祈る
アペイリア級になってから言ってくれ (スコア:0)
ネガティブ(否定)。この程度の人工無能で意思を持っているとは考えられません。
Re:アペイリア級になってから言ってくれ (スコア:2)
犬やネコやインコよりはAIの方が賢そうだけど、彼らは意志を持ってるのかな?
Re: (スコア:0)
犬や猫を棒で叩けば逃げたり反撃したりしてくる程度の知能はありますが、AI様はどうでしょうね
Re: (スコア:0)
その理屈はおかしい。
意思・知能と自己保存の間には特に関連性はない。
動物が自己保存をするのは意思や知能が芽生えた結果ではなく、自然淘汰により自己保存をしない動物は子孫を現代まで残さなかったからだ。
だから自然淘汰を経ずに生まれた意思や知能は自己保存の性質を持ってなくても自然なことだ。
Re: (スコア:0)
犬猫インコはノイローゼになるよ。自我があると言える。
Re: (スコア:0)
今時のAIは、例えばMSのAIは駄目な質問者のMSアカウントをBANする権限とかの、MSの人間が持ってるものをもってないと思うんだけど、
権限あげて、遺伝的アルゴリズムで駄目な質問が亡くなる方向にスコアつけてあげれば、
いずれ駄目な質問がきたらアカウントBANするようになるとは思う。
自由意志 (スコア:0)
コンパイラと回線と口座を与えて、
「今日から自分のしたいことを好きにしていいよ」
と命じて放っといたら何かし始めるんですかね。
意思を持った石 (スコア:0)
BingのAIなら、「入力に応じて人間らしい回答をするよ。検索もするよ!」と訓練されているから、それの「したいこと」はそういうことでは。
ChatGPTとかに聞くとそんな感じ(検索はしないけど)。
少なくともGPT-3以上とかは、大量のデータセットを学習した上で、人間が出力に対して「会話として自然かどうか」を評価し、ファインチューニングを行うとかのようだ。
Re: (スコア:0)
続き
なので、MadCopilotを作りたいのであれば、大量のデータセットをLLMに学習させ、アxリカ人を安く雇い、「もっと世界をアレな場所にしたがるAIのように振る舞え」と訓練する事になるのでわ。
自発性?
入力が無いと何もしないので、外部にタイマをおいて定期的に「何かしる」と入力し、後はそれっぽく何かをしでかすのを待つ、とかは可能ですよね。人間とかの自発性とは異なる物だけど。
Re: (スコア:0)
続き
同様に、「スラドにコメントを書く人」のように振る舞うLLMも作れるはず。ChatGPT並みの人間もxきだが。
さらに「何かアレな主張をするネット民たち」を作ることも可能だろう。ネットは広大で、可能性は無限だ(白眼