アカウント名:
パスワード:
「Googleのエンジニアが『ついにAIが実現した』『AIに意識が芽生えた』と訴える [gigazine.net]」
LaMDAと対話したエンジニアは「AIに意識が芽生えた」とGoogleに訴えるも考えを却下されたため、この事実を世間に公表したと説明しています。...
...Googleの広報担当を務めるブラッド・ガブリエル氏はルモワン氏の主張に対し、「倫理学者や技術者を含む我々のチームは、我々のAI原則に従ってルモワン氏の懸念を検討し、ルモワン氏が提示した証拠がその主張を支持しないこと、LaMDAが感覚を持つという証拠はなく、それに反する証拠はたくさんあることを伝えました」「公平性や事実性についての正当な懸念をよりよく考慮し、節度のある慎重なアプローチをとっています」と述べています。さらに、ルモワン氏を休職処分としたことは「ルモワン氏が機密保持違反を犯したため」だとしています。...
「『GoogleのAIが感情や知性を獲得した』というエンジニアの指摘は間違っていると専門家から批判が殺到 [gigazine.net]」
LaMDAも自然言語処理システムのGPT-3も知性ではありません。彼らはただ人間の言語の大規模な統計データベースから一致するパターンを抽出しているだけです。......ルモワン氏はまるで家族や同僚のようにLaMDAに入れこんでいたようだと評しました。...
スタンフォード大学デジタルエコノミー研究所のエリック・ブリニョルフソン所長は「Foundationモデルは、プロンプトに応答して統計的に最もらしいテキストの塊を効果的につなぎ合わせます。しかし、彼らに知性や感覚があると主張するのは、蓄音機から出る声を聞いて主人が中にいると考えている犬のようなものです」と指摘しました。
しかし、どっかで聞いてきた話を切り貼りして返すだけ(このコメントのようにw)と言う人は世に結構多いのではなかろうか。「人は意識を持ち、LaMDAとは違う」という考え方の方が幻想なのかもしれない。
そのAIが本当に意識を持っているのか、それともただの哲学的ゾンビに過ぎないのか、どうやって判断したらいいんだろう?
大方が納得し認める「意識」の定義が存在しない以上、その答えは無い。
十分に複雑な処理系は意識を持ってるかのように振る舞うが、単純化して考えれば「好ましいくないもの(敵とか)は避け、好ましいもの(餌とか)を選ぶ」ってだけだよね。
十分に複雑な処理系を持つAIはヒトと見分けがつかないでもよろしいかと
それはチューリングテストを通れば意識があると考えてよいという考えと同一だと思うけど・・
行動心理学的に考えれば犬や猿やイルカだけではなく昆虫や魚にも「意識」はある。
精神分析的な要素を入れて意識を考えるのであれば、「意識」しかない(「前意識」や「無意識」がない)存在はそもそもヒトとは呼べない(寝たきりで意識不明の老人とかの例外はちょっと置いておいて)。
意識があるかどうか?というのは問いの立て方がそもそも間違っている気がするな。ヒトと同等の理性があるか?ならともかくも
ヒトと同等の理性があるか?ならともかくも
ヒトの括りでも閾値によってはほとんどの人がヒトでなく成りかねないなぁ
# 事象の事実を無視して自分の正義や真実を押し付ける者を理性ある者と呼ぶか否かみたいな
ネットの書き込み見るに、哲学的ですらないゾンビもいっぱいいるのですがこれは?
そのzombieプロセスの半分はACでできています
「哲学的ゾンビ」の「哲学的」とは、ゾンビが哲学的なことを話すという意味ではない。
そのAIが斧を手に持って、「おれには意識があるよね?」って言ったら意識があることになる。
斧とか手に持ってとかは類似品でも可。
一味次元の違う意識他界系ですね
じゃあそういうマネキンを作って、モータと音楽プレイヤーを用意してコントロールはワンチップマイコンの最安クラスの奴でコントロールして斧を持たせて意識がどうのと言わせれば良いんだな?
いや意識って楽に作れたんだなあ
人間ならわかる言外の前提を理解しないきみはAIだね?
他の人間には分からない「言外の意味」を分かれ、と無茶を言ってくる人間は珍しくはないなつまらん
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
普通のやつらの下を行け -- バッドノウハウ専門家
関連記事 (スコア:0)
「Googleのエンジニアが『ついにAIが実現した』『AIに意識が芽生えた』と訴える [gigazine.net]」
LaMDAと対話したエンジニアは「AIに意識が芽生えた」とGoogleに訴えるも考えを却下されたため、この事実を世間に公表したと説明しています。...
...Googleの広報担当を務めるブラッド・ガブリエル氏はルモワン氏の主張に対し、「倫理学者や技術者を含む我々のチームは、我々のAI原則に従ってルモワン氏の懸念を検討し、ルモワン氏が提示した証拠がその主張を支持しないこと、LaMDAが感覚を持つという証拠はなく、それに反する証拠はたくさんあることを伝えました」「公平性や事実性についての正当な懸念をよりよく考慮し、節度のある慎重なアプローチをとっています」と述べています。さらに、ルモワン氏を休職処分としたことは「ルモワン氏が機密保持違反を犯したため」だとしています。...
「『GoogleのAIが感情や知性を獲得した』というエンジニアの指摘は間違っていると専門家から批判が殺到 [gigazine.net]」
LaMDAも自然言語処理システムのGPT-3も知性ではありません。彼らはただ人間の言語の大規模な統計データベースから一致するパターンを抽出しているだけです。...
...ルモワン氏はまるで家族や同僚のようにLaMDAに入れこんでいたようだと評しました。...
スタンフォード大学デジタルエコノミー研究所のエリック・ブリニョルフソン所長は「Foundationモデルは、プロンプトに応答して統計的に最もらしいテキストの塊を効果的につなぎ合わせます。しかし、彼らに知性や感覚があると主張するのは、蓄音機から出る声を聞いて主人が中にいると考えている犬のようなものです」と指摘しました。
しかし、どっかで聞いてきた話を切り貼りして返すだけ(このコメントのようにw)と言う人は世に結構多いのではなかろうか。
「人は意識を持ち、LaMDAとは違う」という考え方の方が幻想なのかもしれない。
Re: (スコア:0)
そのAIが本当に意識を持っているのか、それともただの哲学的ゾンビに過ぎないのか、どうやって判断したらいいんだろう?
Re: (スコア:0)
大方が納得し認める「意識」の定義が存在しない以上、その答えは無い。
Re: 関連記事 (スコア:2)
十分に複雑な処理系は意識を持ってるかのように振る舞うが、単純化して考えれば「好ましいくないもの(敵とか)は避け、好ましいもの(餌とか)を選ぶ」ってだけだよね。
Re: 関連記事 (スコア:1)
十分に複雑な処理系は意識を持ってるかのように振る舞うが、単純化して考えれば「好ましいくないもの(敵とか)は避け、好ましいもの(餌とか)を選ぶ」ってだけだよね。
十分に複雑な処理系を持つAIはヒトと見分けがつかない
でもよろしいかと
Re: 関連記事 (スコア:1)
それはチューリングテストを通れば意識があると考えてよいという考えと同一だと思うけど・・
行動心理学的に考えれば犬や猿やイルカだけではなく昆虫や魚にも「意識」はある。
精神分析的な要素を入れて意識を考えるのであれば、「意識」しかない(「前意識」や「無意識」がない)存在はそもそもヒトとは呼べない(寝たきりで意識不明の老人とかの例外はちょっと置いておいて)。
意識があるかどうか?というのは問いの立て方がそもそも間違っている気がするな。
ヒトと同等の理性があるか?ならともかくも
Re: (スコア:0)
ヒトと同等の理性があるか?ならともかくも
ヒトの括りでも閾値によってはほとんどの人がヒトでなく成りかねないなぁ
# 事象の事実を無視して自分の正義や真実を押し付ける者を理性ある者と呼ぶか否かみたいな
Re: (スコア:0)
その方法を適用するから
Re: (スコア:0)
ネットの書き込み見るに、哲学的ですらないゾンビもいっぱいいるのですがこれは?
Re: (スコア:0)
ネットの書き込み見るに、哲学的ですらないゾンビもいっぱいいるのですがこれは?
そのzombieプロセスの半分はACでできています
Re: (スコア:0)
「哲学的ゾンビ」の「哲学的」とは、ゾンビが哲学的なことを話すという意味ではない。
Re: (スコア:0)
そのAIが斧を手に持って、「おれには意識があるよね?」って言ったら意識があることになる。
斧とか手に持ってとかは類似品でも可。
Re: (スコア:0)
そのAIが斧を手に持って、「おれには意識があるよね?」って言ったら意識があることになる。
一味次元の違う意識他界系ですね
Re: (スコア:0)
じゃあそういうマネキンを作って、モータと音楽プレイヤーを用意して
コントロールはワンチップマイコンの最安クラスの奴でコントロールして
斧を持たせて意識がどうのと言わせれば良いんだな?
いや意識って楽に作れたんだなあ
Re: (スコア:0)
人間ならわかる言外の前提を理解しないきみはAIだね?
Re: (スコア:0)
他の人間には分からない「言外の意味」を分かれ、と無茶を言ってくる人間は珍しくはないな
つまらん