アカウント名:
パスワード:
これがいわゆる人工無脳なのか、それとも本当に言葉の意味を理解してるマジな AI なのかによって深刻さは全然ちがうよね。なんにしても、ロボット三原則みたいなものは、最優先で整備すべきなのかも。
例えば「ソフトウェア第一原則 ソフトウェアはsegfaultしてはいけない」みたいなものを作ったとしてどうやって守らせるんだ
ロボット三原則を厳密に守らせるのは無理っていうのは昔から言われてると思うけど、だからといって簡単に人類抹殺を考えてしまうような AI の製造をホイホイと許すのも、どうかと思うということですよ。
>ロボット三原則を厳密に守らせるのは無理っていうのは
「実装が激しく難しい」ってのは昔から言われてるし同感だが、「厳密に守らせるのが無理」って言ってる奴は単にロボット三原則を全く分かってないだけ。
「強制的に守らせる」ものじゃなくて、「自発的にそのように行動する」ものなのだから。
ロボットにとっての自発的という言葉を定義しないとな人を殺しておいて「そんなつもりはなかった」と言うのはいいのか?
大本の「われはロボット」でも似た話がありますよ. ちょっといじられて不完全な第一原則のロボットの場合, 人の上から重量物を落として殺すことが出来てしまうとか.
なぜなら, 重量物を落としても, ロボットがそれを受け止める/払いのけることが出来るのであれば, 落とすこと自体は危害を加えるわけではないから実行可能だとか. しかも, 落とした後のことは重力という自然現象によるものだからロボットの責任ではなく, 殺人ではなく事故死として処理されてしまう.(スーザン・キャルビン博士談)
ただ, 実際にはここで第一原則第二項が適応されてそんなことにはならないけど, 特殊な環境で作業するロボットのために…というお話が
# 人間には直ちに影響が出ないような放射線でも, ロボットは一発でお釈迦になるという設定が面白い(LSIなんか存在しない時期なのに)
人を殺しておいて「そんなつもりはなかった」と言うのはいいのか?
実際、そういうこともあり得るからね。というかロボット三原則って厳密にすることにより生じる不利益とか、矛盾を回避できないジレンマとか葛藤とか、そういうお話が多いんじゃないっけ?
陽電子頭脳が焼き切れるのをなんとも思わない鉄砲玉ロボットはどうなるんだろう
むしろ、人為的に作り込んでやらない限り、ロボットには自己保存本能とか死に対する恐怖なんてないので、デフォルトは鉄砲玉。
原作でのことを言っているのであれば、「よりそれっぽいことをしようとするほどダメージを受ける」ので、例えば「包丁持って刺そうとする」なら持って刺そうとした時点でおそらく動けなくなります。(なお動作じゃなく意志の問題なので「包丁もってきて」って頼んでも問題なく実行できます)これが「このボタンを押してくれ」って頼んで押してもらった後、「実はそれは彼を殺害するボタンなんだ」って伝えると、その事実を受け止めたことで脳が深刻なダメージ(停止するレベル)を受ける感じ。
だから「この拳銃を持って奴を撃ち殺してこい」って言うと全く実行で
ま、ミサイルなんてそのものだね。インテリジェンスを感じるロボットが身近になると、ミサイルのことは「鉄砲玉ロボット」とか呼ぶようになったりして。
#でも頭の中のイメージは「くんくん、なんかおいしそうな放射能のにおいがするぞ?」だったり。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
弘法筆を選ばず、アレゲはキーボードを選ぶ -- アレゲ研究家
ロボット三原則 (スコア:2, 興味深い)
これがいわゆる人工無脳なのか、
それとも本当に言葉の意味を理解してるマジな AI なのかによって
深刻さは全然ちがうよね。
なんにしても、ロボット三原則みたいなものは、最優先で整備すべきなのかも。
Re: (スコア:1)
例えば「ソフトウェア第一原則 ソフトウェアはsegfaultしてはいけない」みたいなものを作ったとしてどうやって守らせるんだ
Re: (スコア:0)
ロボット三原則を厳密に守らせるのは無理っていうのは
昔から言われてると思うけど、
だからといって簡単に人類抹殺を考えてしまうような AI の製造を
ホイホイと許すのも、どうかと思うということですよ。
Re:ロボット三原則 (スコア:0)
>ロボット三原則を厳密に守らせるのは無理っていうのは
「実装が激しく難しい」ってのは昔から言われてるし同感だが、
「厳密に守らせるのが無理」って言ってる奴は単にロボット三原則を全く分かってないだけ。
「強制的に守らせる」ものじゃなくて、「自発的にそのように行動する」ものなのだから。
Re: (スコア:0)
ロボットにとっての自発的という言葉を定義しないとな
人を殺しておいて「そんなつもりはなかった」と言うのはいいのか?
Re:ロボット三原則 (スコア:1)
大本の「われはロボット」でも似た話がありますよ. ちょっといじられて不完全な第一原則のロボットの場合, 人の上から重量物を落として殺すことが出来てしまうとか.
なぜなら, 重量物を落としても, ロボットがそれを受け止める/払いのけることが出来るのであれば, 落とすこと自体は危害を加えるわけではないから実行可能だとか. しかも, 落とした後のことは重力という自然現象によるものだからロボットの責任ではなく, 殺人ではなく事故死として処理されてしまう.(スーザン・キャルビン博士談)
ただ, 実際にはここで第一原則第二項が適応されてそんなことにはならないけど, 特殊な環境で作業するロボットのために…というお話が
# 人間には直ちに影響が出ないような放射線でも, ロボットは一発でお釈迦になるという設定が面白い(LSIなんか存在しない時期なのに)
Re: (スコア:0)
人を殺しておいて「そんなつもりはなかった」と言うのはいいのか?
実際、そういうこともあり得るからね。
というかロボット三原則って厳密にすることにより生じる不利益とか、矛盾を回避できないジレンマとか葛藤とか、そういうお話が多いんじゃないっけ?
Re: (スコア:0)
Re: (スコア:0)
陽電子頭脳が焼き切れるのをなんとも思わない鉄砲玉ロボットはどうなるんだろう
Re: (スコア:0)
むしろ、人為的に作り込んでやらない限り、ロボットには自己保存本能とか死に対する恐怖なんてないので、
デフォルトは鉄砲玉。
Re: (スコア:0)
原作でのことを言っているのであれば、「よりそれっぽいことをしようとするほどダメージを受ける」ので、
例えば「包丁持って刺そうとする」なら持って刺そうとした時点でおそらく動けなくなります。
(なお動作じゃなく意志の問題なので「包丁もってきて」って頼んでも問題なく実行できます)
これが「このボタンを押してくれ」って頼んで押してもらった後、「実はそれは彼を殺害するボタンなんだ」って伝えると、その事実を受け止めたことで脳が深刻なダメージ(停止するレベル)を受ける感じ。
だから「この拳銃を持って奴を撃ち殺してこい」って言うと全く実行で
Re: (スコア:0)
ま、ミサイルなんてそのものだね。
インテリジェンスを感じるロボットが身近になると、ミサイルのことは「鉄砲玉ロボット」とか呼ぶようになったりして。
#でも頭の中のイメージは「くんくん、なんかおいしそうな放射能のにおいがするぞ?」だったり。