アカウント名:
パスワード:
# だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。# という野暮なことは置いといて、
特に今回は兵器についてなので、必要なルールは「武器を使用する際は必ず人間の許可を求める」だけでは。だから、死角にいた人間を「うっかり」轢いてしまっても良い…んじゃないかな。
現在の「ロボット兵器」にはロボット三原則を導入できるほどに高度なAIを搭載した物は一つも無い。だからロボット三原則の導入に関する議論は100年早いよ。
> だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。いや違う。矛盾はない。、「素人目には理解不能に見えるけど、専門家にはロボット三原則に従ってるだけですよ」という話だと思う。#この辺りの事情は、現在のソフトウエア開発でもさほど変わらん。
実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?
> 実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?アシモフのロボットシリーズ、ロボット三原則の矛盾の話が大半だったような気がするが?
ロボット/電子頭脳から見れば矛盾はない、人間から見るとその動作は困る、みたいな条件をいろいろ考えた思考実験みたいなやつですよね。三原則と人間の思惑を合わせたものと、字面通りの三原則のズレのおはなし。前者と後者は矛盾しているかもしれない。
多分矛盾がなんに矛盾するかで食い違いがあるんじゃないかな。ロボット三原則は矛盾してない。ただ、ロボット三原則が及ぼす安全性や実用性への影響が、想定と現実で矛盾というか、設計と実装の矛盾というか。単体でいくら単純・完璧でも、現実の世界と関わる以上、複雑化するし要件との乖離や矛盾が発生してしまうという、突き詰めると不完全性定理やカオス論に行きそうな話のギミックだよって話だよね?
3原則が内部的に矛盾しているかどうかというと、それは解釈次第です。
第1条は、文言どおりに解釈すると、例えば、人Aが人Bに危害を加えようとしており、人Aに危害を加えない限り人Bの危害をとめられない、という場合に、ロボットがどうすればよいか(人Aに危害を与えないことを優先して人Bへの危害を看過すればよいのか、人Aに危害を与えてでも人Bへの危害を防止すべきなのか。)は全く明らかではありません。ロボットは2つの矛盾する規範命題に直面するという解釈(つまり3原則は矛盾を抱えている、という解釈)も不可能ではありませんが、それはよい解釈ではないでしょう。文言には明確な手がかりはなくとも、何らかの優先順位を定めるルールを導くことで矛盾を解消するのがよい解釈です。どのような解釈が考えられるかは、刑法総論を勉強するといろいろとアイデアは出てきますが、ここは置いておきましょう。
第2条にも問題があります。人から与えられた命令が矛盾する場合にどう処理すればよいか全く明らかではないためです。これも同様にロボットは矛盾する規範命題に直面するのだ、という解釈(つまり3原則は矛盾を抱えている、という解釈)もあり得なくはないですが、やはり何らかの明文にないルールによって優先順位を定める解釈が必要になるでしょう。
というわけで、矛盾がない、とおっしゃるのはけっこうなことではあるのですが、それは一定の解釈が前提になる、ということ、その解釈はもしかするとアシモフの著作にあるのかもしれませんが、文言からは全く明確ではないこと、の2点には留意が必要です。
>その解釈はもしかするとアシモフの著作にあるのかもしれませんが、もしかしてもなにも、「アシモフのロボット三原則」だから、いうまでもく条文から解釈まで、最初から最後まで全部アシモフの著作にあるんですよ。
三つの条文と、それだけでは全然十分でないことも、全部著作で明言されてるってば。
#だから、まずは原作を読めと、アレほど。orz#なんで一冊も読まずに妄想だけで話を進めようとするかな。
えっと、何か間違ったことを申し上げましたか?「その解釈はもしかすると…あるのかもしれませんが」が「その解釈は…にありますが」だったらベターだったとかそういうご指摘でしょうか。
>ロボット三原則が及ぼす安全性や実用性への影響が、想定と現実で矛盾というか、設計と実装の矛盾というか。それは矛盾とは言わないと思う。単に、ユーザーの使い方が間違った結果、故障したとか事故になったとか、そういう話。
たとえば「東電の原発は津波を想定していなかった。つまり原発は矛盾していたのだ。」は、日本語としておかしいでしょ。「猫を電子レンジに入れて乾かそうとしたら(以下略」レベルの話を、「電子レンジが乾燥機と矛盾した」とは言わないようなもの。
#というか、ひょっとして最近の若い人は「矛盾」という単語の意味を知らない??#「矛盾する=問題がある」と思って使ってるとか?
> 現在の「ロボット兵器」にはロボット三原則を導入できるほどに高度なAIを搭載した物は一つも無い。
その解釈の仕方が、すでに落とし穴にハマってるんですよ。例えばソニーはAIBOに「三原則を搭載した」。しかしあなたは言う。「AIが非力すぎて、とても実装できていない。」と。では、三原則を実装できるAIなどあるのか?AIどころか、訓練動物、人間自身にも順守など不可能だ。そして、家電屋に言わせてみば、「アシモフ三原則だの人工知能だの言われなくても、昔から安全、便利、高耐久なハードを作ってきたんだ。舞台がソフトになっても同じだ。」と。三原則とは、人間の果てない願望を皮肉った物なのかもしれない。
『われはロボット』なんか、三原則実装失敗事例集っていうノリだし、なのかもしれないじゃなくてそういうお話です。パラメータを弄ったら平衡状態になって人間が死にかけるとか。パシフィック・リムはかっこいい怪獣映画を見たいという監督の思いの現れだったのかもしれないとか言われても困るかんじ。
>『われはロボット』なんか、三原則実装失敗事例集っていうノリだし、なのかもしれないじゃなくてそういうお話です。いや違う。
>パラメータを弄ったら平衡状態になって人間が死にかけるとか。「堂々巡り」だっけ。あれはユーザーが指示を間違えたのが問題なのであって、ロボット三原則の実装には問題は無かった。#「(修理に必要な材料を)取りに行ってこい」とだけ指示して、#「なんらかの原因で30分以内に目的が達成できなかった場合は、是が非でも帰還し、次の指示を仰げ」#みたいな指示を出していなかった。#そしてスピーディは前半の命令にそのまま従って、いわば無限ループに嵌まったまま抜け出せなくなった。
プログラマーがコードの書き方間違えたせいで無限ループになってPCが暴走したとしても、それはコンパイラのバグではなくて、プログラマーのミスだというのと同じ。
あ、確かに実装失敗じゃないですね。正しい実装だけど、仕様に行間が多くて動作が人間の想定と異なっているっていう。
>仕様に行間が多くて動作が人間の想定と異なっているっていう。それも違う。きちんと定義されてる(という設定になってる)。でなければ陽電子頭脳を作ることなどできようはずがない。
コンパイラでいうならば、たとえば文法定義におけるBNFみたいなもんだ。文法はBNFによっって厳密に定義されているが、それを読むのにはそれ相応のスキルが必要で、素人はしばしば誤読するってだけ。人間に読めないわけでも、人間の想定と異なるわけでもない。
とりあえず妄想で語るのはやめて、まずは原作読めよ。
読んではいて、言葉の使い方、定義の解釈の方がイマイチだ、という解釈に立つべきじゃないかと。
「三原則の実装」としては成功してますよね。三原則は重み付けや命令解釈については何も言及していないし。失敗って言いたくなるのは「人が使う道具として扱いづらい」という点で、例えるならRFCの仕様は完璧に満たしているがUIがデキが悪い、みたいな感じ。
人間を超える強いAIは2040くらいに現れ技術的特異点を迎えるとか予測してる人もいるから20年くらいで実用的なロボット兵器はでてくるんじゃないですかね?
嘘つき!
# 第一条の解釈で矛盾が起きる話の最後のフレーズ
それは「矛盾」かなあ。むしろ「板挟み」かと。彼は第一条に従って、第一条に基づく発言をしただけです。
嘘をつくロボットといえば、校正ロボットの話もあったな。ロボットは人間を守るためなら、第一条に基づいて嘘をつくことは可能です。
#嘘つきは時に矛盾した発言をしているようにも見えるが、#「嘘つきロボット」の行動原理もロボット三原則であり、常に一貫している。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
ハッカーとクラッカーの違い。大してないと思います -- あるアレゲ
三原則を搭載する必要はない (スコア:1)
# だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。
# という野暮なことは置いといて、
特に今回は兵器についてなので、必要なルールは「武器を使用する際は必ず人間の許可を求める」だけでは。
だから、死角にいた人間を「うっかり」轢いてしまっても良い…んじゃないかな。
Re:三原則を搭載する必要はない (スコア:1)
現在の「ロボット兵器」にはロボット三原則を導入できるほどに高度なAIを搭載した物は一つも無い。
だからロボット三原則の導入に関する議論は100年早いよ。
> だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。
いや違う。矛盾はない。
、「素人目には理解不能に見えるけど、専門家にはロボット三原則に従ってるだけですよ」という話だと思う。
#この辺りの事情は、現在のソフトウエア開発でもさほど変わらん。
実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?
Re: (スコア:0)
> 実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?
アシモフのロボットシリーズ、ロボット三原則の矛盾の話が大半だったような気がするが?
Re:三原則を搭載する必要はない (スコア:2)
ロボット/電子頭脳から見れば矛盾はない、人間から見るとその動作は困る、みたいな条件をいろいろ考えた思考実験みたいなやつですよね。三原則と人間の思惑を合わせたものと、字面通りの三原則のズレのおはなし。前者と後者は矛盾しているかもしれない。
Re: (スコア:0)
多分矛盾がなんに矛盾するかで食い違いがあるんじゃないかな。
ロボット三原則は矛盾してない。ただ、ロボット三原則が及ぼす安全性や実用性への影響が、想定と現実で矛盾というか、設計と実装の矛盾というか。
単体でいくら単純・完璧でも、現実の世界と関わる以上、複雑化するし要件との乖離や矛盾が発生してしまうという、突き詰めると不完全性定理やカオス論に行きそうな話のギミックだよって話だよね?
Re:三原則を搭載する必要はない (スコア:1)
3原則が内部的に矛盾しているかどうかというと、それは解釈次第です。
第1条は、文言どおりに解釈すると、例えば、人Aが人Bに危害を加えようとしており、人Aに危害を加えない限り人Bの危害をとめられない、という場合に、ロボットがどうすればよいか(人Aに危害を与えないことを優先して人Bへの危害を看過すればよいのか、人Aに危害を与えてでも人Bへの危害を防止すべきなのか。)は全く明らかではありません。ロボットは2つの矛盾する規範命題に直面するという解釈(つまり3原則は矛盾を抱えている、という解釈)も不可能ではありませんが、それはよい解釈ではないでしょう。文言には明確な手がかりはなくとも、何らかの優先順位を定めるルールを導くことで矛盾を解消するのがよい解釈です。どのような解釈が考えられるかは、刑法総論を勉強するといろいろとアイデアは出てきますが、ここは置いておきましょう。
第2条にも問題があります。人から与えられた命令が矛盾する場合にどう処理すればよいか全く明らかではないためです。これも同様にロボットは矛盾する規範命題に直面するのだ、という解釈(つまり3原則は矛盾を抱えている、という解釈)もあり得なくはないですが、やはり何らかの明文にないルールによって優先順位を定める解釈が必要になるでしょう。
というわけで、矛盾がない、とおっしゃるのはけっこうなことではあるのですが、それは一定の解釈が前提になる、ということ、その解釈はもしかするとアシモフの著作にあるのかもしれませんが、文言からは全く明確ではないこと、の2点には留意が必要です。
スーザン・キャルビン博士に怒られるぞ (スコア:0)
>その解釈はもしかするとアシモフの著作にあるのかもしれませんが、
もしかしてもなにも、「アシモフのロボット三原則」だから、
いうまでもく条文から解釈まで、
最初から最後まで全部アシモフの著作にあるんですよ。
三つの条文と、それだけでは全然十分でないことも、全部著作で明言されてるってば。
#だから、まずは原作を読めと、アレほど。orz
#なんで一冊も読まずに妄想だけで話を進めようとするかな。
Re:スーザン・キャルビン博士に怒られるぞ (スコア:1)
えっと、何か間違ったことを申し上げましたか?「その解釈はもしかすると…あるのかもしれませんが」が「その解釈は…にありますが」だったらベターだったとかそういうご指摘でしょうか。
Re: (スコア:0)
>ロボット三原則が及ぼす安全性や実用性への影響が、想定と現実で矛盾というか、設計と実装の矛盾というか。
それは矛盾とは言わないと思う。
単に、ユーザーの使い方が間違った結果、故障したとか事故になったとか、そういう話。
たとえば「東電の原発は津波を想定していなかった。つまり原発は矛盾していたのだ。」は、
日本語としておかしいでしょ。
「猫を電子レンジに入れて乾かそうとしたら(以下略」レベルの話を、
「電子レンジが乾燥機と矛盾した」とは言わないようなもの。
#というか、ひょっとして最近の若い人は「矛盾」という単語の意味を知らない??
#「矛盾する=問題がある」と思って使ってるとか?
Re: (スコア:0)
> 現在の「ロボット兵器」にはロボット三原則を導入できるほどに高度なAIを搭載した物は一つも無い。
その解釈の仕方が、すでに落とし穴にハマってるんですよ。
例えばソニーはAIBOに「三原則を搭載した」。
しかしあなたは言う。「AIが非力すぎて、とても実装できていない。」と。
では、三原則を実装できるAIなどあるのか?
AIどころか、訓練動物、人間自身にも順守など不可能だ。
そして、家電屋に言わせてみば、「アシモフ三原則だの人工知能だの言われなくても、昔から安全、便利、高耐久なハードを作ってきたんだ。舞台がソフトになっても同じだ。」と。
三原則とは、人間の果てない願望を皮肉った物なのかもしれない。
Re:三原則を搭載する必要はない (スコア:2)
『われはロボット』なんか、三原則実装失敗事例集っていうノリだし、なのかもしれないじゃなくてそういうお話です。パラメータを弄ったら平衡状態になって人間が死にかけるとか。パシフィック・リムはかっこいい怪獣映画を見たいという監督の思いの現れだったのかもしれないとか言われても困るかんじ。
Re: (スコア:0)
>『われはロボット』なんか、三原則実装失敗事例集っていうノリだし、なのかもしれないじゃなくてそういうお話です。
いや違う。
>パラメータを弄ったら平衡状態になって人間が死にかけるとか。
「堂々巡り」だっけ。
あれはユーザーが指示を間違えたのが問題なのであって、ロボット三原則の実装には問題は無かった。
#「(修理に必要な材料を)取りに行ってこい」とだけ指示して、
#「なんらかの原因で30分以内に目的が達成できなかった場合は、是が非でも帰還し、次の指示を仰げ」
#みたいな指示を出していなかった。
#そしてスピーディは前半の命令にそのまま従って、いわば無限ループに嵌まったまま抜け出せなくなった。
プログラマーがコードの書き方間違えたせいで無限ループになってPCが暴走したとしても、
それはコンパイラのバグではなくて、プログラマーのミスだというのと同じ。
Re:三原則を搭載する必要はない (スコア:2)
あ、確かに実装失敗じゃないですね。正しい実装だけど、仕様に行間が多くて動作が人間の想定と異なっているっていう。
Re: (スコア:0)
>仕様に行間が多くて動作が人間の想定と異なっているっていう。
それも違う。
きちんと定義されてる(という設定になってる)。
でなければ陽電子頭脳を作ることなどできようはずがない。
コンパイラでいうならば、たとえば文法定義におけるBNFみたいなもんだ。
文法はBNFによっって厳密に定義されているが、それを読むのには
それ相応のスキルが必要で、素人はしばしば誤読するってだけ。
人間に読めないわけでも、人間の想定と異なるわけでもない。
とりあえず妄想で語るのはやめて、まずは原作読めよ。
Re: (スコア:0)
読んではいて、言葉の使い方、定義の解釈の方がイマイチだ、という解釈に立つべきじゃないかと。
「三原則の実装」としては成功してますよね。
三原則は重み付けや命令解釈については何も言及していないし。
失敗って言いたくなるのは「人が使う道具として扱いづらい」という点で、
例えるならRFCの仕様は完璧に満たしているがUIがデキが悪い、みたいな感じ。
Re: (スコア:0)
Re: (スコア:0)
人間を超える強いAIは2040くらいに現れ
技術的特異点を迎えるとか予測してる人も
いるから20年くらいで実用的なロボット兵器
はでてくるんじゃないですかね?
Re: (スコア:0)
嘘つき!
# 第一条の解釈で矛盾が起きる話の最後のフレーズ
Re: (スコア:0)
それは「矛盾」かなあ。むしろ「板挟み」かと。
彼は第一条に従って、第一条に基づく発言をしただけです。
嘘をつくロボットといえば、校正ロボットの話もあったな。
ロボットは人間を守るためなら、第一条に基づいて嘘をつくことは可能です。
#嘘つきは時に矛盾した発言をしているようにも見えるが、
#「嘘つきロボット」の行動原理もロボット三原則であり、常に一貫している。