アカウント名:
パスワード:
# だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。# という野暮なことは置いといて、
特に今回は兵器についてなので、必要なルールは「武器を使用する際は必ず人間の許可を求める」だけでは。だから、死角にいた人間を「うっかり」轢いてしまっても良い…んじゃないかな。
現在の「ロボット兵器」にはロボット三原則を導入できるほどに高度なAIを搭載した物は一つも無い。だからロボット三原則の導入に関する議論は100年早いよ。
> だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。いや違う。矛盾はない。、「素人目には理解不能に見えるけど、専門家にはロボット三原則に従ってるだけですよ」という話だと思う。#この辺りの事情は、現在のソフトウエア開発でもさほど変わらん。
実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?
> 実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?アシモフのロボットシリーズ、ロボット三原則の矛盾の話が大半だったような気がするが?
多分矛盾がなんに矛盾するかで食い違いがあるんじゃないかな。ロボット三原則は矛盾してない。ただ、ロボット三原則が及ぼす安全性や実用性への影響が、想定と現実で矛盾というか、設計と実装の矛盾というか。単体でいくら単純・完璧でも、現実の世界と関わる以上、複雑化するし要件との乖離や矛盾が発生してしまうという、突き詰めると不完全性定理やカオス論に行きそうな話のギミックだよって話だよね?
3原則が内部的に矛盾しているかどうかというと、それは解釈次第です。
第1条は、文言どおりに解釈すると、例えば、人Aが人Bに危害を加えようとしており、人Aに危害を加えない限り人Bの危害をとめられない、という場合に、ロボットがどうすればよいか(人Aに危害を与えないことを優先して人Bへの危害を看過すればよいのか、人Aに危害を与えてでも人Bへの危害を防止すべきなのか。)は全く明らかではありません。ロボットは2つの矛盾する規範命題に直面するという解釈(つまり3原則は矛盾を抱えている、という解釈)も不可能ではありませんが、それはよい解釈ではないでしょう。文言には明確な手がかりはなくとも、何らかの優先順位を定めるルールを導くことで矛盾を解消するのがよい解釈です。どのような解釈が考えられるかは、刑法総論を勉強するといろいろとアイデアは出てきますが、ここは置いておきましょう。
第2条にも問題があります。人から与えられた命令が矛盾する場合にどう処理すればよいか全く明らかではないためです。これも同様にロボットは矛盾する規範命題に直面するのだ、という解釈(つまり3原則は矛盾を抱えている、という解釈)もあり得なくはないですが、やはり何らかの明文にないルールによって優先順位を定める解釈が必要になるでしょう。
というわけで、矛盾がない、とおっしゃるのはけっこうなことではあるのですが、それは一定の解釈が前提になる、ということ、その解釈はもしかするとアシモフの著作にあるのかもしれませんが、文言からは全く明確ではないこと、の2点には留意が必要です。
>その解釈はもしかするとアシモフの著作にあるのかもしれませんが、もしかしてもなにも、「アシモフのロボット三原則」だから、いうまでもく条文から解釈まで、最初から最後まで全部アシモフの著作にあるんですよ。
三つの条文と、それだけでは全然十分でないことも、全部著作で明言されてるってば。
#だから、まずは原作を読めと、アレほど。orz#なんで一冊も読まずに妄想だけで話を進めようとするかな。
えっと、何か間違ったことを申し上げましたか?「その解釈はもしかすると…あるのかもしれませんが」が「その解釈は…にありますが」だったらベターだったとかそういうご指摘でしょうか。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
一つのことを行い、またそれをうまくやるプログラムを書け -- Malcolm Douglas McIlroy
三原則を搭載する必要はない (スコア:1)
# だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。
# という野暮なことは置いといて、
特に今回は兵器についてなので、必要なルールは「武器を使用する際は必ず人間の許可を求める」だけでは。
だから、死角にいた人間を「うっかり」轢いてしまっても良い…んじゃないかな。
Re: (スコア:1)
現在の「ロボット兵器」にはロボット三原則を導入できるほどに高度なAIを搭載した物は一つも無い。
だからロボット三原則の導入に関する議論は100年早いよ。
> だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。
いや違う。矛盾はない。
、「素人目には理解不能に見えるけど、専門家にはロボット三原則に従ってるだけですよ」という話だと思う。
#この辺りの事情は、現在のソフトウエア開発でもさほど変わらん。
実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?
Re: (スコア:0)
> 実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?
アシモフのロボットシリーズ、ロボット三原則の矛盾の話が大半だったような気がするが?
Re: (スコア:0)
多分矛盾がなんに矛盾するかで食い違いがあるんじゃないかな。
ロボット三原則は矛盾してない。ただ、ロボット三原則が及ぼす安全性や実用性への影響が、想定と現実で矛盾というか、設計と実装の矛盾というか。
単体でいくら単純・完璧でも、現実の世界と関わる以上、複雑化するし要件との乖離や矛盾が発生してしまうという、突き詰めると不完全性定理やカオス論に行きそうな話のギミックだよって話だよね?
Re:三原則を搭載する必要はない (スコア:1)
3原則が内部的に矛盾しているかどうかというと、それは解釈次第です。
第1条は、文言どおりに解釈すると、例えば、人Aが人Bに危害を加えようとしており、人Aに危害を加えない限り人Bの危害をとめられない、という場合に、ロボットがどうすればよいか(人Aに危害を与えないことを優先して人Bへの危害を看過すればよいのか、人Aに危害を与えてでも人Bへの危害を防止すべきなのか。)は全く明らかではありません。ロボットは2つの矛盾する規範命題に直面するという解釈(つまり3原則は矛盾を抱えている、という解釈)も不可能ではありませんが、それはよい解釈ではないでしょう。文言には明確な手がかりはなくとも、何らかの優先順位を定めるルールを導くことで矛盾を解消するのがよい解釈です。どのような解釈が考えられるかは、刑法総論を勉強するといろいろとアイデアは出てきますが、ここは置いておきましょう。
第2条にも問題があります。人から与えられた命令が矛盾する場合にどう処理すればよいか全く明らかではないためです。これも同様にロボットは矛盾する規範命題に直面するのだ、という解釈(つまり3原則は矛盾を抱えている、という解釈)もあり得なくはないですが、やはり何らかの明文にないルールによって優先順位を定める解釈が必要になるでしょう。
というわけで、矛盾がない、とおっしゃるのはけっこうなことではあるのですが、それは一定の解釈が前提になる、ということ、その解釈はもしかするとアシモフの著作にあるのかもしれませんが、文言からは全く明確ではないこと、の2点には留意が必要です。
スーザン・キャルビン博士に怒られるぞ (スコア:0)
>その解釈はもしかするとアシモフの著作にあるのかもしれませんが、
もしかしてもなにも、「アシモフのロボット三原則」だから、
いうまでもく条文から解釈まで、
最初から最後まで全部アシモフの著作にあるんですよ。
三つの条文と、それだけでは全然十分でないことも、全部著作で明言されてるってば。
#だから、まずは原作を読めと、アレほど。orz
#なんで一冊も読まずに妄想だけで話を進めようとするかな。
Re:スーザン・キャルビン博士に怒られるぞ (スコア:1)
えっと、何か間違ったことを申し上げましたか?「その解釈はもしかすると…あるのかもしれませんが」が「その解釈は…にありますが」だったらベターだったとかそういうご指摘でしょうか。