アカウント名:
パスワード:
× 三原則をロボットに守らせることは困難である○ 三原則をロボットに守らせることは"このロボットの作成者にとって"困難である
元々の作中の設定からして高度な判断力が要求されるから、ポジトロン電子頭脳が必須だったはず。人間並みに自律的に自由に活動するロボットを簡単に作れると思うのが間違いだよね。
原作に基づくとそういうことなんでしょうが、そもそも人間の倫理的な判断はアルゴリズムによって再現することができないのではないか(言い換えると倫理的な判断は論理的でない)という倫理学上の問題が絡んでいるので、親スレの○×は間違ってますよ。
どちらかというと、ロボット工学三原則はアルゴリズムとして実装するには曖昧すぎるので、もっと具体的(かつ複雑)なルールにせざるをえませんよという問題提起ではないでしょうか。軍の戦闘用ロボの話もそういう文脈で理解すればわかりやすいと思います。
三原則の実装は、SFの中の自律的なロボットを作るのと同じくらい難しいが ○ です。「組み込まれたプログラムを動かすのが困難」であるかのような元記事の書き方は × だと。
#2681749 [srad.jp] のかたの説明がより適切だと思います。
#2681749の内容とはいろいろ複雑に絡み合っており具体的に指摘してもらわないとなんともいえませんが、少なくとも元記事は「組み込まれたプログラムを動かすのが困難」なんて書いてませんよね?根本的なところで誤解があるような気がします。
あなたは「鋼鉄都市」をはじめとするロボット物を全く読んでいませんね?
そもそもロボット三原則の倫理観(或いは正義感)は、人間の持つ倫理観(や正義感)とは似て非なる物ですから。たとえばR・ダニールに「正義」の定義をさせてみると良いでしょう。
読んでいないかどうかでいうと、多少は読んでいるとしか言いようがないですね。マニアというほどではないのでSFの知識では負けてそうですね。
ただ、似て非なるものにならざるを得ないことこそ問題なのであって全く私と同じことを言っている様にしか読めないのですが。何を反論したいのかよくわからないです。
>ただ、似て非なるものにならざるを得ないことこそ問題なのであってそれは全くなんの問題もない。
#そこから教えねばならんのか...
是非教えて下さい。
私がツッコムとしたら「あのSFの原則、実装方法なんぞ明記してたかい?」です。
私も全部は読んでないです。が、あれでロボットが得る行動指針やジレンマは人情を排除したときの行動指針の参考になるなぁと自分の行動原則には取り入れています。比重は違いますが。
では>シミュレーションの結果では複数の人間を守る際にどちらかしか助けられないケースなどで判断に迷い、結局どちらも助けられない上記はトロッコ問題 [wikipedia.org]とか冷たい方程式 [wikipedia.org]とかのことだと思いますが、誰もが納得できる答えをあなたは出すことができますか?
それができない限りは、>結局どちらも助けられない誰が作ってもこういう結果になるということになるのではないでしょうか。
>上記はトロッコ問題 [wikipedia.org]とか冷たい方程式 [wikipedia.org]とかのことだと思いますが、>誰もが納得できる答えをあなたは出すことができますか?アシモフのロボット三原則の話だから、「誰もが納得する答」である必要は無い。アシモフのロボット三原則的には答が既に提示されてます。
たとえば「多数の命を助けるために少数の命を犠牲にするのは認められる。(その場合でも可能な限り犠牲は最小限に抑える。)」「行動してもしなくても同数の命が助かる場合は、消極的に行動する。(或いは行動しない。)」という比較をしてより多数の利益を優先するように行動することになってる(はず)。
ところで「ロボット三原則はフレーム問題が解決できない」とかって誤解は、この本が広めた奴じゃないかなあ。「ロボットにつけるクスリ―誤解だらけのコンピュータサイエンス」 [amazon.co.jp]
ホントにそこについては誤解だらけの本だった。
>「ロボット三原則はフレーム問題が解決できない」言い方が曖昧ですが、「ロボット三原則を実装する際にはどうしてもフレーム問題が発生してしまう」という解釈でいいですか?だとすると間違いじゃないのでは。あらゆる人工知能はフレーム問題を回避できないので当たり前すぎる話だとは思いますが。
そもそもフレーム問題の有無は、問題にさえなってないってこと。
「フレーム問題が解決できないからロボット工学三原則は駄目なのだ」的な論理展開にいたっては、もうアホか馬鹿かと。
なるほど。単純に誤読してるだけですね。確かに一部の人が誤読してしまいそうな書き方をしているのは事実なので批判は的外れというわけでもないのかな。
誤読するような書き方をしておいて、誤読した方が悪いって云いはるのは、作家やジャーナリストとしては最低のクズ。
誤解を与えないような書き方は、物書きの基本テクニックの一つです。それが出来なくても許されるのは、文章の書き方を全く勉強してない素人だけ。プロがそんな書き方しかできないとしたらプロ失格。
本当にあなたが何のどこを誤読したか理解してます?
#なんかスゲー不安になってきた。三原則を全く理解して無い人だからなあ。
別ACですが。
誰が誰になんて誤解をあたえて、本当はどういう意味なのか、を書かないとこのツリーは全体として意味不明になってますよ。そもそも最初から
>「ロボット三原則はフレーム問題が解決できない」
「が」ってことは、”フレーム問題”が、”ロボット三原則”を解決するんですか?その本の紹介やレビューを読んでも分からんので解説が欲しいところ。
映画の方のアイ,ロボットの例なので、ちょっとずれるかもしれないが、ロボットが水に落ちた車から生存率の高い男性を救助するために少女をあっさり見捨てたよね。あのような判断をする方がしっくりきて、迷って答えを出さない方が違和感がある。#あくまでもロボットのようなものに与える判断基準について。
私も映画版のそれ思い出しました三原則でいえば、生存率の高いほうを助けるのが筋なんじゃないかなあ
三原則に痂疲があるのではなく、生存性の判断アルゴリズムが仕上がってないという話のような
原作的にも概ね同じなんだけど、原作のロボットたちは激しく高性能なので、あのくらいだったら両方とも簡単に助けちゃいそう。ただし助けられないと論理的に納得した場合は、ジタバタ無駄な抵抗をしたりはせず、そこでアッサリ諦めます。
この例だと、たとえば男性の方が「自分は泳げるのでこれ以上の危険はない。 しかし彼女はこのままでは死ぬ可能性が高い。 だから君は第一条に従って、私より彼女を助けなければならない。」と説得できていれば、彼女の方を優先して助けたかも知れない。#「鋼鉄都市」で、子供の方が価値が低いから息子を危険にさらした方がいい的な#提案をダニ
説得つーても、あのシーンは水中で、さらにどちらの人間も自分の力では脱出できないという状況だったと思いますが…
>痂疲
しばらく悩んだけど「瑕疵」(かし)かな?
#痂皮/痂疲(かひ)という言葉自体は存在するようだ
ロボットなら自らを犠牲にしてトロッコを止めるとか、宇宙船から降りる、が正解でしょう。
ロボットの能力的にトロッコを止められないならロボット内の評価関数でどちらを助けるか選ぶだけです、もちろん評価に時間が掛かり過ぎてはいけませんから、それなりの処理速度を持たせ評価関数のデバッグもちゃんと行って置く必要はあります。
能力的にトロッコが止められる場合: 猛スピードのトロッコを自らを犠牲にして止めた場合。中の人間は、そのスピードで前方へ吹っ飛んで死ぬと思います。
能力的にトロッコが止めれられない場合: どのように原則に反することなく評価するのかが気になります。
トロッコ問題はトロッコに人が乗ってるわけじゃないですよ。
トロッコは止められない前提、路線変更自体は失敗なく意図通りできる前提で、路線を変更するか否か、そのとき「助かる人数の差」「自分が能動的に行動するか否かの差」をどう評価するか、という問題です。自分を犠牲にすればとか他の解決法を考えるとかまで考慮するものではないのです。
「ボタンを押すと1人死ぬが、ボタンを押さなければ5人死ぬ。疑う余地はない」ってのと本質は同じ。
#なおアシモフの作品における一般的なロボットなら「常に三原則に合致した行動がとれる」わけではなく「反する行動について考えたり実行しようとすると止まったり壊れたりする」ので、トロッコ問題なら5人死亡となる可能性が高い。
>「ボタンを押すと1人死ぬが、ボタンを押さなければ5人死ぬ。疑う余地はない」ってのと本質は同じ。>「反する行動について考えたり実行しようとすると止まったり壊れたりする」ので、トロッコ問題なら5人死亡となる可能性が高い。
この場合は「5人を助けるためにボタンを押して、一人殺す」が正解のはず。ただしその結果として、それをした陽電子頭脳は焼き切れて機能停止する。#これについては、さんざん議論されてるはずだが?
たとえば「ロボットと帝国」で、人類の未来を救うために行動した彼のようにね。
>#これについては、さんざん議論されてるはずだが?覚え違いでしたか、すみません。
ただ、「ロボットと帝国の彼」はちょっと「一般的なロボット」とは言えないかと思います。想定してたのはあの月面だかどこだかでなかなかミッションに成功できなかった話。重み付けや命令をある程度調整しないと行動すらできませんでしたよね。
>ただ、「ロボットと帝国の彼」はちょっと「一般的なロボット」とは言えないかと思います。一部特殊な能力を有していますが、ロボット三原則に基づくという意味ではあくまで普通の陽電子頭脳ロボットですよ。
>想定してたのはあの月面だかどこだかでなかなかミッションに成功できなかった話。「堂々めぐり」かな?#水星ステーションだった希ガス。
あれは優先度の低い(しかも時間制限のない)命令による第二条と高価な試作機で強められた第三条が拮抗した事例であって、トロッコ問題とはまた別。またそもそも地球製の旧式モデルだしね。たとえばダニールだったら「このままだと堂々めぐりになるから、イライジャに指示を仰いだ方が良い」と自分で判断できるでしょう。
>トロッコ問題はトロッコに人が乗ってるわけじゃないですよ。
あれ。俺が前に聞いた時は、たしかそう聞かされて、ああ。トロッコ壊すとか誰もが考えつくんだろうなと納得してたんだが。調べてみたら確かに人が乗っているなんて書いてない。
ずっと人乗ってると思ってた。 orz
判断に迷って、どちらも助けられない事が問題にされているのですから、誰もが納得できる答えを出す必要はないですよね。
#誰もが納得できる答えを出す事は私には不可能ですが、#自分の価値観(優先度)に従って納得できる答えは出したいものです。
他の人も書いてるけど、「俺なら作れる」っていうツッコミじゃなくて、「三原則が考えられた時点から、原則の解釈や実装が難しいのは分かってた」のだからわざわざ「難しいことが分かった!」って今言われても…って話なんですよ。トロッコや冷たい方程式のような同時に全てを助けられない時どうする?どうなる?ってのは元ネタにもあり、後の派生ネタ・パロディも山ほど作られたようなネタです。シミュレーションしてみたこと自体は話のネタにはなっても、「無理だよ!」ってのは目新しくもなんともない。
問題となるのは制作者の倫理観と実装におけるフレーム問題であって、三原則そのものの問題とはちょっと違うのですよ。強いて言えば原則が大ざっぱすぎることが問題ですが、そんなのこの法則に限った話じゃない。(アシモフのアレは自らある程度調整してしまうわけだが、それは棚に上げる)
判断に迷うとどちらも助けられないトロッコ問題って何?典型的な5人対1人のトロッコ問題だとどっちかは確実に助かるはずだけど。
確かロボット三原則って、ロボットをロボットとしてロボットのまま社会の中で共存させようとしたら、こんな感じの法則が要るだろうけど、そうしたら(それを厳密に守ろうとしたら)こんな変なことになるよ、(だからそんなのはありえん)っていうネタ提供だった、とかいう解説をどっかで見た気がするのですが。
そもそも三原則に(一見すると)反する行動によって引き起こされる事件ネタはアシモフ自身がたくさん出してるから、考案した時点で矛盾をはらんでることは百も承知なわけですよ。
ありえんという話は出てこないですね。「三原則を守れるロボットが作れる」と言うところまでフィクションの範囲内です。その上で、ちょっとでも緩和するとえらいことになるとか、三原則を守らせた上でどこまでできるか試してみるとかの短編エピソード集。
まあ、文庫1冊程度の量なんだし、(このレスも含めて)胡散臭い解説の前にともかく元の小説を読んだ方が早い。
>まあ、文庫1冊程度の量なんだし、(このレスも含めて)胡散臭い解説の前にともかく元の小説を読んだ方が早い。ロボット三原則は「われはロボット」だけじゃないっすよ。最低でも「ロボットの時代」「鋼鉄都市」「はだかの太陽」「夜明けのロボット」「ロボットと帝国」あたりは読んでおいた方が良い。
あとついでに「アンドリューNDR114」も。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
目玉の数さえ十分あれば、どんなバグも深刻ではない -- Eric Raymond
ばからしい (スコア:1)
× 三原則をロボットに守らせることは困難である
○ 三原則をロボットに守らせることは"このロボットの作成者にとって"困難である
御意 (スコア:2)
元々の作中の設定からして高度な判断力が要求されるから、ポジトロン電子頭脳が必須だったはず。
人間並みに自律的に自由に活動するロボットを簡単に作れると思うのが間違いだよね。
Re:御意 (スコア:1)
原作に基づくとそういうことなんでしょうが、そもそも人間の倫理的な判断はアルゴリズムによって再現することができないのではないか(言い換えると倫理的な判断は論理的でない)という倫理学上の問題が絡んでいるので、親スレの○×は間違ってますよ。
どちらかというと、ロボット工学三原則はアルゴリズムとして実装するには曖昧すぎるので、もっと具体的(かつ複雑)なルールにせざるをえませんよという問題提起ではないでしょうか。軍の戦闘用ロボの話もそういう文脈で理解すればわかりやすいと思います。
Re:御意 (スコア:2)
三原則の実装は、SFの中の自律的なロボットを作るのと同じくらい難しいが ○ です。
「組み込まれたプログラムを動かすのが困難」であるかのような元記事の書き方は × だと。
#2681749 [srad.jp] のかたの説明がより適切だと思います。
Re: (スコア:0)
#2681749の内容とはいろいろ複雑に絡み合っており具体的に指摘してもらわないとなんともいえませんが、少なくとも元記事は「組み込まれたプログラムを動かすのが困難」なんて書いてませんよね?根本的なところで誤解があるような気がします。
Re:御意 (スコア:1)
あなたは「鋼鉄都市」をはじめとするロボット物を全く読んでいませんね?
そもそもロボット三原則の倫理観(或いは正義感)は、人間の持つ倫理観(や正義感)とは似て非なる物ですから。
たとえばR・ダニールに「正義」の定義をさせてみると良いでしょう。
Re: (スコア:0)
読んでいないかどうかでいうと、多少は読んでいるとしか言いようがないですね。
マニアというほどではないのでSFの知識では負けてそうですね。
ただ、似て非なるものにならざるを得ないことこそ問題なのであって
全く私と同じことを言っている様にしか読めないのですが。
何を反論したいのかよくわからないです。
Re:御意 (スコア:2)
>ただ、似て非なるものにならざるを得ないことこそ問題なのであって
それは全くなんの問題もない。
#そこから教えねばならんのか...
Re: (スコア:0)
是非教えて下さい。
Re:御意 (スコア:2)
私がツッコムとしたら「あのSFの原則、実装方法なんぞ明記してたかい?」です。
私も全部は読んでないです。
が、あれでロボットが得る行動指針やジレンマは
人情を排除したときの行動指針の参考になるなぁと
自分の行動原則には取り入れています。
比重は違いますが。
Re:ばからしい (スコア:1)
では
>シミュレーションの結果では複数の人間を守る際にどちらかしか助けられないケースなどで判断に迷い、結局どちらも助けられない
上記はトロッコ問題 [wikipedia.org]とか冷たい方程式 [wikipedia.org]とかのことだと思いますが、
誰もが納得できる答えをあなたは出すことができますか?
それができない限りは、
>結局どちらも助けられない
誰が作ってもこういう結果になるということになるのではないでしょうか。
Re:ばからしい (スコア:1)
>上記はトロッコ問題 [wikipedia.org]とか冷たい方程式 [wikipedia.org]とかのことだと思いますが、
>誰もが納得できる答えをあなたは出すことができますか?
アシモフのロボット三原則の話だから、「誰もが納得する答」である必要は無い。
アシモフのロボット三原則的には答が既に提示されてます。
たとえば
「多数の命を助けるために少数の命を犠牲にするのは認められる。(その場合でも可能な限り犠牲は最小限に抑える。)」
「行動してもしなくても同数の命が助かる場合は、消極的に行動する。(或いは行動しない。)」
という比較をしてより多数の利益を優先するように行動することになってる(はず)。
ところで「ロボット三原則はフレーム問題が解決できない」とかって誤解は、この本が広めた奴じゃないかなあ。
「ロボットにつけるクスリ―誤解だらけのコンピュータサイエンス」 [amazon.co.jp]
ホントにそこについては誤解だらけの本だった。
Re: (スコア:0)
>「ロボット三原則はフレーム問題が解決できない」
言い方が曖昧ですが、「ロボット三原則を実装する際にはどうしてもフレーム問題が発生してしまう」という解釈でいいですか?だとすると間違いじゃないのでは。
あらゆる人工知能はフレーム問題を回避できないので当たり前すぎる話だとは思いますが。
Re: (スコア:0)
そもそもフレーム問題の有無は、問題にさえなってないってこと。
「フレーム問題が解決できないからロボット工学三原則は駄目なのだ」
的な論理展開にいたっては、もうアホか馬鹿かと。
Re: (スコア:0)
なるほど。単純に誤読してるだけですね。
確かに一部の人が誤読してしまいそうな書き方をしているのは事実なので
批判は的外れというわけでもないのかな。
Re: (スコア:0)
誤読するような書き方をしておいて、誤読した方が悪いって云いはるのは、
作家やジャーナリストとしては最低のクズ。
誤解を与えないような書き方は、物書きの基本テクニックの一つです。
それが出来なくても許されるのは、文章の書き方を全く勉強してない素人だけ。
プロがそんな書き方しかできないとしたらプロ失格。
Re: (スコア:0)
本当にあなたが何のどこを誤読したか理解してます?
#なんかスゲー不安になってきた。三原則を全く理解して無い人だからなあ。
Re: (スコア:0)
別ACですが。
誰が誰になんて誤解をあたえて、本当はどういう意味なのか、を書かないとこのツリーは全体として意味不明になってますよ。
そもそも最初から
>「ロボット三原則はフレーム問題が解決できない」
「が」ってことは、”フレーム問題”が、”ロボット三原則”を解決するんですか?
その本の紹介やレビューを読んでも分からんので解説が欲しいところ。
納得は関係なく、答は出すのでは? (スコア:1)
映画の方のアイ,ロボットの例なので、ちょっとずれるかもしれないが、
ロボットが水に落ちた車から生存率の高い男性を救助するために少女をあっさり見捨てたよね。
あのような判断をする方がしっくりきて、迷って答えを出さない方が違和感がある。
#あくまでもロボットのようなものに与える判断基準について。
Re: (スコア:0)
私も映画版のそれ思い出しました
三原則でいえば、生存率の高いほうを助けるのが筋なんじゃないかなあ
三原則に痂疲があるのではなく、生存性の判断アルゴリズムが仕上がってないという話のような
Re: (スコア:0)
原作的にも概ね同じなんだけど、原作のロボットたちは激しく高性能なので、
あのくらいだったら両方とも簡単に助けちゃいそう。ただし助けられないと論理的に
納得した場合は、ジタバタ無駄な抵抗をしたりはせず、そこでアッサリ諦めます。
この例だと、たとえば男性の方が
「自分は泳げるのでこれ以上の危険はない。
しかし彼女はこのままでは死ぬ可能性が高い。
だから君は第一条に従って、私より彼女を助けなければならない。」
と説得できていれば、彼女の方を優先して助けたかも知れない。
#「鋼鉄都市」で、子供の方が価値が低いから息子を危険にさらした方がいい的な
#提案をダニ
Re: (スコア:0)
説得つーても、あのシーンは水中で、さらにどちらの人間も自分の力では脱出できないという状況だったと思いますが…
Re: (スコア:0)
>痂疲
しばらく悩んだけど「瑕疵」(かし)かな?
#痂皮/痂疲(かひ)という言葉自体は存在するようだ
Re: (スコア:0)
ロボットなら自らを犠牲にしてトロッコを止めるとか、宇宙船から降りる、が正解でしょう。
ロボットの能力的にトロッコを止められないならロボット内の評価関数でどちらを助けるか選ぶだけです、もちろん評価に時間が掛かり過ぎてはいけませんから、それなりの処理速度を持たせ評価関数のデバッグもちゃんと行って置く必要はあります。
Re: (スコア:0)
能力的にトロッコが止められる場合:
猛スピードのトロッコを自らを犠牲にして止めた場合。中の人間は、そのスピードで前方へ吹っ飛んで死ぬと思います。
能力的にトロッコが止めれられない場合:
どのように原則に反することなく評価するのかが気になります。
Re:ばからしい (スコア:2)
トロッコ問題はトロッコに人が乗ってるわけじゃないですよ。
トロッコは止められない前提、路線変更自体は失敗なく意図通りできる前提で、
路線を変更するか否か、そのとき「助かる人数の差」「自分が能動的に行動するか否かの差」をどう評価するか、という問題です。
自分を犠牲にすればとか他の解決法を考えるとかまで考慮するものではないのです。
「ボタンを押すと1人死ぬが、ボタンを押さなければ5人死ぬ。疑う余地はない」ってのと本質は同じ。
#なおアシモフの作品における一般的なロボットなら「常に三原則に合致した行動がとれる」わけではなく「反する行動について考えたり実行しようとすると止まったり壊れたりする」ので、トロッコ問題なら5人死亡となる可能性が高い。
Re:ばからしい (スコア:1)
>「ボタンを押すと1人死ぬが、ボタンを押さなければ5人死ぬ。疑う余地はない」ってのと本質は同じ。
>「反する行動について考えたり実行しようとすると止まったり壊れたりする」ので、トロッコ問題なら5人死亡となる可能性が高い。
この場合は「5人を助けるためにボタンを押して、一人殺す」が正解のはず。
ただしその結果として、それをした陽電子頭脳は焼き切れて機能停止する。
#これについては、さんざん議論されてるはずだが?
たとえば「ロボットと帝国」で、人類の未来を救うために行動した彼のようにね。
Re:ばからしい (スコア:1)
>#これについては、さんざん議論されてるはずだが?
覚え違いでしたか、すみません。
ただ、「ロボットと帝国の彼」はちょっと「一般的なロボット」とは言えないかと思います。
想定してたのはあの月面だかどこだかでなかなかミッションに成功できなかった話。
重み付けや命令をある程度調整しないと行動すらできませんでしたよね。
Re: (スコア:0)
>ただ、「ロボットと帝国の彼」はちょっと「一般的なロボット」とは言えないかと思います。
一部特殊な能力を有していますが、ロボット三原則に基づくという意味では
あくまで普通の陽電子頭脳ロボットですよ。
>想定してたのはあの月面だかどこだかでなかなかミッションに成功できなかった話。
「堂々めぐり」かな?
#水星ステーションだった希ガス。
あれは優先度の低い(しかも時間制限のない)命令による第二条と高価な試作機で
強められた第三条が拮抗した事例であって、トロッコ問題とはまた別。またそもそも
地球製の旧式モデルだしね。たとえばダニールだったら「このままだと堂々めぐりに
なるから、イライジャに指示を仰いだ方が良い」と自分で判断できるでしょう。
Re: (スコア:0)
>トロッコ問題はトロッコに人が乗ってるわけじゃないですよ。
あれ。俺が前に聞いた時は、たしかそう聞かされて、
ああ。トロッコ壊すとか誰もが考えつくんだろうなと納得してたんだが。
調べてみたら確かに人が乗っているなんて書いてない。
ずっと人乗ってると思ってた。 orz
Re: (スコア:0)
そもそも中に人が居るならそいつが動くことをまず期待するので答えも変わってくる可能性がある。
Re: (スコア:0)
判断に迷って、どちらも助けられない事が問題にされているのですから、
誰もが納得できる答えを出す必要はないですよね。
#誰もが納得できる答えを出す事は私には不可能ですが、
#自分の価値観(優先度)に従って納得できる答えは出したいものです。
Re: (スコア:0)
他の人も書いてるけど、「俺なら作れる」っていうツッコミじゃなくて、「三原則が考えられた時点から、原則の解釈や実装が難しいのは分かってた」のだからわざわざ「難しいことが分かった!」って今言われても…って話なんですよ。
トロッコや冷たい方程式のような同時に全てを助けられない時どうする?どうなる?ってのは元ネタにもあり、後の派生ネタ・パロディも山ほど作られたようなネタです。
シミュレーションしてみたこと自体は話のネタにはなっても、「無理だよ!」ってのは目新しくもなんともない。
問題となるのは制作者の倫理観と実装におけるフレーム問題であって、三原則そのものの問題とはちょっと違うのですよ。強いて言えば原則が大ざっぱすぎることが問題ですが、そんなのこの法則に限った話じゃない。
(アシモフのアレは自らある程度調整してしまうわけだが、それは棚に上げる)
Re: (スコア:0)
判断に迷うとどちらも助けられないトロッコ問題って何?
典型的な5人対1人のトロッコ問題だとどっちかは確実に助かるはずだけど。
Re: (スコア:0)
確かロボット三原則って、
ロボットをロボットとしてロボットのまま社会の中で共存させようとしたら、
こんな感じの法則が要るだろうけど、そうしたら(それを厳密に守ろうとしたら)こんな変なことになるよ、
(だからそんなのはありえん)っていうネタ提供だった、
とかいう解説をどっかで見た気がするのですが。
Re: (スコア:0)
そもそも三原則に(一見すると)反する行動によって引き起こされる事件ネタは
アシモフ自身がたくさん出してるから、考案した時点で矛盾をはらんでることは百も承知なわけですよ。
Re: (スコア:0)
ありえんという話は出てこないですね。「三原則を守れるロボットが作れる」と言うところまでフィクションの範囲内です。
その上で、ちょっとでも緩和するとえらいことになるとか、三原則を守らせた上でどこまでできるか試してみるとかの短編エピソード集。
まあ、文庫1冊程度の量なんだし、(このレスも含めて)胡散臭い解説の前にともかく元の小説を読んだ方が早い。
Re:ばからしい (スコア:1)
>まあ、文庫1冊程度の量なんだし、(このレスも含めて)胡散臭い解説の前にともかく元の小説を読んだ方が早い。
ロボット三原則は「われはロボット」だけじゃないっすよ。
最低でも「ロボットの時代」「鋼鉄都市」「はだかの太陽」「夜明けのロボット」「ロボットと帝国」あたりは読んでおいた方が良い。
あとついでに「アンドリューNDR114」も。