アカウント名:
パスワード:
去年の記事だけど、ヒューマン・ライツ・ウォッチのサイトのこの記事が彼らの主張を理解する上で参考になりそう。
こうした兵器は一般市民の殺害に関して、合法/違法を判断する人間の能力を本質的に欠いている。加えて、この手の兵器がもたらす危害について人間の責任を問うのが困難であるが故、国際法違反行為を抑止する法の力を弱める危険がある。
殺人ロボットの登場によって、蝕まれるのは法律判断だけではない。市民を殺害する際の法律以外の判断も蝕みかねない。完全に自律稼動するロボット兵器は被害者に人間的な同情は持たない。したがって独裁者が殺人ロボットを悪用して、自国民に仕向けることも可能だ。マシンが人間の部隊に取って代わることで兵士の命は救えるが、一方で戦争という選択が容易になり、結果として一般市民に紛争の重荷が転嫁されることになる。
最後に、完全に自律稼動するロボット兵器の使用がアカウンタビリティ(責任追及・真相究明)に及ぼす影響が挙げられる。ロボットが行った行為に関して、指揮官やプログラマー、または製造者に法的責任を問うのは大変な難題だ。アカウンタビリティを問うことが困難になれば、国際法違反の抑制はより困難になり、被害者たちが求める意味ある正義を実現することも困難になろう。
http://www.hrw.org/ja/node/111669 [hrw.org]
俺に言わせれば、ロボット兵器の判断の責任はそれを運用している奴がすべて負うように条約を整備すればいい話だと思うけど。独裁者が自国民の弾圧に使うとか、そんなのはロボットにかぎらずミサイル攻撃なんかでも同じように言えることだと思うし。これ以上の軍拡や武器の拡散は平和な世界の構築から遠ざかる、という一般的な批判だったら妥当かもしれない。でもそれは自立判断可能なロボット兵器に限定されるようなものではない。
というか、ロボット工学三原則なんてただの小説の設定だからね。SFの世界観構築のためのネタのひとつに過ぎず、現実の問題を考えるにはあまりに空想的だし、矛盾する状況だって幾らでも出てくる。確かに今回の話題でロボット三原則を想起する人は多いだろうけど、「ロボット工学三原則」云々っていうタレコミ者のコメントはヒューマン・ライツ・ウォッチの主張とはあまり関係ないな。確かにロボット三原則はすごく有名で現実にも大きな影響を与えた設定だけど、ただの小説の設定だってことを思い出した方がいい。ちなみに、もちろんこの記事にはアシモフのロボット三原則についての言及は特にない。
ロボットの場合、独裁者に反乱を起こすことはないからヤバイんじゃないの?
うーん、そうではなく・・・たとえばデモ隊を鎮圧しにいった軍隊が市民側に寝返ったりするでしょ。人間ならばルーマニア革命とか
ロボット兵器の判断の責任はそれを運用している奴がすべて負うように条約を整備すればいい話だと思うけど。
それこそ「現実の問題を考えるにはあまりに空想的だし、矛盾する状況だって幾らでも出てくる。」#ちなみにロボット工学三原則はそれを言うための存在
責任には2つの方向性があって、一つは既に発生してしまっている被害を回復・補償するための責任と、これから発生するであろう被害を抑止するための責任。事態が複雑になればなるほど責任感が減るし、逃げ道ができやすい。それに運用側がすべての責任を負うのであれば、製造
「運用者が一切の責任を負う」は極めて単純で責任の所在は明らかじゃん。これが矛盾する状況って具体的にどんな状況?上の「トロッコ問題」みたいに、具体的な状況を例として挙げてもらわないと。
一般の消費者が製品の安全性を確認するのは非常に困難だ。だから、製造物責任法のように、安全性について製造者に一定の責任を負わせる必要がある。でも兵器は違う。導入する兵器について軍は自ら要求を出して製造しているし、導入にあたってその性能を多額のコストをかけてチェックしてる。すでに発生した被害を保証する能力も、これから発生するであろう被害を防ぐ能力もある。だから、軍と政府がすべての責任を負うということにしても問題はないはずだ。
また、複雑高度
軍が全責任をとったらシビリアンコントールが失われている状態では?やばくね
シビリアンコントロールが行われていない軍であればそうだけど、行われていれば軍の責任はそのまま政府の責任と同じことだね。「軍が全責任を負う」というのは「政府の軍部が責任をとり、その他の部門は責任を取らない」という意味じゃないよ。確かに誤解を招きやすい表現だったかもしれない。
つまり誤解を受けるほどには単純明快ではない
誤解を受けやすいといったのは、俺が最初「運用者の責任」と言っていたのを「軍の責任」と言い換えてしまったのが原因。この論理そのものが複雑なわけじゃない。ちゃんと話の流れを読んでくれ。
例えば搭載バッテリが爆発して人が死傷したら、それも軍が責任とるの?製造メーカーとかにはお咎めなしで?でもって、それが現実的に実施可能だと?それは攻撃するかしないかの判断に影響してないから違うとかいわないの?または敵軍のECMにより誤動作したら?戦地でなく運搬中だったら?納品時だったら?極めて単純に責任の所在が明らかになるの?
というか、既に誤射誤爆は沢山発生していて、その全てに対して軍が責任を果たしていると思ってるの?というか、軍の責任て具体的に何?何処の誰がそれを持ってるの?
地雷もそうだし、核や生物兵器もそうだけど、「運用者・所有者が全ての責任を持つ」って条約があれば済むって話だったの?シリアも「軍が化学兵器の責任をすべて持った」と宣言すれば問題はなくなるの?
仮にAIで自律的に行動できるロボット兵器をアメリカが保有したら大統領直属の部隊になると思う。そして政治的な理由であまり活動できないはず。
軍事国家か独裁国家じゃないと運用は難しいと思うよ。
例えば搭載バッテリが爆発して人が死傷したら、それも軍が責任とるの?製造メーカーとかにはお咎めなしで?でもって、それが現実的に実施可能だと?
いやロボットのAIの判断の話をしてるんだけど。いつバッテリの話になったの?
それは攻撃するかしないかの判断に影響してないから違うとかいわないの?
「それ」って何のことを指しているの?「バッテリの爆発」のこと?「バッテリの爆発は攻撃するかしないかの判断に影響してないから違うとかいわないの?」っていう意味だったとしたら、ロボットのAIの判断には関係ないから、その場合は通常の兵器と同じ扱いだけどそれが何か?
または敵軍のECMにより誤動作したら?
敵軍のECMによって誤作動を起こすのは知っているはずだし、その状況でロボットを投入した判断が間違いだったんだから、当然運用者の責任だと言っているんだけど?
戦地でなく運搬中だったら?
運搬中になぜロボットが起動しているの?もし運搬中にロボットが起動しているとしたら、ロボットを起動させた奴が
運搬中になぜロボットが起動しているの?もし運搬中にロボットが起動しているとしたら、ロボットを起動させた奴がそのときの「運用者」だから、そいつが責任を取るべきだと言っているんだけど?
極めて単純に責任の所在が明らかになるの?
俺には単純に見えるけど?ここまで何か難しいところはあったの?
その運用者って単純に明らかになるの?だったら誰なの?私には誰なのかわからないのだけれど。
というか、既に誤射誤爆は沢山発生していて、その全てに対して軍が責任を果たしていると思ってるの?
ヒューマン・ライツ・ウォッチが提起している「ロボット兵器ではアカウンタビリティが複雑になる」という問題に対して、「明確にすることは出来る」という話をしているのであって、それ以外の問題について解決するとは俺は言っていないけど?
いつの間にそんな話になったの?元のコメントから
ミサイルの発射を指示した人間が誰なのか、航空機爆撃の指示を出したのか、それが明らかなくらいには、ロボットに対して指定した戦場に赴いて任務をこなすように指示した人間は明らかだけど?なぜミサイル攻撃や爆撃の指示に比べて、ロボットに対する指示はなぜ運用者が不明瞭だと思うの?俺にはむしろミサイルや航空機とどこが違うのかわからないのだけれど?
いつの間にそんな話になったの?
最初からだけど?
3つの問題提起に対する「いい話」が1つの問題を解決するだけだとか後から言われても。
「いい話」ってなんのこと?いい話なんてどこにも見当たらないから、括弧付きで「いい話」などと
無人機攻撃「戦争犯罪の疑い」 人権団体、米に情報公開要求http://www.tokyo-np.co.jp/article/world/news/CK2013102402000123.html [tokyo-np.co.jp]
彼らは遠隔操作の無人機も批判しています。一般人ガー子供ガーと言ってますが、それ無人関係ないですよね。今回のこれも所詮その延長にすぎず、根幹は情緒的反発でしょうから論理的反論は無駄です。
蛇足ながら、無人機のトップランナーであるアメリカと対立していて人命が安くそれでいてお金を持っている国があれば、背後で糸引いてるかも知れませんね。そんな国あるかなーどうだろなー
ドローンはオバマ政権になってから大々的に活用された戦術で保守派、共和党支持者からはうさんくさいと思われてるんです。とくにアメリカ国民に使われることを警戒しています。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
海軍に入るくらいなら海賊になった方がいい -- Steven Paul Jobs
ロボット三原則は関係ない (スコア:0)
去年の記事だけど、ヒューマン・ライツ・ウォッチのサイトのこの記事が彼らの主張を理解する上で参考になりそう。
こうした兵器は一般市民の殺害に関して、合法/違法を判断する人間の能力を本質的に欠いている。加えて、この手の兵器がもたらす危害について人間の責任を問うのが困難であるが故、国際法違反行為を抑止する法の力を弱める危険がある。
殺人ロボットの登場によって、蝕まれるのは法律判断だけではない。市民を殺害する際の法律以外の判断も蝕みかねない。完全に自律稼動するロボット兵器は被害者に人間的な同情は持たない。したがって独裁者が殺人ロボットを悪用して、自国民に仕向けることも可能だ。マシンが人間の部隊に取って代わることで兵士の命は救えるが、一方で戦争という選択が容易になり、結果として一般市民に紛争の重荷が転嫁されることになる。
最後に、完全に自律稼動するロボット兵器の使用がアカウンタビリティ(責任追及・真相究明)に及ぼす影響が挙げられる。ロボットが行った行為に関して、指揮官やプログラマー、または製造者に法的責任を問うのは大変な難題だ。アカウンタビリティを問うことが困難になれば、国際法違反の抑制はより困難になり、被害者たちが求める意味ある正義を実現することも困難になろう。
http://www.hrw.org/ja/node/111669 [hrw.org]
俺に言わせれば、ロボット兵器の判断の責任はそれを運用している奴がすべて負うように条約を整備すればいい話だと思うけど。
独裁者が自国民の弾圧に使うとか、そんなのはロボットにかぎらずミサイル攻撃なんかでも同じように言えることだと思うし。
これ以上の軍拡や武器の拡散は平和な世界の構築から遠ざかる、という一般的な批判だったら妥当かもしれない。
でもそれは自立判断可能なロボット兵器に限定されるようなものではない。
というか、ロボット工学三原則なんてただの小説の設定だからね。
SFの世界観構築のためのネタのひとつに過ぎず、現実の問題を考えるにはあまりに空想的だし、矛盾する状況だって幾らでも出てくる。
確かに今回の話題でロボット三原則を想起する人は多いだろうけど、「ロボット工学三原則」云々っていうタレコミ者のコメントはヒューマン・ライツ・ウォッチの主張とはあまり関係ないな。
確かにロボット三原則はすごく有名で現実にも大きな影響を与えた設定だけど、ただの小説の設定だってことを思い出した方がいい。
ちなみに、もちろんこの記事にはアシモフのロボット三原則についての言及は特にない。
Re: (スコア:0)
ロボットの場合、独裁者に反乱を起こすことはないからヤバイんじゃないの?
Re: (スコア:0)
バグや不良に(に限らず)よらずとも、制御不能な事態はいくらでも想定されますが・・・・・・・・
Re: (スコア:0)
うーん、そうではなく・・・たとえばデモ隊を鎮圧しにいった軍隊が市民側に寝返ったりするでしょ。人間ならば
ルーマニア革命とか
Re: (スコア:0)
ロボットの場合はあくまでもプログラムに忠実に動くのであって、指揮官や国家に対して忠実なわけではないでしょう。
Re: (スコア:0)
# SF やアニメ作品だと一般的
Re: (スコア:0)
ロボット兵器の判断の責任はそれを運用している奴がすべて負うように条約を整備すればいい話だと思うけど。
それこそ「現実の問題を考えるにはあまりに空想的だし、矛盾する状況だって幾らでも出てくる。」
#ちなみにロボット工学三原則はそれを言うための存在
責任には2つの方向性があって、一つは既に発生してしまっている被害を回復・補償するための責任と、これから発生するであろう被害を抑止するための責任。
事態が複雑になればなるほど責任感が減るし、逃げ道ができやすい。
それに運用側がすべての責任を負うのであれば、製造
Re: (スコア:0)
「運用者が一切の責任を負う」は極めて単純で責任の所在は明らかじゃん。これが矛盾する状況って具体的にどんな状況?
上の「トロッコ問題」みたいに、具体的な状況を例として挙げてもらわないと。
一般の消費者が製品の安全性を確認するのは非常に困難だ。だから、製造物責任法のように、安全性について製造者に一定の責任を負わせる必要がある。
でも兵器は違う。導入する兵器について軍は自ら要求を出して製造しているし、導入にあたってその性能を多額のコストをかけてチェックしてる。
すでに発生した被害を保証する能力も、これから発生するであろう被害を防ぐ能力もある。
だから、軍と政府がすべての責任を負うということにしても問題はないはずだ。
また、複雑高度
Re: (スコア:0)
軍が全責任をとったらシビリアンコントールが失われている状態では?やばくね
Re: (スコア:0)
シビリアンコントロールが行われていない軍であればそうだけど、行われていれば軍の責任はそのまま政府の責任と同じことだね。
「軍が全責任を負う」というのは「政府の軍部が責任をとり、その他の部門は責任を取らない」という意味じゃないよ。
確かに誤解を招きやすい表現だったかもしれない。
Re: (スコア:0)
つまり誤解を受けるほどには単純明快ではない
Re: (スコア:0)
誤解を受けやすいといったのは、俺が最初「運用者の責任」と言っていたのを「軍の責任」と言い換えてしまったのが原因。
この論理そのものが複雑なわけじゃない。ちゃんと話の流れを読んでくれ。
Re: (スコア:0)
例えば搭載バッテリが爆発して人が死傷したら、それも軍が責任とるの?製造メーカーとかにはお咎めなしで?でもって、それが現実的に実施可能だと?
それは攻撃するかしないかの判断に影響してないから違うとかいわないの?
または敵軍のECMにより誤動作したら?戦地でなく運搬中だったら?納品時だったら?
極めて単純に責任の所在が明らかになるの?
というか、既に誤射誤爆は沢山発生していて、その全てに対して軍が責任を果たしていると思ってるの?
というか、軍の責任て具体的に何?何処の誰がそれを持ってるの?
地雷もそうだし、核や生物兵器もそうだけど、「運用者・所有者が全ての責任を持つ」って条約があれば済むって話だったの?シリアも「軍が化学兵器の責任をすべて持った」と宣言すれば問題はなくなるの?
Re: (スコア:0)
仮にAIで自律的に行動できるロボット兵器を
アメリカが保有したら大統領直属の部隊に
なると思う。
そして政治的な理由であまり活動できないはず。
軍事国家か独裁国家じゃないと運用は難しい
と思うよ。
Re: (スコア:0)
例えば搭載バッテリが爆発して人が死傷したら、それも軍が責任とるの?製造メーカーとかにはお咎めなしで?でもって、それが現実的に実施可能だと?
いやロボットのAIの判断の話をしてるんだけど。いつバッテリの話になったの?
それは攻撃するかしないかの判断に影響してないから違うとかいわないの?
「それ」って何のことを指しているの?「バッテリの爆発」のこと?
「バッテリの爆発は攻撃するかしないかの判断に影響してないから違うとかいわないの?」っていう意味だったとしたら、
ロボットのAIの判断には関係ないから、その場合は通常の兵器と同じ扱いだけどそれが何か?
または敵軍のECMにより誤動作したら?
敵軍のECMによって誤作動を起こすのは知っているはずだし、その状況でロボットを投入した判断が間違いだったんだから、当然運用者の責任だと言っているんだけど?
戦地でなく運搬中だったら?
運搬中になぜロボットが起動しているの?もし運搬中にロボットが起動しているとしたら、
ロボットを起動させた奴が
Re: (スコア:0)
戦地でなく運搬中だったら?
運搬中になぜロボットが起動しているの?もし運搬中にロボットが起動しているとしたら、ロボットを起動させた奴がそのときの「運用者」だから、そいつが責任を取るべきだと言っているんだけど?
極めて単純に責任の所在が明らかになるの?
俺には単純に見えるけど?ここまで何か難しいところはあったの?
その運用者って単純に明らかになるの?だったら誰なの?私には誰なのかわからないのだけれど。
というか、既に誤射誤爆は沢山発生していて、その全てに対して軍が責任を果たしていると思ってるの?
ヒューマン・ライツ・ウォッチが提起している「ロボット兵器ではアカウンタビリティが複雑になる」という問題に対して、「明確にすることは出来る」という話をしているのであって、それ以外の問題について解決するとは俺は言っていないけど?
いつの間にそんな話になったの?
元のコメントから
Re: (スコア:0)
その運用者って単純に明らかになるの?だったら誰なの?私には誰なのかわからないのだけれど。
ミサイルの発射を指示した人間が誰なのか、航空機爆撃の指示を出したのか、それが明らかなくらいには、
ロボットに対して指定した戦場に赴いて任務をこなすように指示した人間は明らかだけど?
なぜミサイル攻撃や爆撃の指示に比べて、ロボットに対する指示はなぜ運用者が不明瞭だと思うの?
俺にはむしろミサイルや航空機とどこが違うのかわからないのだけれど?
いつの間にそんな話になったの?
最初からだけど?
3つの問題提起に対する「いい話」が1つの問題を解決するだけだとか後から言われても。
「いい話」ってなんのこと?いい話なんてどこにも見当たらないから、括弧付きで「いい話」などと
Re: (スコア:0)
無人機攻撃「戦争犯罪の疑い」 人権団体、米に情報公開要求
http://www.tokyo-np.co.jp/article/world/news/CK2013102402000123.html [tokyo-np.co.jp]
彼らは遠隔操作の無人機も批判しています。一般人ガー子供ガーと言ってますが、それ無人関係ないですよね。
今回のこれも所詮その延長にすぎず、根幹は情緒的反発でしょうから論理的反論は無駄です。
蛇足ながら、無人機のトップランナーであるアメリカと対立していて人命が安くそれでいてお金を持っている国が
あれば、背後で糸引いてるかも知れませんね。そんな国あるかなーどうだろなー
Re: (スコア:0)
ドローンはオバマ政権になってから
大々的に活用された戦術で保守派、
共和党支持者からはうさんくさいと
思われてるんです。
とくにアメリカ国民に使われることを
警戒しています。
Re: (スコア:0)
ですから、人間相互の権利侵害はもちろんですが、人間以外の『何か』が人間様の権利を侵すなどというのは絶対的に許せないのではないでしょうか。
誰が下す判断であろうとも人間の判断である以上それは崇高なものであるし最大限に尊重されるべきだと考えれば、ロボットが自発的に判断するといったシステムはそれ自体がリスクや害悪になりうるということにもなるでしょう。
だから排除しよう(排除すべき)と主張しているのだと思います。
反戦団体でもなければ政治結社でもないので、議論がそっちに行くのも避けたいとは考えているかもしれませんが。