アカウント名:
パスワード:
去年の記事だけど、ヒューマン・ライツ・ウォッチのサイトのこの記事が彼らの主張を理解する上で参考になりそう。
こうした兵器は一般市民の殺害に関して、合法/違法を判断する人間の能力を本質的に欠いている。加えて、この手の兵器がもたらす危害について人間の責任を問うのが困難であるが故、国際法違反行為を抑止する法の力を弱める危険がある。
殺人ロボットの登場によって、蝕まれるのは法律判断だけではない。市民を殺害する際の法律以外の判断も蝕みかねない。完全に自律稼動するロボット兵器は被害者に人間的な同情は持たない。したがって独裁者が殺人ロボットを悪用して、自国民に仕向けることも可能だ。マシンが人間の部隊に取って代わることで兵士の命は救えるが、一方で戦争という選択が容易になり、結果として一般市民に紛争の重荷が転嫁されることになる。
最後に、完全に自律稼動するロボット兵器の使用がアカウンタビリティ(責任追及・真相究明)に及ぼす影響が挙げられる。ロボットが行った行為に関して、指揮官やプログラマー、または製造者に法的責任を問うのは大変な難題だ。アカウンタビリティを問うことが困難になれば、国際法違反の抑制はより困難になり、被害者たちが求める意味ある正義を実現することも困難になろう。
ロボット兵器の判断の責任はそれを運用している奴がすべて負うように条約を整備すればいい話だと思うけど。
それこそ「現実の問題を考えるにはあまりに空想的だし、矛盾する状況だって幾らでも出てくる。」#ちなみにロボット工学三原則はそれを言うための存在
責任には2つの方向性があって、一つは既に発生してしまっている被害を回復・補償するための責任と、これから発生するであろう被害を抑止するための責任。事態が複雑になればなるほど責任感が減るし、逃げ道ができやすい。それに運用側がすべての責任を負うのであれば、製造
「運用者が一切の責任を負う」は極めて単純で責任の所在は明らかじゃん。これが矛盾する状況って具体的にどんな状況?上の「トロッコ問題」みたいに、具体的な状況を例として挙げてもらわないと。
一般の消費者が製品の安全性を確認するのは非常に困難だ。だから、製造物責任法のように、安全性について製造者に一定の責任を負わせる必要がある。でも兵器は違う。導入する兵器について軍は自ら要求を出して製造しているし、導入にあたってその性能を多額のコストをかけてチェックしてる。すでに発生した被害を保証する能力も、これから発生するであろう被害を防ぐ能力もある。だから、軍と政府がすべての責任を負うということにしても問題はないはずだ。
また、複雑高度
軍が全責任をとったらシビリアンコントールが失われている状態では?やばくね
シビリアンコントロールが行われていない軍であればそうだけど、行われていれば軍の責任はそのまま政府の責任と同じことだね。「軍が全責任を負う」というのは「政府の軍部が責任をとり、その他の部門は責任を取らない」という意味じゃないよ。確かに誤解を招きやすい表現だったかもしれない。
つまり誤解を受けるほどには単純明快ではない
誤解を受けやすいといったのは、俺が最初「運用者の責任」と言っていたのを「軍の責任」と言い換えてしまったのが原因。この論理そのものが複雑なわけじゃない。ちゃんと話の流れを読んでくれ。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
計算機科学者とは、壊れていないものを修理する人々のことである
ロボット三原則は関係ない (スコア:0)
去年の記事だけど、ヒューマン・ライツ・ウォッチのサイトのこの記事が彼らの主張を理解する上で参考になりそう。
こうした兵器は一般市民の殺害に関して、合法/違法を判断する人間の能力を本質的に欠いている。加えて、この手の兵器がもたらす危害について人間の責任を問うのが困難であるが故、国際法違反行為を抑止する法の力を弱める危険がある。
殺人ロボットの登場によって、蝕まれるのは法律判断だけではない。市民を殺害する際の法律以外の判断も蝕みかねない。完全に自律稼動するロボット兵器は被害者に人間的な同情は持たない。したがって独裁者が殺人ロボットを悪用して、自国民に仕向けることも可能だ。マシンが人間の部隊に取って代わることで兵士の命は救えるが、一方で戦争という選択が容易になり、結果として一般市民に紛争の重荷が転嫁されることになる。
最後に、完全に自律稼動するロボット兵器の使用がアカウンタビリティ(責任追及・真相究明)に及ぼす影響が挙げられる。ロボットが行った行為に関して、指揮官やプログラマー、または製造者に法的責任を問うのは大変な難題だ。アカウンタビリティを問うことが困難になれば、国際法違反の抑制はより困難になり、被害者たちが求める意味ある正義を実現することも困難になろう。
Re: (スコア:0)
ロボット兵器の判断の責任はそれを運用している奴がすべて負うように条約を整備すればいい話だと思うけど。
それこそ「現実の問題を考えるにはあまりに空想的だし、矛盾する状況だって幾らでも出てくる。」
#ちなみにロボット工学三原則はそれを言うための存在
責任には2つの方向性があって、一つは既に発生してしまっている被害を回復・補償するための責任と、これから発生するであろう被害を抑止するための責任。
事態が複雑になればなるほど責任感が減るし、逃げ道ができやすい。
それに運用側がすべての責任を負うのであれば、製造
Re: (スコア:0)
「運用者が一切の責任を負う」は極めて単純で責任の所在は明らかじゃん。これが矛盾する状況って具体的にどんな状況?
上の「トロッコ問題」みたいに、具体的な状況を例として挙げてもらわないと。
一般の消費者が製品の安全性を確認するのは非常に困難だ。だから、製造物責任法のように、安全性について製造者に一定の責任を負わせる必要がある。
でも兵器は違う。導入する兵器について軍は自ら要求を出して製造しているし、導入にあたってその性能を多額のコストをかけてチェックしてる。
すでに発生した被害を保証する能力も、これから発生するであろう被害を防ぐ能力もある。
だから、軍と政府がすべての責任を負うということにしても問題はないはずだ。
また、複雑高度
Re:ロボット三原則は関係ない (スコア:0)
軍が全責任をとったらシビリアンコントールが失われている状態では?やばくね
Re: (スコア:0)
シビリアンコントロールが行われていない軍であればそうだけど、行われていれば軍の責任はそのまま政府の責任と同じことだね。
「軍が全責任を負う」というのは「政府の軍部が責任をとり、その他の部門は責任を取らない」という意味じゃないよ。
確かに誤解を招きやすい表現だったかもしれない。
Re: (スコア:0)
つまり誤解を受けるほどには単純明快ではない
Re: (スコア:0)
誤解を受けやすいといったのは、俺が最初「運用者の責任」と言っていたのを「軍の責任」と言い換えてしまったのが原因。
この論理そのものが複雑なわけじゃない。ちゃんと話の流れを読んでくれ。