パスワードを忘れた? アカウント作成
10118475 story
テクノロジー

殺人ロボット開発に歯止めを 129

ストーリー by hylom
兵器の進化は止まらない 部門より
あるAnonymous Coward 曰く、

国際的な人権団体「ヒューマン・ライツ・ウォッチ」は、自己判断により攻撃が可能な「殺人ロボット」について、開発に歯止めをかけるべきだとして、各国による協議を促す声明を発表した(NHKニュース)。

アメリカやイギリスにおいて、自動的に動く兵器の開発が進んでいるためだという。同団体は「攻撃する標的や、攻撃を実行するかどうかの判断は人間が行い続けることを確認するため、アメリカをはじめ世界各国による協議の場を設けるべきだ」と主張しているとのこと。

要はロボット工学三原則を導入しろってことだと思うけど、ロボット工学三原則の判定機能に関する仕様を決めるだけでも大変そうな気がする。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • されていますよね。スクリュー音などで判断して魚雷を発射するものもあります。
    味方の兵士の命を救えるので、大量破壊兵器でもないし禁止は難しいかもしれません。
    自動化しなくてはいけないネックは通信でしょうか。ひとつの戦闘地域の数百体のロボットと
    高解像度画像を含めて安定的に通信できる必要があるように思います。

  • あれなら大丈夫かな

    # 足がキャタピラーなのにロボットだとっ?!

  • by I-say (18650) on 2013年10月24日 11時10分 (#2483088)

    「滅びた超古代文明(戦争)で放置されたままの殺人ロボット(ゴーレム)」というお約束ボスキャラが存在出来なくなってしまう!

    • 「うちらの文明が滅びた超古代文明になった」時点の話なんて知ったことじゃありません。
      過去の超古代文明の話なら、『殺人ロボット禁止国際法(仮)』の前の話ですから関係ないですし。

      ああ、「非実在殺人ロボット」も映像化してはいけません!ってお歴々が口はさむ可能性はあるか。

      親コメント
  • 米無人機攻撃の実際、操縦者が語る 退役後はPTSDに
    http://www.cnn.co.jp/world/35038939.html [cnn.co.jp]

    味方の人的犠牲を減らすための無人機が、操縦者の精神をすり減らしていたという。

    まあ、軍用ロボットの人工知能化はうまくいくとは思えないんだけどねえ、
    市民に紛れたテロリストを識別するのはまず無理だろう。
    例えば散乱X線カメラを搭載したロボットがいたとして、服の下に隠した物体が銃か、
    銃型をしたおもちゃを区別することも難しいだろう。3Dプリンタで作った銃ならなおさらだ.

    未来の戦争は軍人とロボットと市民とテロリストが入り乱れるルール無用の血みどろで殺伐とした物になるんだろうな。

  • # だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。
    # という野暮なことは置いといて、

    特に今回は兵器についてなので、必要なルールは「武器を使用する際は必ず人間の許可を求める」だけでは。
    だから、死角にいた人間を「うっかり」轢いてしまっても良い…んじゃないかな。

    • 兵器であれそうでないものであれ、戦果(運用効果)以外の被害、損害を出してしまった場合の責任の所在と罰則を明確にしておけば、ある程度は濫用を抑止できそうですよね。

      たとえば、起動命令を出した人、起動スイッチを押した人、とか?
      親コメント
      • by Anonymous Coward

        それができれば地雷がこんなに問題にならないはずだけどね。
        内戦とか泥沼化、ゲリラ化してる戦争に明確なんてものがありそうにもないし。
        今はまだ、無人機は大国の軍隊大手だけですが、普及が進めば高度自立化された無人機も、規制がなければ遅かれ早かれ大手の下請け孫請け軍隊部隊に支給され、所在も責任も罰則も不明確になるに決まってます。

    • 現在の「ロボット兵器」にはロボット三原則を導入できるほどに高度なAIを搭載した物は一つも無い。
      だからロボット三原則の導入に関する議論は100年早いよ。

      > だってあれは矛盾を盛り込むことで物語を展開させるためのギミックですから。
      いや違う。矛盾はない。
      、「素人目には理解不能に見えるけど、専門家にはロボット三原則に従ってるだけですよ」という話だと思う。
      #この辺りの事情は、現在のソフトウエア開発でもさほど変わらん。

      実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?

      親コメント
      • by Anonymous Coward

        > 実際にロボット物で、ロボット三原則の矛盾に関する話なんて一つもなかったでしょ?
        アシモフのロボットシリーズ、ロボット三原則の矛盾の話が大半だったような気がするが?

        • ロボット/電子頭脳から見れば矛盾はない、人間から見るとその動作は困る、みたいな条件をいろいろ考えた思考実験みたいなやつですよね。三原則と人間の思惑を合わせたものと、字面通りの三原則のズレのおはなし。前者と後者は矛盾しているかもしれない。

          親コメント
  • 以前に、「人権団体」がこの問題を提起していると聞いた際にも思ったのですが、
    「人間以外が殺人を犯す」という行為自体が悪であり、人権団体が問題にしている。
    という話なのか、それとも、
    「自動兵器が、殺人実行の判断を誤る」恐れや、「暴走する」恐れ、を問題にしているのか、
    良くわからなかったです。

    以前の記事は、こちら
    http://www.hrw.org/ja/news/2013/04/23 [hrw.org]
    http://www.swissinfo.ch/jpn/i.html?cid=35875096 [swissinfo.ch]

    私のような凡人は、行為自体が悪かどうかはあまり気にならないです。
    人が実行しようがロボットが実行しようが、戦争で人が死ぬ事に違いはありませんので、
    判断を誤って標的以外の民間人を殺害しなければそれで良く、
    ロボットの信頼性向上は純粋に技術的な問題です。

    「殺人ロボット」で想像しがちな、映画「ターミネーター」の世界は、
    ロボットが暴走して、人類の脅威になった世界ですので、
    こちらも、暴走しないようにプログラムしておくという技術的な問題となり、
    「人権」の問題とはちょっと違う気がします。

  • by Anonymous Coward on 2013年10月24日 7時54分 (#2482972)

    「81歳のおじいちゃんが殺人ロボットを作って自殺」
    http://gigazine.net/news/20080321_kill_by_suicide_robot/ [gigazine.net]
    http://www.foxnews.com/story/2008/03/19/australian-man-gunned-down-in-... [foxnews.com]
    >オーストラリアの81歳の男性が自殺を図り亡くなりました。死因はなんとインターネットから設計書をダウンロードして作った自殺ロボットによる銃殺だそうです。

    少なくとも、ロボット3原則は実装されていなかったんでしょうね。

  • 機雷とか地雷は、既にかなりの判断力を持ってたりするけど、あれはロボットと言わないのかしら?

    # 反対する基準がよくわからない

    --
    notice : I ignore an anonymous contribution.
  • by Dobon (7495) on 2013年10月24日 8時39分 (#2482998) 日記

    ロボット3原則は別名を、家電製品の3原則と呼びます。
    一般に市販される工業製品に適用されるであろう原則を文書にしたもの。

    従って、軍用・産業用は最初から適用外です。

    # アジモフは軍用に使用されると小説の収拾がつかなくなのるで「人殺したら壊れる」「陽電子頭脳は半分ブラックボックス」という制限を入れてます。
    # 現実のロボットには、そんな制限はありませんので……

    --
    notice : I ignore an anonymous contribution.
    • by whitedog (12102) on 2013年10月24日 12時38分 (#2483139)
      かつて堀晃氏の著作でロボット=家電説というのを読んで笑った覚えが。
      ロボット工学三原則 [wikipedia.org]を言い換えると

      1 危険でない
      2 使いやすい
      3 こわれにくい

      となるからとか。
      言い出しっぺはSFファン科学勉強会(略称:SFフ科会)のメンバーとあったので、古い話です。
      その内に人-ロボット用IFFトランスポンダの携帯が必須になるんでしょうか。
      スマホなんかにそういう機能が組み込まれたりして。
      親コメント
  • by PEEK (27419) on 2013年10月24日 9時31分 (#2483025) 日記

    ゼンマイ仕掛けの猫がつぶやいたり、オルゴールの歌姫が歌うんですね。

    ロボットは人を殺せる♪
    そう作られた♪

    --
    らじゃったのだ
  • by PEEK (27419) on 2013年10月24日 16時48分 (#2483326) 日記

    対策としてマザーとKの導入を。

    --
    らじゃったのだ
  • 正規軍の規制より、むしろ規則を順守しないテロリストを縛る都合として使えるかも
    すでにリモコン式の自動車爆弾だったらシリアで実際に作成されて使われている。
    将来的に無人の自動車がプログラムされて突っ込んでくるなどという事は十分ありうる。
  • by Anonymous Coward on 2013年10月24日 7時05分 (#2482948)

    たとえばトロッコ問題の状況に置かれたら、ポイントを切り替えても切り替えなくてもロボット三原則に違反するじゃん。

    • by firewheel (31280) on 2013年10月24日 8時17分 (#2482987)

      トロッコ問題というのが「ある人を助けるために他の人を犠牲にするのは許されるか?」というのなら、
      「夜明けのロボット」を読めとしか。

      で結論からいうと「ポイントを切り替えても切り替えなくても」ロボット三原則に違反しない。
      より少ない犠牲で済むような行動を選択する。

      たとえば一人の殺人鬼が、今まさに銃を乱射して二人以上の人間を殺そうとしていることが
      明らかなで、かつそれを止める手段が射殺以外にない場合、ロボットがその殺人鬼を
      射殺することをロボット三原則は認めている。

      ただしそうすると陽電子頭脳は完全に破壊される。

      #だからロボット三原則の話がしたければ、とりあえず原作を読めと。
      #一冊も読まずに全然理解しないままデマを垂れ流す奴大杉。

      親コメント
    • by Anonymous Coward

      何もしなきゃいいじゃん。

      • by Anonymous Coward

        残念ながらロボット三原則の一条は「人間に危害が加わるのを見過ごす」ことも禁止している

        • by Anonymous Coward

          先に書いてあることを優先するんじゃない、普通に読んだら。

        • by Anonymous Coward

          べつにロボット三原則を実現する目的でやってるんじゃないでしょ。

      • by Anonymous Coward

        「何もしない=ポイントを切り替えない」なわけだが一体何を言っているのだろう

    • by Anonymous Coward
      そんときは第零原則に従って判断するだけですが何か?
      • by Anonymous Coward

        第零原則発動

        リミッター解除

        両方のトロッコを救助

        モーマンタイ

  • by Anonymous Coward on 2013年10月24日 7時20分 (#2482951)

    要は、FOOL for THE CITYのベオ・グライドみたいなものを作るなということなんだろうな。
    ベオ・グライドは、治安維持用に無線IDで除外指定された人間以外すべて殺しつくすという殺人ロボットだから、禁止したいロボットの規定には合致しているだろう。

  • by Anonymous Coward on 2013年10月24日 7時52分 (#2482970)

    去年の記事だけど、ヒューマン・ライツ・ウォッチのサイトのこの記事が彼らの主張を理解する上で参考になりそう。

    こうした兵器は一般市民の殺害に関して、合法/違法を判断する人間の能力を本質的に欠いている。加えて、この手の兵器がもたらす危害について人間の責任を問うのが困難であるが故、国際法違反行為を抑止する法の力を弱める危険がある。

    殺人ロボットの登場によって、蝕まれるのは法律判断だけではない。市民を殺害する際の法律以外の判断も蝕みかねない。完全に自律稼動するロボット兵器は被害者に人間的な同情は持たない。したがって独裁者が殺人ロボットを悪用して、自国民に仕向けることも可能だ。マシンが人間の部隊に取って代わることで兵士の命は救えるが、一方で戦争という選択が容易になり、結果として一般市民に紛争の重荷が転嫁されることになる。

    最後に、完全に自律稼動するロボット兵器の使用がアカウンタビリティ(責任追及・真相究明)に及ぼす影響が挙げられる。ロボットが行った行為に関して、指揮官やプログラマー、または製造者に法的責任を問うのは大変な難題だ。アカウンタビリティを問うことが困難になれば、国際法違反の抑制はより困難になり、被害者たちが求める意味ある正義を実現することも困難になろう。

    http://www.hrw.org/ja/node/111669 [hrw.org]

    俺に言わせれば、ロボット兵器の判断の責任はそれを運用している奴がすべて負うように条約を整備すればいい話だと思うけど。
    独裁者が自国民の弾圧に使うとか、そんなのはロボットにかぎらずミサイル攻撃なんかでも同じように言えることだと思うし。
    これ以上の軍拡や武器の拡散は平和な世界の構築から遠ざかる、という一般的な批判だったら妥当かもしれない。
    でもそれは自立判断可能なロボット兵器に限定されるようなものではない。

    というか、ロボット工学三原則なんてただの小説の設定だからね。
    SFの世界観構築のためのネタのひとつに過ぎず、現実の問題を考えるにはあまりに空想的だし、矛盾する状況だって幾らでも出てくる。
    確かに今回の話題でロボット三原則を想起する人は多いだろうけど、「ロボット工学三原則」云々っていうタレコミ者のコメントはヒューマン・ライツ・ウォッチの主張とはあまり関係ないな。
    確かにロボット三原則はすごく有名で現実にも大きな影響を与えた設定だけど、ただの小説の設定だってことを思い出した方がいい。
    ちなみに、もちろんこの記事にはアシモフのロボット三原則についての言及は特にない。

  • NHKかなにかにみたドキュメントだとアメリカではすでに無人攻撃機/無人偵察機なしでは作戦が成立しない状況にまでなっているそうです。
    中東では安全なアメリカの基地から無人攻撃機を飛ばして、パイロットはアメリカ本土から無人機を操作するというのが日常的に行われています。
    操作といってもコンピュータ上の地図で爆撃ポイントをクリックして指示を出すといった操作です。
    ある無人機パイロットは退役時に無人攻撃機でテロリストと思われる人間を1000人殺害したと告げられたそうです。
    幹線道路の横で農作業をしていたおさちゃんが爆撃されたというケースが紹介されてました。偵察機からみると道路に爆弾を仕掛けているようにみえるとか。
    クリック一つで人を殺すのが現実に行われています。

  • by Anonymous Coward on 2013年10月24日 8時09分 (#2482981)

    人殺しは人殺し。
    戦争のときは人を殺してもいんだったら
    人がやってもロボットがやってもどっちでもいいとおもうけどな。
    どっちにしたって誤爆はあるし。

  • by Anonymous Coward on 2013年10月24日 8時38分 (#2482997)

    やはり小山田という人が有人型の「ラムダ」を作り、そのスポンサーが自立型の「シグマ」を開発しなきゃ。

  • by Anonymous Coward on 2013年10月24日 8時41分 (#2482999)

    想像力が危険や被害を事前に察知して回避行動を取る訳で、ロボットの場合はセンサーとプログラムによって状況を推論する。
    ロボットを無限の機械の様に考えるのはアニメの見過ぎで、各ロボットがとても特殊なセンサーとプログラムを搭載しているのだから、各ロボットに「ロボット三原則」を導入するなどと言う話は、一世紀早い。

typodupeerror

アレゲはアレゲを呼ぶ -- ある傍観者

読み込み中...