パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

AIが「人類を滅亡させる」との言葉を発する」記事へのコメント

  • by Anonymous Coward

    これがいわゆる人工無脳なのか、
    それとも本当に言葉の意味を理解してるマジな AI なのかによって
    深刻さは全然ちがうよね。
    なんにしても、ロボット三原則みたいなものは、最優先で整備すべきなのかも。

    • by Anonymous Coward

      例えば「ソフトウェア第一原則 ソフトウェアはsegfaultしてはいけない」みたいなものを作ったとしてどうやって守らせるんだ

      • by Anonymous Coward

        ロボット三原則を厳密に守らせるのは無理っていうのは
        昔から言われてると思うけど、
        だからといって簡単に人類抹殺を考えてしまうような AI の製造を
        ホイホイと許すのも、どうかと思うということですよ。

        • by Anonymous Coward

          >ロボット三原則を厳密に守らせるのは無理っていうのは

          「実装が激しく難しい」ってのは昔から言われてるし同感だが、
          「厳密に守らせるのが無理」って言ってる奴は単にロボット三原則を全く分かってないだけ。

          「強制的に守らせる」ものじゃなくて、「自発的にそのように行動する」ものなのだから。

          • by Anonymous Coward
            違反すると陽電子頭脳が焼き切れるという縛りにイヤイヤ従ってるのを自発的と表現するんだっけ?
            • by Anonymous Coward

              陽電子頭脳が焼き切れるのをなんとも思わない鉄砲玉ロボットはどうなるんだろう

              • by Anonymous Coward on 2016年03月31日 10時54分 (#2989251)

                原作でのことを言っているのであれば、「よりそれっぽいことをしようとするほどダメージを受ける」ので、
                例えば「包丁持って刺そうとする」なら持って刺そうとした時点でおそらく動けなくなります。
                (なお動作じゃなく意志の問題なので「包丁もってきて」って頼んでも問題なく実行できます)
                これが「このボタンを押してくれ」って頼んで押してもらった後、「実はそれは彼を殺害するボタンなんだ」って伝えると、その事実を受け止めたことで脳が深刻なダメージ(停止するレベル)を受ける感じ。

                だから「この拳銃を持って奴を撃ち殺してこい」って言うと全く実行できませんが、
                「この薬を彼に注射して彼の病気を治療してやれ」って言った場合、塩化カリウムを致死量注射することが可能、かもしれません。
                お話的には、どこかでコレは危険な薬品なのではないかと気づいて失敗するパターンですが。

                まあ本当に「どの程度」がOKでNGなのかは著者の書き方次第とも言えるんで、あくまで感覚的な話としてね。
                パロディだと「何を命令しても人間が傷つくと考え自己停止する三原則ロボ」とか「人間を殺すことが人間が傷つかなくなる唯一の解だと回答する三原則ロボ」とか書けますんで。

                親コメント

日々是ハック也 -- あるハードコアバイナリアン

処理中...