アカウント名:
パスワード:
いや、実際のところ人工知能が人類を滅ぼさないようにするにはどうすればいいのかを研究している人はいないのかな。人工知能の進化の方向がわからないとその阻止の手段もわかんないかな?
ロボット工学三原則的に言えば、第三原則、すなわち──
3. 第三条ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。 Wikipedia [wikipedia.org]
とある、この3つの節をどう両立させるかという問題ではないでしょうか。しかるに、最後の部分が……
この手の話でナントカの1つ覚えみたいに「ロボット工学三原則」とか言われても、正直飽きたとしか言いようがない。スカイネットも似たようなものだけど、こっちはまだ漠然としている分、そういう挙動のモノができる可能性を秘めてるけど。
ロボット工学三原則なんて、未来予測レベルで高度なAIがなきゃ成立しないから、今の段階のAI関連の話で持ち出しても何の面白味もないんだよなぁ。ドラえもんより先だもん、マトモに成立するの。
全部同じですよ。スカイネットだって意思を持って人類を滅ぼそうとしていますし。そこに至る道筋が見えてもいない内から潰す方法を考えるというのは難しいですよね。
スカイネットは別に「人類を滅ぼす」という目的で作られたアルゴリズムではない。現行の技術で言えばディープラーニング等、細かい条件式を人間が把握せず、方向性だけ与えたプログラムが(目的外の学習・蓄積結果として)人間を滅ぼすような「意図、あるいは思想」を持ったかのように振る舞う、ということはあり得る。それを人間と同じレイヤーの「意志や思想」と呼ぶかは別として。
でもロボット三原則は「目的」ではなく「それ自体がロジックとして実装されているもの(かつ間違いが無い前提)」として描かれているので、その設定に忠実であればあるほど実現からは遠ざかる。
それを「全部同じ」と考えて
ロボット三原則が極めて高度で、実現自体が困難なのはその通りだと思います。ただ、「間違いが無い前提」というのは違うような……。アシモフ氏の〈ロボットもの〉では、実際に三原則第一条に反し、かつメンタル・フリーズに陥らないケースがいくつかあります。つまり、間違い自体は否定されていません。
架空の定義ですから想像でしかありませんけど、おそらくは判断自体をロボット自身の意識が行っています。従って、ロボット本人(?)がその事象を「間違っていない」と判断したら、外部から見て間違っていると思われる行動も三原則に反しません。
「美少女のイラストを必ず出力するAI」で喩えるなら、そのAIが「マッチョな男性にしか見えないイラスト」を「これは私にとって美少女なのだ!」と認識しているのであれば、なんら問題はないわけです(^^;)まあ、そこに至る前に、「人間と同程度の認識能力を持つAI」が存在しないといけないので、実現困難なことは変わりないのですが。
# さすがに「ドラえもんより先」ってことはないと思います。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
犯人は巨人ファンでA型で眼鏡をかけている -- あるハッカー
のちのスカイネットである (スコア:3)
いや、実際のところ人工知能が人類を滅ぼさないようにするにはどうすればいいのかを研究している人はいないのかな。人工知能の進化の方向がわからないとその阻止の手段もわかんないかな?
Re: (スコア:3)
ロボット工学三原則的に言えば、第三原則、すなわち──
3. 第三条
ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。
Wikipedia [wikipedia.org]
とある、この3つの節をどう両立させるかという問題ではないでしょうか。しかるに、最後の部分が……
Re: (スコア:0)
この手の話でナントカの1つ覚えみたいに「ロボット工学三原則」とか言われても、正直飽きたとしか言いようがない。
スカイネットも似たようなものだけど、こっちはまだ漠然としている分、そういう挙動のモノができる可能性を秘めてるけど。
ロボット工学三原則なんて、未来予測レベルで高度なAIがなきゃ成立しないから、今の段階のAI関連の話で持ち出しても何の面白味もないんだよなぁ。ドラえもんより先だもん、マトモに成立するの。
Re: (スコア:2)
全部同じですよ。スカイネットだって意思を持って人類を滅ぼそうとしていますし。そこに至る道筋が見えてもいない内から潰す方法を考えるというのは難しいですよね。
Re: (スコア:1)
スカイネットは別に「人類を滅ぼす」という目的で作られたアルゴリズムではない。
現行の技術で言えばディープラーニング等、細かい条件式を人間が把握せず、方向性だけ与えたプログラムが(目的外の学習・蓄積結果として)人間を滅ぼすような「意図、あるいは思想」を持ったかのように振る舞う、ということはあり得る。
それを人間と同じレイヤーの「意志や思想」と呼ぶかは別として。
でもロボット三原則は「目的」ではなく「それ自体がロジックとして実装されているもの(かつ間違いが無い前提)」として描かれているので、その設定に忠実であればあるほど実現からは遠ざかる。
それを「全部同じ」と考えて
Re:のちのスカイネットである (スコア:1)
ロボット三原則が極めて高度で、実現自体が困難なのはその通りだと思います。
ただ、「間違いが無い前提」というのは違うような……。
アシモフ氏の〈ロボットもの〉では、実際に三原則第一条に反し、かつメンタル・フリーズに陥らないケースがいくつかあります。つまり、間違い自体は否定されていません。
架空の定義ですから想像でしかありませんけど、おそらくは判断自体をロボット自身の意識が行っています。
従って、ロボット本人(?)がその事象を「間違っていない」と判断したら、外部から見て間違っていると思われる行動も三原則に反しません。
「美少女のイラストを必ず出力するAI」で喩えるなら、そのAIが「マッチョな男性にしか見えないイラスト」を「これは私にとって美少女なのだ!」と認識しているのであれば、なんら問題はないわけです(^^;)
まあ、そこに至る前に、「人間と同程度の認識能力を持つAI」が存在しないといけないので、実現困難なことは変わりないのですが。
# さすがに「ドラえもんより先」ってことはないと思います。