アカウント名:
パスワード:
こういう現実例が色々出だすと、ロボットやAI系の話題で定番のロボット三原則をキャッキャする流れは過去のものになるんですかね。
ロボット三原則って「どうやって実装するか?」の視点がすっぽり抜けてますからねぇ(汗)
今なら機械学習で何とかなるんじゃないでしょうか。鉄腕アトムの7つの威力の筆頭は、「善悪を見分けられる電子頭脳」または「よい人とわるい人の見分けがつく」。昔は絶対無理だと思っていたのですが、昨今のAI技術なら可能かもしれない。
機械学習って、「実際に中でどのように理解(と言っていいか難しいけど)されているか」がブラックボックスな分、行動大原則の部分を任せるのリスクありません?アトムのようによい人を見分けるのだって、いいひとのデータを与えていても漫画版の楽観的性善説的ないいひとがドラマになると天然ボケ野郎になるみたいな(あれっ)
♪悪い奴らは天使の顔して 心で爪を研いでるものさ なんて歌もあったし……
高度な人工知能は、「天使の顔して 心で爪を研いでる」奴はわるい人と判定する。
#ギャバンは宇宙刑事なので、善悪の判定が地球人類とは異なる可能性がある。#銀河連邦警察があるということは、銀河連邦刑法に準じているのか。
ポジトロン頭脳に焼きこまれている感じだから学習とは別でハードワイヤードなんじゃないかなぁ学習結果を焼いてるだけかもしれないけど
アシモフの作中では、三原則に違反した状態は入力禁止で、内部状態が不正になり頭脳の破損を招く、という設定で、頭脳全体がでかくてファジイなロジックIC扱いになってますね。
「善悪」「よい人とわるい人」って、立場・主観で変わるんだよね……「人を殺める」一つとっても、死刑執行人はどっち?ってことになるし。
かなり高度な人工知能があることが大前提ですからねえ。たとえば人間とマネキンを見分けるくらいは余裕でできないと。
今の原始的な深層学習では、まだまだ実現不可能なのはしかたない。
情報入力はできるんですけど、評価が難しいんですよねもちろん限定的な法則、たとえば法や戦闘のお作法をベースに境界ケースは安全側(攻撃しないとか)に倒す、とかはできるんだけども。
まず手始めに「人間とそれ以外を見分けられる能力」が必要。人間と猿やゴリラ、ポスターや蝋人形。さらにはスピーカーやモーターを組み込んだマネキンとすら見分ける必要がある。
さらに「何をしたら危害を加えることになるのか」だけでなく、「なにをしなかったら看過したことになるか」のような簡単な未来予測まで必要。第一条だけでもこれ。
「未来の二つの顔」のスパルタクスくらいでも、まだやっと人間を認識できたくらいのレベルで、三原則を実現するには力不足。三原則実現への道程は遠い。
大体アシモフ世界のロボットですら、三原則を元に困った挙動をするというのを描写するのがアシモフのロボット物であるような
いまだにフレーム問題の解決手法はないんで無理でしょうねぇ。機械学習だって、似たようなシチュエーションをたくさん経験(学習)させてそれらしい判断をさせているだけで、経験外の事象に遭遇するとおかしくなります [it.srad.jp]からねぇ(苦笑)
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
私は悩みをリストアップし始めたが、そのあまりの長さにいやけがさし、何も考えないことにした。-- Robert C. Pike
ロボット三原則 (スコア:0)
こういう現実例が色々出だすと、ロボットやAI系の話題で定番のロボット三原則をキャッキャする流れは過去のものになるんですかね。
Re: (スコア:0)
ロボット三原則って「どうやって実装するか?」の視点がすっぽり抜けてますからねぇ(汗)
Re:ロボット三原則 (スコア:0)
今なら機械学習で何とかなるんじゃないでしょうか。
鉄腕アトムの7つの威力の筆頭は、「善悪を見分けられる電子頭脳」または「よい人とわるい人の見分けがつく」。
昔は絶対無理だと思っていたのですが、昨今のAI技術なら可能かもしれない。
Re:ロボット三原則 (スコア:1)
機械学習って、「実際に中でどのように理解(と言っていいか難しいけど)されているか」がブラックボックスな分、
行動大原則の部分を任せるのリスクありません?
アトムのようによい人を見分けるのだって、いいひとのデータを与えていても
漫画版の楽観的性善説的ないいひとがドラマになると天然ボケ野郎になるみたいな(あれっ)
♪悪い奴らは天使の顔して 心で爪を研いでるものさ なんて歌もあったし……
Re: (スコア:0)
高度な人工知能は、「天使の顔して 心で爪を研いでる」奴はわるい人と判定する。
#ギャバンは宇宙刑事なので、善悪の判定が地球人類とは異なる可能性がある。
#銀河連邦警察があるということは、銀河連邦刑法に準じているのか。
Re:ロボット三原則 (スコア:1)
ポジトロン頭脳に焼きこまれている感じだから
学習とは別でハードワイヤードなんじゃないかなぁ
学習結果を焼いてるだけかもしれないけど
Re:ロボット三原則 (スコア:1)
アシモフの作中では、三原則に違反した状態は入力禁止で、内部状態が不正になり頭脳の破損を招く、という設定で、頭脳全体がでかくてファジイなロジックIC扱いになってますね。
Re:ロボット三原則 (スコア:1)
「善悪」「よい人とわるい人」って、立場・主観で変わるんだよね……
「人を殺める」一つとっても、死刑執行人はどっち?ってことになるし。
Re: (スコア:0)
かなり高度な人工知能があることが大前提ですからねえ。
たとえば人間とマネキンを見分けるくらいは余裕でできないと。
今の原始的な深層学習では、まだまだ実現不可能なのはしかたない。
Re: (スコア:0)
情報入力はできるんですけど、評価が難しいんですよね
もちろん限定的な法則、たとえば法や戦闘のお作法をベースに境界ケースは安全側(攻撃しないとか)に倒す、とかはできるんだけども。
Re: (スコア:0)
まず手始めに「人間とそれ以外を見分けられる能力」が必要。人間と猿やゴリラ、
ポスターや蝋人形。さらにはスピーカーやモーターを組み込んだマネキンと
すら見分ける必要がある。
さらに「何をしたら危害を加えることになるのか」だけでなく、
「なにをしなかったら看過したことになるか」のような簡単な未来
予測まで必要。第一条だけでもこれ。
「未来の二つの顔」のスパルタクスくらいでも、まだやっと人間を
認識できたくらいのレベルで、三原則を実現するには力不足。
三原則実現への道程は遠い。
Re: (スコア:0)
大体
アシモフ世界のロボットですら、三原則を元に困った挙動をする
というのを描写するのがアシモフのロボット物であるような
Re: (スコア:0)
いまだにフレーム問題の解決手法はないんで無理でしょうねぇ。
機械学習だって、似たようなシチュエーションをたくさん経験(学習)させてそれらしい判断をさせているだけで、
経験外の事象に遭遇するとおかしくなります [it.srad.jp]からねぇ(苦笑)