アカウント名:
パスワード:
こういう現実例が色々出だすと、ロボットやAI系の話題で定番のロボット三原則をキャッキャする流れは過去のものになるんですかね。
ロボット三原則って「どうやって実装するか?」の視点がすっぽり抜けてますからねぇ(汗)
今なら機械学習で何とかなるんじゃないでしょうか。鉄腕アトムの7つの威力の筆頭は、「善悪を見分けられる電子頭脳」または「よい人とわるい人の見分けがつく」。昔は絶対無理だと思っていたのですが、昨今のAI技術なら可能かもしれない。
機械学習って、「実際に中でどのように理解(と言っていいか難しいけど)されているか」がブラックボックスな分、行動大原則の部分を任せるのリスクありません?アトムのようによい人を見分けるのだって、いいひとのデータを与えていても漫画版の楽観的性善説的ないいひとがドラマになると天然ボケ野郎になるみたいな(あれっ)
♪悪い奴らは天使の顔して 心で爪を研いでるものさ なんて歌もあったし……
高度な人工知能は、「天使の顔して 心で爪を研いでる」奴はわるい人と判定する。
#ギャバンは宇宙刑事なので、善悪の判定が地球人類とは異なる可能性がある。#銀河連邦警察があるということは、銀河連邦刑法に準じているのか。
ポジトロン頭脳に焼きこまれている感じだから学習とは別でハードワイヤードなんじゃないかなぁ学習結果を焼いてるだけかもしれないけど
アシモフの作中では、三原則に違反した状態は入力禁止で、内部状態が不正になり頭脳の破損を招く、という設定で、頭脳全体がでかくてファジイなロジックIC扱いになってますね。
「善悪」「よい人とわるい人」って、立場・主観で変わるんだよね……「人を殺める」一つとっても、死刑執行人はどっち?ってことになるし。
かなり高度な人工知能があることが大前提ですからねえ。たとえば人間とマネキンを見分けるくらいは余裕でできないと。
今の原始的な深層学習では、まだまだ実現不可能なのはしかたない。
情報入力はできるんですけど、評価が難しいんですよねもちろん限定的な法則、たとえば法や戦闘のお作法をベースに境界ケースは安全側(攻撃しないとか)に倒す、とかはできるんだけども。
まず手始めに「人間とそれ以外を見分けられる能力」が必要。人間と猿やゴリラ、ポスターや蝋人形。さらにはスピーカーやモーターを組み込んだマネキンとすら見分ける必要がある。
さらに「何をしたら危害を加えることになるのか」だけでなく、「なにをしなかったら看過したことになるか」のような簡単な未来予測まで必要。第一条だけでもこれ。
「未来の二つの顔」のスパルタクスくらいでも、まだやっと人間を認識できたくらいのレベルで、三原則を実現するには力不足。三原則実現への道程は遠い。
大体アシモフ世界のロボットですら、三原則を元に困った挙動をするというのを描写するのがアシモフのロボット物であるような
いまだにフレーム問題の解決手法はないんで無理でしょうねぇ。機械学習だって、似たようなシチュエーションをたくさん経験(学習)させてそれらしい判断をさせているだけで、経験外の事象に遭遇するとおかしくなります [it.srad.jp]からねぇ(苦笑)
戦闘ロボットにロボット三原則が入ってるわけがなかろう。
お前がロボット三原則を理解してないだけ。
ロボット三原則もどんどん複雑化している。第零法則 [wikipedia.org]まで考慮すれば一殺多生というか、目の前の一人の「敵」を殺すことも可能。
というか比較的温和な作業でも「ヒトへの危害かもしれない」行為をしないと動けなくなるし、逆にしきい値的なものを変えることでロボット自身が自ら被害を受ける行為をさせる、とかもアシモフのシリーズ初期からあるんですよね。
三原則が知られてからはパロディとしては「より自分の被害を訴えることで敵を攻撃させるネタ」を始め、三原則を持ったまま戦闘行為だの犯罪行為だのをさせる話が諸々あります。「アシモフのロボットにさせる」のは難易度が高い(が、第零法則までいかずとも例がある)ものの、単に「三原則を持つロボに戦争させること」はそんな…なんというか、フィクションとしては難しい話ではありませんね。
あと元の方のコメントは「戦闘ロボに三原則を入れるわけなかろう」ならまだ理解できるけど、「入っているわけなかろう」はむしろ三原則を分かってないセリフですね。ヒトの保全、命令の遵守、自己の保全、なんて「ヒト」「保全」「命令」「自己」の定義と認識能力が変わればどうにでもできるんだから。
横からだが、それならば「そんなすさまじく曖昧なものを実装してるわけがなかろう」と三原則を判っている発言なのでは?
いやだから、大本は「定番のロボット三原則をキャッキャする流れ」の話なんですよ。だから”判っている”なら原典からして「三原則を組み込んだ上で殺人」とか「三原則を組み込んだ上で命令違反や自己破壊的行動をさせる」とかいうネタをやってるとかアシモフを元ネタにした作品群が「日常動作すらできなくて停止」あるいは「ヒトの定義をいじって戦争の道具にすらできる」とかをやってたりするんだから「(日常的な行動はできるが戦争には使えないから)入ってるわけなかろう」で「キャッキャできない」と思ってるなら考えが浅いという話でしてね
それは仰る通りですね
お前が理解してないだけと言われてもなあ、ですねえ
あぁ、こういう形でキャッキャする感じになるんですね、勉強になります。
まあ色々コメントついているが「敵は我々のような人間じゃない」のようなプロパガンダは歴史上多数あるので敵は人間じゃないと思わせるまではもう一歩レトリックを弄すれば足りそうだな
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
犯人は巨人ファンでA型で眼鏡をかけている -- あるハッカー
ロボット三原則 (スコア:0)
こういう現実例が色々出だすと、ロボットやAI系の話題で定番のロボット三原則をキャッキャする流れは過去のものになるんですかね。
Re: (スコア:0)
ロボット三原則って「どうやって実装するか?」の視点がすっぽり抜けてますからねぇ(汗)
Re: (スコア:0)
今なら機械学習で何とかなるんじゃないでしょうか。
鉄腕アトムの7つの威力の筆頭は、「善悪を見分けられる電子頭脳」または「よい人とわるい人の見分けがつく」。
昔は絶対無理だと思っていたのですが、昨今のAI技術なら可能かもしれない。
Re:ロボット三原則 (スコア:1)
機械学習って、「実際に中でどのように理解(と言っていいか難しいけど)されているか」がブラックボックスな分、
行動大原則の部分を任せるのリスクありません?
アトムのようによい人を見分けるのだって、いいひとのデータを与えていても
漫画版の楽観的性善説的ないいひとがドラマになると天然ボケ野郎になるみたいな(あれっ)
♪悪い奴らは天使の顔して 心で爪を研いでるものさ なんて歌もあったし……
Re: (スコア:0)
高度な人工知能は、「天使の顔して 心で爪を研いでる」奴はわるい人と判定する。
#ギャバンは宇宙刑事なので、善悪の判定が地球人類とは異なる可能性がある。
#銀河連邦警察があるということは、銀河連邦刑法に準じているのか。
Re:ロボット三原則 (スコア:1)
ポジトロン頭脳に焼きこまれている感じだから
学習とは別でハードワイヤードなんじゃないかなぁ
学習結果を焼いてるだけかもしれないけど
Re:ロボット三原則 (スコア:1)
アシモフの作中では、三原則に違反した状態は入力禁止で、内部状態が不正になり頭脳の破損を招く、という設定で、頭脳全体がでかくてファジイなロジックIC扱いになってますね。
Re:ロボット三原則 (スコア:1)
「善悪」「よい人とわるい人」って、立場・主観で変わるんだよね……
「人を殺める」一つとっても、死刑執行人はどっち?ってことになるし。
Re: (スコア:0)
かなり高度な人工知能があることが大前提ですからねえ。
たとえば人間とマネキンを見分けるくらいは余裕でできないと。
今の原始的な深層学習では、まだまだ実現不可能なのはしかたない。
Re: (スコア:0)
情報入力はできるんですけど、評価が難しいんですよね
もちろん限定的な法則、たとえば法や戦闘のお作法をベースに境界ケースは安全側(攻撃しないとか)に倒す、とかはできるんだけども。
Re: (スコア:0)
まず手始めに「人間とそれ以外を見分けられる能力」が必要。人間と猿やゴリラ、
ポスターや蝋人形。さらにはスピーカーやモーターを組み込んだマネキンと
すら見分ける必要がある。
さらに「何をしたら危害を加えることになるのか」だけでなく、
「なにをしなかったら看過したことになるか」のような簡単な未来
予測まで必要。第一条だけでもこれ。
「未来の二つの顔」のスパルタクスくらいでも、まだやっと人間を
認識できたくらいのレベルで、三原則を実現するには力不足。
三原則実現への道程は遠い。
Re: (スコア:0)
大体
アシモフ世界のロボットですら、三原則を元に困った挙動をする
というのを描写するのがアシモフのロボット物であるような
Re: (スコア:0)
いまだにフレーム問題の解決手法はないんで無理でしょうねぇ。
機械学習だって、似たようなシチュエーションをたくさん経験(学習)させてそれらしい判断をさせているだけで、
経験外の事象に遭遇するとおかしくなります [it.srad.jp]からねぇ(苦笑)
Re: (スコア:0)
Re: (スコア:0)
戦闘ロボットにロボット三原則が入ってるわけがなかろう。
お前がロボット三原則を理解してないだけ。
Re: (スコア:0)
ロボット三原則もどんどん複雑化している。
第零法則 [wikipedia.org]まで考慮すれば一殺多生というか、目の前の一人の「敵」を殺すことも可能。
Re: (スコア:0)
というか比較的温和な作業でも「ヒトへの危害かもしれない」行為をしないと動けなくなるし、
逆にしきい値的なものを変えることでロボット自身が自ら被害を受ける行為をさせる、
とかもアシモフのシリーズ初期からあるんですよね。
三原則が知られてからはパロディとしては「より自分の被害を訴えることで敵を攻撃させるネタ」を始め、三原則を持ったまま戦闘行為だの犯罪行為だのをさせる話が諸々あります。
「アシモフのロボットにさせる」のは難易度が高い(が、第零法則までいかずとも例がある)ものの、単に「三原則を持つロボに戦争させること」はそんな…なんというか、フィクションとしては難しい話ではありませんね。
あと元の方のコメントは「戦闘ロボに三原則を入れるわけなかろう」ならまだ理解できるけど、「入っているわけなかろう」はむしろ三原則を分かってないセリフですね。
ヒトの保全、命令の遵守、自己の保全、なんて「ヒト」「保全」「命令」「自己」の定義と認識能力が変わればどうにでもできるんだから。
Re: (スコア:0)
横からだが、それならば
「そんなすさまじく曖昧なものを実装してるわけがなかろう」
と三原則を判っている発言なのでは?
Re: (スコア:0)
いやだから、大本は「定番のロボット三原則をキャッキャする流れ」の話なんですよ。
だから”判っている”なら
原典からして「三原則を組み込んだ上で殺人」とか「三原則を組み込んだ上で命令違反や自己破壊的行動をさせる」とかいうネタをやってるとか
アシモフを元ネタにした作品群が「日常動作すらできなくて停止」あるいは「ヒトの定義をいじって戦争の道具にすらできる」とかをやってたりするんだから
「(日常的な行動はできるが戦争には使えないから)入ってるわけなかろう」で「キャッキャできない」と思ってるなら考えが浅いという話でしてね
Re: (スコア:0)
それは仰る通りですね
お前が理解してないだけと言われてもなあ、ですねえ
Re: (スコア:0)
あぁ、こういう形でキャッキャする感じになるんですね、勉強になります。
Re: (スコア:0)
まあ色々コメントついているが
「敵は我々のような人間じゃない」のようなプロパガンダは歴史上多数あるので
敵は人間じゃないと思わせるまではもう一歩レトリックを弄すれば足りそうだな