アカウント名:
パスワード:
みんなとの違いが大きいからイジメの対象になるかもね
いじめが機能するほどのAIができたら、それは素晴らしいでしょうね。自己破壊禁止の機能が必要かもしれないが、自殺が不可能ないじめも酷いw
自己破壊が禁止ではなく、倫理違反だから機能するんじゃないかな。
#積算値で超える場合があるという予測が、危機感という概念を(r
>自己破壊禁止の機能が必要かもしれないが、ロボット三原則の第三条で十分だと思います。
ロボット三原則でイジメとなると、矛盾した命令を与えるとかになるのかなあ。「進め!」「戻れ!」「動くな!」命令する人に優先順位があればいいけど、なまじ序列が同じだとどの命令に従えば良いかは人間でもわからん。
第三条「で十分」なのではなく、第三条そのものことなのだから第一・第二条にあたるものも定義しないと「不十分」です。さもなければ自己保全のために過剰な行動にでるかもしれないのですから。
#そして、この三原則はその詳細な定義や優先順位付けによってすぐ殺人や命令違反や自己破壊や矛盾による停止をしてしまうのは原典にあるとおり。
すぐ殺人するっけ?専門家による回避手段を用意してやったあげくに実行後に機能停止と明確に止めようとしてることは止められてると思う。
# むろんそれで完璧に回避しきれないのは原作の通り。
>第一・第二条にあたるものも定義しないと「不十分」です。んなもんロボット三原則の話なんだから、それがあるのは当たり前じゃん。
>すぐ殺人や命令違反や自己破壊や矛盾による停止をしてしまうのは原典にあるとおり。突発的な物を除けば殺人はない。
「命令に従わない」というのはあるけど、それは第一条に反する場合で、三原則というより優先順位の高い命令に従っている。ゆえに「命令違反」ではない。
自己破壊についても人間の命令が優先されてるだけだし、さらにレベルの高い奴なら自分の価値と天秤にかけて、合理的理由が無いかぎりは破壊しない。ロボットは高価な備品なのだから、それを壊すのは所有者に対して金銭的な危害を加えることに他ならないから。
#本当に読んでから発言してる?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
日本発のオープンソースソフトウェアは42件 -- ある官僚
いじめ (スコア:1)
みんなとの違いが大きいからイジメの対象になるかもね
Re:いじめ (スコア:2, すばらしい洞察)
いじめが機能するほどのAIができたら、それは素晴らしいでしょうね。
自己破壊禁止の機能が必要かもしれないが、自殺が不可能ないじめも酷いw
Re:いじめ (スコア:1)
自己破壊が禁止ではなく、倫理違反だから機能するんじゃないかな。
#積算値で超える場合があるという予測が、危機感という概念を(r
#壮大なストーリ。空転するアイディア。
Re: (スコア:0)
>自己破壊禁止の機能が必要かもしれないが、
ロボット三原則の第三条で十分だと思います。
ロボット三原則でイジメとなると、矛盾した命令を与えるとかになるのかなあ。
「進め!」「戻れ!」「動くな!」
命令する人に優先順位があればいいけど、なまじ序列が同じだと
どの命令に従えば良いかは人間でもわからん。
Re:いじめ (スコア:1)
第三条「で十分」なのではなく、第三条そのものことなのだから第一・第二条にあたるものも定義しないと「不十分」です。
さもなければ自己保全のために過剰な行動にでるかもしれないのですから。
#そして、この三原則はその詳細な定義や優先順位付けによってすぐ殺人や命令違反や自己破壊や矛盾による停止をしてしまうのは原典にあるとおり。
Re: (スコア:0)
すぐ殺人するっけ?
専門家による回避手段を用意してやったあげくに実行後に機能停止と
明確に止めようとしてることは止められてると思う。
# むろんそれで完璧に回避しきれないのは原作の通り。
Re: (スコア:0)
>第一・第二条にあたるものも定義しないと「不十分」です。
んなもんロボット三原則の話なんだから、それがあるのは当たり前じゃん。
>すぐ殺人や命令違反や自己破壊や矛盾による停止をしてしまうのは原典にあるとおり。
突発的な物を除けば殺人はない。
「命令に従わない」というのはあるけど、それは第一条に反する場合で、三原則という
より優先順位の高い命令に従っている。ゆえに「命令違反」ではない。
自己破壊についても人間の命令が優先されてるだけだし、さらにレベルの高い奴なら
自分の価値と天秤にかけて、合理的理由が無いかぎりは破壊しない。
ロボットは高価な備品なのだから、それを壊すのは所有者に対して金銭的な危害を加えることに他ならないから。
#本当に読んでから発言してる?