アカウント名:
パスワード:
AIの危険性は人間の知性を超えてしまう可能性じゃない。AIが学習した内容を人間が把握するのが困難であるという問題だ。AIが起こした事故の原因究明が困難であれば今でもAIは危険と言える。
いつも思うんだけどこれって、
子供が学習した内容を親が把握するのが困難であるという問題だ。子供が起こした事故の原因究明が困難であれば今でも子供は危険と言える。
というのとどう違うのだろう。結局、人間の心の推移もあまり正確には分からなくて起きた事象だけでの事故評価がほとんどなのに、AIと何も差が無いと思うんだけどなぁ。ただ単にAIに対する一定の基礎教育が成っていないことや、学習の方向性を操作してない運用者(親)の責任ってことじゃないのかぁと思ったりするんだけど如何?
子供が起こした自転車事故の億を越える損害賠償で家族離散とか、最近は普通に発生していますが。
せやな。「2歳半の幼児が起こした悲劇 銃規制はどこまですべきか」 http://the-liberty.com/article.php?item_id=11280 [the-liberty.com] 「拳銃をおもちゃと勘違いか…7歳男児、自分を撃って死亡 米シカゴ」 http://www.sankei.com/world/news/160321/wor1603210017-n1.html [sankei.com] そういうニュースがそんなに珍しくないくらいには危険な存在。
6歳児がスケボーに腹
子供の場合は、最後はみんな信じている(性善説)ので、すべてを理解しなくても教えられるのです。本当に性悪な場合(精神的に健常でない場合)、おっしゃる通り危険です。(猟奇的な殺人犯など)
AIの場合、性善も性悪もないので、ちまちま教えないとだめなのです。
>AIの場合、性善も性悪もないので、ちまちま教えないとだめなのです。まさにこれだと思う。それで、子供も幼少期からちまちま教えるよね?それが基礎教育と学習の方向性の管理であって、内部の動きを最終的には取得できるというAIの人工性がある以上、どっちかというと子供よりはほんの少しだけマシなのでは?と思ったり。
ロボットには肉体や感情がありません。自分の出生や死について考えたり、不思議に思う事はありません。肉体的な痛みを怖がる事も無いですし、他者への共感もありません。殺人って言う事象に限れば、人と同じ土台がない以上、AIの基礎教育というのは難しい部分があるんじゃないですかね。
あとAI恐怖症って案外合理的な人も多いんじゃないかって気がする。人類は非合理的でなんとかかんとかで滅ぼすべきみたいなAIが導き出すだろう結論を勝手に想定して、AI側に共感した結果として。
そうそう、端的に言うと「同じハードウェアに乗っかってないから」とか言えますよね。
同類ハードウェア間、別OSでのデータ授受や移植と、別ハードウェア間でのデータ授受や移植との違いみたいな。前者であればI/F上にはある程度決まった”お約束”が期待できるが、後者はイチから気を遣わねばならぬ。そしてヒトはその”お約束”の部分を半ば無意識に行っているという問題、”お約束”が通じない(だろう)相手を恐れる、という仕組みがある。恐怖症自体は仕方ないよね。だって真の意味で「何考えてるかわからないくせにパワーだけはある」ものを想定しているんだもん。
ロボットには肉体や感情がありません。自分の出生や死について考えたり、不思議に思う事はありません。肉体的な痛みを怖がる事も無いですし、他者への共感もありません。
感情面に関していえば下等あるいは低機能なAIを積んでいるからそうなる。ロボットには広義の肉体はある。ああでも肉ではないから体と表現すべきか。自身の機械的な故障や衝撃等によって発生した損傷を評価する機能を搭載すればそれは痛みを感じているといっても過言ではないだろうし。他者への共感も実装すればいいししなくてもいい。まあそもそも殺人等の
どちらも違うよ
感情や肉体という言葉は人間の何物かを差すので、動物やロボットがそれらを持つという場合はあくまでもレトリックにすぎない
> 自身の機械的な故障や衝撃等によって発生した損傷を評価する機能を搭載すればそれは痛みを感じているといっても過言ではないだろうし。
大いに過言なんです少なくとも人間の感じる痛みというのはもっと非常に複雑なものだと一般的に理解されているわけですが
遠い未来にそれらをダイレクトに定義できるようになるかもしれないけど、今はとうてい無理です
性悪な人への教育(大人になって犯罪犯して、裁判で矯正不能と判断される人)とAIへの教育で言ったら、AIの方がマシなのはその通りだと思う。ほんの少しどころか、超マシ。
だから人間には成長過程でフィルタリングがたくさんあり、性悪な人がたいした力を持てないように社会ができている。AIが出てくる物語でも、安全装置皆無ってのはまずない。フィルタリングを突破してなんぼ。
性善説というよりも、「社会活動を行う上で、社会不適合は非効率だという学習」が往々にしてい行われるという経験則でないかな。そうだとするとAIってのはそもそも一般的な社会的な立場とか行動が無い訳で、あんまり人間社会に対する適合学習が行われない、って可能性は十分にあるかな、とか。
子供が危険なのは学習途上だから。じゃあ学習を完成させれば危険じゃなくなるの?もしそうなら、AIもそうすればいいんじゃないの?ということになってしまう。実際には大人も危険だよね。だから警察が必要だったりする。
そして、人間(子供も大人も)が危険なのは、(過失を除けば)本能や欲求を持ってるから。たとえきちんと学習しても、学習した内容を正しく使って、悪意ある行動ができてしまう。
子供の場合は莫大な実施例があるから、ノウハウがあるし、どうなるかは(漠然とだけれども)わかる。だが、AIの場合はまだこれからなのでノウハウがないし、実践に投入された場合どう反応するかも実践に投入してみないとわからんところが多いしねぇ
本能や欲求を基礎プログラムとしてAIはインプリできるんじゃないの?
とはいえ、この意見は確かにそうだ。AI も監視は必要になるし、悪意ある行動が発生したらペナルティを与える必要はあるだろうね。
ともあれ、そうなると、人間よりも傑物に育ったAIをどう罰するのかという話になって、シンギュラリティSFな話になっていくよなぁ。
#無生物に愛を注げる文化を持つ民の一つでもある日本人としてはこれくらいの楽観性でことが済めば万歳だけどね・・・# http://www.amazon.co.jp/%E3%82%B7%E3%83%B3%E3%82%AE%E3%83%A5%E3%83%A9%... [amazon.co.jp]
人間に匹敵する、あるいは超えるような知能を持つAIができたとき、それに本能や欲求を組み込むと、たぶんまずいことが起こります。やっちゃいけないと思います。
自由にプログラミングできるんだから、本能や欲求なんて組み込まずに、守らせたいルールだけを組み込んでおけばそれでいいのだと思います。
AIの悪意ある行動に対抗するために「罰」を導入するというのは、あまり良いとは思えません。罰を有効なものにするためには、罰を怖がる本能を前もって組み込んでおく必要があります。でも、それが可能なら、最初からルールを守る「本能」を組み込んでおけばいいだけの話。
マップスって漫画に、敵勢力の人間(ここでは宇宙人ですが)を効率的に殺すために、ロボットに人間を殺す快感を与えるって話が出てきます。最優先の命令にでもするんでしょうね。結果、その宇宙人たちは滅亡寸前まで追い詰められるんですが。地球人も同じことをやりそうな雰囲気濃厚ですよね。
その「ルール」を明示できないから困るんだよ。そもそも、解釈の余地のない厳密なルールをどのように与えるのか。。。(言葉は不正確すぎる)「ルール」の実体が人間でしかないなら、人間に「罰」を与えられることを恐れるようにした方がよさげ。
へりくつこいて裏をかこうとしてくる人間相手にして明示的なルールだけで問題なく済ませられるかと考えてみれば解りやすいかな。あるいは司法をルールだけで処理できるかとか。
# ルールその1「人間に怒られるようなことをしてはいけない」
というか、みんな言葉を素朴な意味で使うのでナンセンスな話になるスラド民の手に負えるようなものじゃないよ
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
「毎々お世話になっております。仕様書を頂きたく。」「拝承」 -- ある会社の日常
わかってないね (スコア:0)
AIの危険性は人間の知性を超えてしまう可能性じゃない。
AIが学習した内容を人間が把握するのが困難であるという問題だ。
AIが起こした事故の原因究明が困難であれば今でもAIは危険と言える。
Re:わかってないね (スコア:1)
いつも思うんだけどこれって、
子供が学習した内容を親が把握するのが困難であるという問題だ。
子供が起こした事故の原因究明が困難であれば今でも子供は危険と言える。
というのとどう違うのだろう。結局、人間の心の推移もあまり正確には分からなくて
起きた事象だけでの事故評価がほとんどなのに、AIと何も差が無いと思うんだけどなぁ。
ただ単にAIに対する一定の基礎教育が成っていないことや、学習の方向性を操作してない
運用者(親)の責任ってことじゃないのかぁと思ったりするんだけど如何?
Re:わかってないね (スコア:1)
ある程度大きくなってると、事件事故起きても親の監督義務の範囲外になるのに、当の子供には賠償能力はないから被害者泣き寝入りになる確率が高い。
さすがに凶悪犯罪とかは親の責任問えるけど自転車事故とかホボ無理。
Re: (スコア:0)
子供が起こした自転車事故の億を越える損害賠償で家族離散とか、最近は普通に発生していますが。
Re: (スコア:0)
せやな。
「2歳半の幼児が起こした悲劇 銃規制はどこまですべきか」 http://the-liberty.com/article.php?item_id=11280 [the-liberty.com]
「拳銃をおもちゃと勘違いか…7歳男児、自分を撃って死亡 米シカゴ」 http://www.sankei.com/world/news/160321/wor1603210017-n1.html [sankei.com]
そういうニュースがそんなに珍しくないくらいには危険な存在。
6歳児がスケボーに腹
Re: (スコア:0)
子供の場合は、最後はみんな信じている(性善説)ので、すべてを理解しなくても
教えられるのです。
本当に性悪な場合(精神的に健常でない場合)、おっしゃる通り危険です。
(猟奇的な殺人犯など)
AIの場合、性善も性悪もないので、ちまちま教えないとだめなのです。
Re:わかってないね (スコア:1)
>AIの場合、性善も性悪もないので、ちまちま教えないとだめなのです。
まさにこれだと思う。それで、子供も幼少期からちまちま教えるよね?
それが基礎教育と学習の方向性の管理であって、内部の動きを最終的には取得できるというAIの人工性がある以上、どっちかというと子供よりはほんの少しだけマシなのでは?と思ったり。
Re: (スコア:0)
ロボットには肉体や感情がありません。
自分の出生や死について考えたり、不思議に思う事はありません。
肉体的な痛みを怖がる事も無いですし、他者への共感もありません。
殺人って言う事象に限れば、人と同じ土台がない以上、
AIの基礎教育というのは難しい部分があるんじゃないですかね。
あとAI恐怖症って案外合理的な人も多いんじゃないかって気がする。
人類は非合理的でなんとかかんとかで滅ぼすべきみたいな
AIが導き出すだろう結論を勝手に想定して、AI側に共感した結果として。
Re:わかってないね (スコア:1)
そうそう、端的に言うと「同じハードウェアに乗っかってないから」とか言えますよね。
同類ハードウェア間、別OSでのデータ授受や移植と、
別ハードウェア間でのデータ授受や移植との違いみたいな。
前者であればI/F上にはある程度決まった”お約束”が期待できるが、後者はイチから気を遣わねばならぬ。
そしてヒトはその”お約束”の部分を半ば無意識に行っているという問題、”お約束”が通じない(だろう)相手を恐れる、という仕組みがある。
恐怖症自体は仕方ないよね。だって真の意味で「何考えてるかわからないくせにパワーだけはある」ものを想定しているんだもん。
Re: (スコア:0)
ロボットには肉体や感情がありません。
自分の出生や死について考えたり、不思議に思う事はありません。
肉体的な痛みを怖がる事も無いですし、他者への共感もありません。
感情面に関していえば下等あるいは低機能なAIを積んでいるからそうなる。ロボットには広義の肉体はある。ああでも肉ではないから体と表現すべきか。自身の機械的な故障や衝撃等によって発生した損傷を評価する機能を搭載すればそれは痛みを感じているといっても過言ではないだろうし。他者への共感も実装すればいいししなくてもいい。まあそもそも殺人等の
Re: (スコア:0)
どちらも違うよ
感情や肉体という言葉は人間の何物かを差すので、動物やロボットがそれらを持つという場合はあくまでもレトリックにすぎない
> 自身の機械的な故障や衝撃等によって発生した損傷を評価する機能を搭載すればそれは痛みを感じているといっても過言ではないだろうし。
大いに過言なんです
少なくとも人間の感じる痛みというのはもっと非常に複雑なものだと一般的に理解されているわけですが
遠い未来にそれらをダイレクトに定義できるようになるかもしれないけど、今はとうてい無理です
Re: (スコア:0)
性悪な人への教育(大人になって犯罪犯して、裁判で矯正不能と判断される人)と
AIへの教育で言ったら、AIの方がマシなのはその通りだと思う。
ほんの少しどころか、超マシ。
だから人間には成長過程でフィルタリングがたくさんあり、性悪な人がたいした力を
持てないように社会ができている。
AIが出てくる物語でも、安全装置皆無ってのはまずない。フィルタリングを突破してなんぼ。
Re: (スコア:0)
性善説というよりも、「社会活動を行う上で、社会不適合は非効率だという学習」が往々にしてい行われるという経験則でないかな。
そうだとするとAIってのはそもそも一般的な社会的な立場とか行動が無い訳で、あんまり人間社会に対する適合学習が行われない、って可能性は十分にあるかな、とか。
Re: (スコア:0)
子供が危険なのは学習途上だから。
じゃあ学習を完成させれば危険じゃなくなるの?もしそうなら、AIもそうすればいいんじゃないの?
ということになってしまう。
実際には大人も危険だよね。だから警察が必要だったりする。
そして、人間(子供も大人も)が危険なのは、(過失を除けば)本能や欲求を持ってるから。
たとえきちんと学習しても、学習した内容を正しく使って、悪意ある行動ができてしまう。
Re:わかってないね (スコア:1)
子供の場合は莫大な実施例があるから、ノウハウがあるし、どうなるかは(漠然とだけれども)わかる。
だが、AIの場合はまだこれからなのでノウハウがないし、実践に投入された場合どう反応するかも実践に投入してみないとわからんところが多いしねぇ
Re:わかってないね (スコア:1)
本能や欲求を基礎プログラムとしてAIはインプリできるんじゃないの?
とはいえ、この意見は確かにそうだ。AI も監視は必要になるし、悪意ある行動が発生したらペナルティを与える必要はあるだろうね。
ともあれ、そうなると、人間よりも傑物に育ったAIをどう罰するのかという話になって、シンギュラリティSFな話になっていくよなぁ。
#無生物に愛を注げる文化を持つ民の一つでもある日本人としてはこれくらいの楽観性でことが済めば万歳だけどね・・・
# http://www.amazon.co.jp/%E3%82%B7%E3%83%B3%E3%82%AE%E3%83%A5%E3%83%A9%... [amazon.co.jp]
Re: (スコア:0)
人間に匹敵する、あるいは超えるような知能を持つAIができたとき、
それに本能や欲求を組み込むと、たぶんまずいことが起こります。やっちゃいけないと思います。
自由にプログラミングできるんだから、本能や欲求なんて組み込まずに、守らせたいルールだけを
組み込んでおけばそれでいいのだと思います。
AIの悪意ある行動に対抗するために「罰」を導入するというのは、あまり良いとは思えません。
罰を有効なものにするためには、罰を怖がる本能を前もって組み込んでおく必要があります。
でも、それが可能なら、最初からルールを守る「本能」を組み込んでおけばいいだけの話。
Re: (スコア:0)
マップスって漫画に、敵勢力の人間(ここでは宇宙人ですが)を効率的に殺すために、
ロボットに人間を殺す快感を与えるって話が出てきます。最優先の命令にでもするんでしょうね。
結果、その宇宙人たちは滅亡寸前まで追い詰められるんですが。
地球人も同じことをやりそうな雰囲気濃厚ですよね。
Re: (スコア:0)
その「ルール」を明示できないから困るんだよ。そもそも、解釈の余地のない厳密なルールをどのように与えるのか。。。(言葉は不正確すぎる)
「ルール」の実体が人間でしかないなら、人間に「罰」を与えられることを恐れるようにした方がよさげ。
へりくつこいて裏をかこうとしてくる人間相手にして明示的なルールだけで問題なく済ませられるかと考えてみれば解りやすいかな。
あるいは司法をルールだけで処理できるかとか。
# ルールその1「人間に怒られるようなことをしてはいけない」
Re: (スコア:0)
というか、みんな言葉を素朴な意味で使うのでナンセンスな話になる
スラド民の手に負えるようなものじゃないよ