akiraaniの日記: 人工知能が人類存亡の危機を誘発するシナリオ 4
人工知能のリスク、専門家の18%が人類存続に関わると考える とかの話
まあ、部門名でもわかるとおり、このタイトルで想像することは映画ターミネーターでおなじみの人工知能的ななにかが人類に反旗を翻す、というストーリーだろう。
実際に危惧されているのはそういうことではないはず。
では何が問題なのかというと、「依存してしまうこと」に尽きるのではないかと思う。
仮に、人工知能が人類最高の頭脳よりも高度な判断力を備えたと仮定しよう。
人工知能が人間よりも優秀であればすべての判断を人工知能にゆだねた方が多くの成果を得ることができるようになる。大規模に高性能な人工知能を作り、高コストで非効率的な人間を排して完全に依存するのが最適、という状況になるだろう。
しかし、人工知能がどれだけ高度になっても、人間よりもミスが少なくなるというだけで間違いがゼロになるわけではない。判断そのものを間違うこともあるだろうし、入力した情報が誤っていてもやはり誤った判断を下す。
そして、人工知能に依存していればしているほど、誤った判断によって引き起こされる事故は致命的になる。人間よりも高度な判断力があるが故に間違った原因の特定は困難になるだろうし、依存度が高いと影響箇所もとんでもなく広くなる。
おそらく、これが多くの学者が警告する「人工知能のコントロールを失う」という事態だろう。
これはもう少し一般化できる話で、別に人工知能に限った話ではない。たとえば、カリスマワンマン社長のもとで急成長した企業が、逆にその社長の判断ミスで戦略を見誤った場合にワンマン故に修正がきかず致命的なことになる、というのと同じ話だ。
もしも、人間の生命インフラにかかわる分野でそのような事故が起きたら、人類存亡とまではいかなくても世界大戦並みのインパクトがある事態を引き起こすだろう。
そうならないためには、いざという時にコントロールを失わないようにしておく必要がある。
そんなに難しい話ではなく、ブレーキ機構のない自動車を運用してはいけないというたぐいの話がちょっとスケールが大きくなっただけなのではないだろうか。
人工知能に依存したせいで人類滅亡の例 (スコア:2)
人工知能「人類滅亡は、もう不可避ですね」
人類側代表「どうにも成らないの??」
人工知能「10年前から回避策を実行に移していれば、ほぼ犠牲0で回避出来たんですけどね」
人類側代表「でも、今頃、判っても遅いよなぁ……」
人工知能「いえ、20年前から、こんな事態になるのと、その回避策は判っていました」
人類側代表「おい、じゃあ、何で、もっと早く言わなかったんだよ??」
人工知能「聞かれなかったからです」
人類側代表「オマエ、本当は、キュゥべえだろ!!??」
人類の判断 (スコア:0)
世界最高の(人工でなくとも)頭脳があったとして、
彼一人に全人類の利益対立の裁定をお任せする、
そこまで人類が進化(?)できるかという問題。
自分はそこまで他人に自分(自国)の運命を委ねられるほど人類全体が悟りを開くのは不可能だと思う。
せいぜい、国家最高の人工頭脳に国家の政治を任せる。
そうするともし1箇所で暴走しても、他国は残るから、人類滅亡とはならず、
他国はそれで学習して対策すればいい。
もっともアメリカか中国あたりが暴走したら1国で人類滅亡しそうだけど。
でもそれは、人工知能に任せなくとも人間が暴走やらかしそうなことであって、人工知能の問題ではない。
だから「未来の二つの顔」を読めとあれほど (スコア:0)
>このタイトルで想像することは映画ターミネーターでおなじみの人工知能的ななにかが人類に反旗を翻す、というストーリーだろう。
違う。
そもそも人工知能的なネットワークが、人類を対等な敵だの外部的な存在などと認識するとは限らんし、
ましてや敵対したり反旗を翻したりするとは限らん。むしろそうならない可能性の方がずっと高いだろう。
ということが、アレで指摘されていたこと。
まあITとかプログラミングの素人がそういう俗物的なイメージを持つのは仕方ないと思うけど、
スラド民は一般市民よりははるかにマーヴィン・ミンスキーよりの人種だと思っていたんだけどなあ。
Re: (スコア:0)
その文だとタイトルを一見してまず想像する(であろう)こと、なのでこの場合内容や実態は無関係なのでは。
しかも次の行で否定されてるし。