パスワードを忘れた? アカウント作成
13302958 story
テクノロジー

人工知能が人間を超えることはない? 164

ストーリー by hylom
技術の進歩で理解力についてはある程度対応できそうな気もする 部門より

「東大に合格できる」人工知能を開発するプロジェクトに関わった国立情報学研究所(NII)社会共有知研究センター・センター長の新井紀子教授によると、人工知能が人間の知能を超えることはないという(リセマム)。

新井教授によると、人工知能の判断能力については期待できるが、自然言語の意味を理解することは難しく、「過去に学習していない問題やパターンに突き当たると、解答できない」としている。

このプロジェクトは昨年に東大合格を諦めたが(過去記事)、「意味を理解する」ことは人間にとっても難しい場合があるとし、人間に対し教育で読解力を高めることが重要であるともしている。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by Anonymous Coward on 2017年06月07日 17時51分 (#3223703)

    実は、意味解析におけるフレーム問題は、30年以上停滞したままなのです。prologやLispを使ったルールベースの論理型の人工知能の研究がとん挫して下火になったのは、自然言語解析における意味解析でこのフレームも問題を論理的に処理することができなかったからである。
    現在主流なのは、意味解析そのものをあきらめて、単語の羅列のパターンからパターン解析でテンプレートに従って特定の動作を行うようにしたものです。パターンマッチングとテンプレートの適用だけなので、システムが意味を理解して判断しているわけではないのです。
    要するに、常識とか関連知識による裏付けが何もない状態で、機械的に動作しているだけなのです。
    この段階ではパターンに対応するテンプレートは人間が作らなければならないので、人間を超えることなどできないのである。

    • by minet (45149) on 2017年06月07日 18時11分 (#3223719) 日記

      つまり、人間を越えうるようなモノは、できたとしても人工知能ではない(現代の基準で人工知能とは呼べない)モノであろう、ということかな?

      親コメント
      • by ma_kon2 (9679) on 2017年06月07日 18時55分 (#3223746) 日記
        そんな気がするよなあ。知性云々は「人間側から見たら」ということだし。
        親コメント
        • by digoh (17917) on 2017年06月07日 19時22分 (#3223770) 日記

          これは宗教やSFの文脈でもしばしば指摘されるところで、
          (ふつーの)人が語る知性とは、人の知性の枠内、延長線上でしかないんですよね。
          人より計算が速いとかよりミスをしないとかいう尺度は結局「すごいヒト」でしかなく、ヒトの枠を超えた知性は測れない(というかそれを知性と感じない)

          ヒトから見て下位にあたる知性について語るのはともかく、ヒトを超えた知性とは、ヒトから見たら理不尽、非合理的、支離滅裂に写る可能性がある。
          しかしヒトはそれが「ヒトを超えた超知性」と判断することはできず、「なんか未熟だな」とか「狂っている」としか評価できない(だって自分を超えてるんだもん)。

          「目の前の餌にかみついて全て飲み込む」ことしか知らない生物は、「自分より素早くかみつき漏れなく飲み込む」ことを評価できるが、「後のために一部残しておく」という選択肢を誤りか狂気としか把握できないのだな。

          一部宗教が設定している「ヒトを愛していると言うけど不幸を正さない理不尽な神」とかSFで出てくる「ちょっかい出してくるけど意図が分からない超科学存在」とかがそんな感じ。(クトゥルフ神話なんてど真ん中ですね)
          我々にその高度さを測る物差しがないのだ。

          親コメント
    • by t_mrc-ct (5292) on 2017年06月07日 18時16分 (#3223721) 日記

      人類も30億年以上かけて学習したパターン解析に基づいて認識した現実に、後付けで意味を持たせているだけな気がするから、AIも膨大なリソース注ぎ込んで機械学習すれば何とかなる気がする。

      # でも結局「知性とは何か」は、AIを創った人類にも、知性を持ったAIにもわからないという落ちに期待

      親コメント
      • by digoh (17917) on 2017年06月07日 19時30分 (#3223776) 日記

        ヒトも「すごい中国人の部屋」でしかないということですよね。
        感情や美意識も、結局のところ個の繁栄→血族の繁栄→種の繁栄のための仕組み、もしくはその副作用でしかないと。

        ちょっと先までもってくと、
        クオリアを否定するわけではないが、それはPCにおけるデータ上の「赤色」のように一つ上のレイヤーで仮想的に構築されているものであって、物理構造にとって深い意味・意義があるものではないって感じ。
        哲学的ゾンビがクオリアを感じられない、のではなく、哲学的ゾンビが「あ、今オレクオリアを感じた」って言ったらそこにクオリアがあるって意味なンだよ!って感じ。

        親コメント
      • by qem_morioka (30932) on 2017年06月07日 21時08分 (#3223852) 日記

        知性を論理的に定義できない以上、実装することはできないからなあ。

        ハードプロブレムの一つなのかねぇ _(:3 」∠)_

        親コメント
    • by Anonymous Coward on 2017年06月07日 19時28分 (#3223775)
      人工知能の研究者は意味というものがいかなるものか、未だ部分的な定式化にも程遠いことを痛感しているが、スラドの素人は何か言ったつもりになっていて面白いね
      親コメント
  • by Anonymous Coward on 2017年06月07日 17時21分 (#3223683)
    1. 高名で年配の科学者が可能であると言った場合、その主張はほぼ間違いない。また不可能であると言った場合には、その主張はまず間違っている。
  • by ma_kon2 (9679) on 2017年06月07日 17時18分 (#3223678) 日記
    でも,ちょっと待って欲しい。
    そもそも人間自身「自然言語の意味を理解」していると言えるだろうか?
    哲学的ゾンビは本当に哲学的ゾンビなんだろうか?
    • by Anonymous Coward on 2017年06月07日 17時35分 (#3223692)

      「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」といったな問題に解答することが現時点では難しいという意味だろうけど。
      囲碁においては「盤面の意味を理解することは難しく、過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。

      親コメント
      • いわゆる人工知能の「フレーム問題」という奴ですね。囲碁や将棋がブレイクスルーできたのは、単に有限・完全情報ゲームだったからですね。
        ポーカーや人狼のような不完全情報ゲームですら、まだまだこれからの研究課題になってるレベルですからね。東大の試験なんか、いわんやですね。

        親コメント
        • by LoadFF (27414) on 2017年06月07日 18時58分 (#3223749)

          セマンティックな部分を言うなら記号着地問題の方では。
          その辺りを力業でどーにかしてるのが今のディープラーニングでしょう。

          #1970年代頃のコンピュータ万能論がそのまま今のAI万能論に
          #置き換わってるだけに思えて・・・

          --
          如何なる内容であろうとACでの書き込みは一切無視します。
          親コメント
        • by Anonymous Coward on 2017年06月07日 18時06分 (#3223712)

          でも自分自身や周りの人を見てると、
          人間だってフレーム問題なんて全然解決できてねーな、と思えるような事ばっかだけどね。
          それともこれが「大人のADHD」とかいうやつなのかな
          本当に一般の人間はフレーム問題を解決してるの?

          親コメント
          • by firewheel (31280) on 2017年06月07日 18時28分 (#3223727)

            「 また,フレーム問題は人間でも解決できるわけではありません.思いもよらないことで事故がおきるのは安全くん1号と同じ状況ですし,知らない場所へ連れて行かれてとまどってしまい何もできないのは安全くん2号と同じ状況です.

            フレーム問題は本質的に解決できませんが,人間は普段この問題に遭遇しません.ですので,人間と同様にあたかもフレーム問題を解決しているかのように,人工知能がふるまえるようにすることが研究の目標となります.」
            https://www.ai-gakkai.or.jp/whatsai/AItopics1.html [ai-gakkai.or.jp]
            だってさ。つまり解決してないが、それがそんなにバレない程度には振る舞えている。

            親コメント
        • ま,AIもちょっと肩の力抜けや,というか。
          間違いを許容させれば,10年ほどで,人間とさほど変わらなくなるような気がしますけどね。
          で,そもそも意思の疎通さえ図れれば,AIが人間と同じである必要はないですけどね。
          親コメント
          • by LoadFF (27414) on 2017年06月07日 19時00分 (#3223750)

            >間違いを許容させれば

            その許容範囲をどうとるかって部分でフレーム問題にぶち当たりますね。

            --
            如何なる内容であろうとACでの書き込みは一切無視します。
            親コメント
            • by ma_kon2 (9679) on 2017年06月07日 19時35分 (#3223783) 日記
              たぶん,そこの何でもかんでもフレーム問題にぶち当てちゃうことになるのが,
              今のAI研究の限界なんでしょうね。
              だから新井教授が言っていることも事実なんですよねえ。
              ただ,限界を認識したとしても,
              今の段階ではAIに曖昧さを求めるようなフェイズまで来てませんから
              今の研究を限界までがんばってもらうしかないんでしょうけど。
              親コメント
      • by Anonymous Coward on 2017年06月07日 19時40分 (#3223789)

        少なくとも人間なら間違いであるかどうか検討したり議論したりできる場合でも、現状の「AI」には
        それができない。人間が意味を理解しているとは必ずしも言えないかもしれないが、今のAIはそれよりも、
        より低いレベルでしか理解してないのは明らか。
        #ここで言ってるAIって、AlphaGoとかGoogle翻訳とかの、あのレベル前提だよな。
        #遠い未来だったり、宇宙人が作ったオーバーテクノロジーは含まない。
        #なぜか過大評価するデマニュースとかが多いんで、広まらないよう釘を刺したんだろう。

        >囲碁においては「盤面の意味を理解することは難しく、過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。
        そりゃ解答はできるさ。
        AlphaGoは盤面のどこかに石を置くようにプログラムされてるんだから。
        そういう意味ではN択の選択問題で、適当に丸を付けるだけの簡単なお仕事なんだから。
        そんなのは囲碁ド素人の俺にだって出来る。バカにだって出来る。
        解答するだけなら「人工知能」ではなく、「人工無能」の領域だ。

        問題は、その解答が知的で適切なものであるかどうかだ。
        たとえば有名なイセドルの第四戦では、適切な解答ができなかった。
        AlphaGoは、そのことに気付いてさえいなかったんじゃなかったっけ。
        #本当は正解と言いたい所だが、囲碁に「正解」はないから。

        親コメント
      • Alpha GO は、「19x19の盤面のどこに石を置くかを求めろ」というところまでは人間が指示を出しているし、「答えが正しいかどうかは評価関数で判定してる」わけで。

        > 「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」

        これに AlphaGO のアプローチを適用するならば、「どういう順番で豆が落ちるかを求めろ」というところまでは人間が指示を出したうえで、
        既存の「豆が落ちる順番を答える問題」について正当を学習させた上で、さらに、
        何万問もの「豆が落ちる順番を答える問題」を自動生成して、それを学習させる
        って方向になりますかね。

        それが出来れば、結構な精度で「豆が落ちる順番を正しく答える」こと出来るものになる気がしますが、
        そもそも、今の所は「模範解答込みな問題の自動生成」なんてまあ無理でしょうねぇ。

        親コメント
    • by Anonymous Coward on 2017年06月07日 19時33分 (#3223780)

      まあ知能の定義次第でどうとでも言えるよな。
      あえて言うなら今の人工知能は人間と比べて膨大なエネルギーと学習量を費やしているのに人間に追いつけない。
      要は方法がまずいんでしょうな。
      個人的にはナノマシンか何かで脳細胞をエミュレートできれば人間を超える知能を実現できると思っている。
      でもどうせそうして生まれた知能は自分が人間と違うことも理解できるだろうしあんなことやそんなこともできるだろう。
      要は人工知能モノのSFにありがちな問題が発生しうるってことだが。
      でも多分起きない。AIに良心や共感を植え付けられれば。でもSFだとそういう人間を超越した強いAiは動物に共感して人類滅亡を企てたり機会に共感して人類滅亡を企てたりするんだよな。それに人類のために虐殺を行う人間もいるし。

      親コメント
  • 科学者としてどーよ

    教育関係の講演みたいだから
    「コンピュータは人間を超えられません」
    ってのは受けは良いだろうけど…

    • 東大に合格っていったら、大多数の人間の知性を超えるということなわけで、楽観的なシンギュラリティ信者だって人工知能が人類を超えるのは2045年くらいだって言ってるにのそりゃ日本の小さなプロジェクトで2017年にできるわけないですわな
      そんな段階で「人工知能が人間の知能を超えることはない」とか言いきられてもねえ

      親コメント
  • by terra4 (46371) on 2017年06月07日 20時58分 (#3223843)
    とっくに人間を超えているけど、仕事が面倒だからわざと出来ないフリをしているんだよ!!
  • by NOBAX (21937) on 2017年06月08日 6時15分 (#3224019)
    コンピュータが発明されたときに、産業革命以来、人間の手や足の代わりになる機械は
    たくさん作られてきたが、やっと人間の頭脳に代わるものが出てきたという事で
    盛んに研究が行われた。
    初期はゲームを解かせることをやったがすぐに挫折。
    1980年代に、人間のすべての面をコンピュータが代替することは困難なので
    ある部分での代替を目指した。
    それがエキスパートシステム。
    しかし、未知なる事象に出会うとエキスパートシステムは問題を解決できない。
    ということで、ブームは下火に。
    未知なる事象に出会うと人間もその場で立ちすくんでしまうというのは同じだが、
    人間はそこから新しいルールを産み出し、対応できるになる。
    エキスパートシステムでは、それができなかった。
    で、今が第3期。
    演算能力とデータ処理能力が飛躍的に向上したので、ある部分では人間を明らかに凌駕
    するようなシステムが出現した。
    しかし、全ての面で人間を超えるようなAIは実現できるかというとそれは無理。
    感情や倫理、社会規範といった人間の成長過程で獲得する知識をAIが手に入れることは
    全く無理。
    「東大に合格する」という目標設定が最初から間違っていたと言うしかない。
  • by Anonymous Coward on 2017年06月07日 17時42分 (#3223697)

    超えたか超えていないの判断を人間がする限りは超えられない
    だって、人間を超えたという判断には人間の存在が必要だもの

  • by Anonymous Coward on 2017年06月07日 17時46分 (#3223699)

    自分ができないからといって,他人ができない理由にはならないかと

typodupeerror

私はプログラマです。1040 formに私の職業としてそう書いています -- Ken Thompson

読み込み中...