アカウント名:
パスワード:
「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」といったな問題に解答することが現時点では難しいという意味だろうけど。囲碁においては「盤面の意味を理解することは難しく、過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。
いわゆる人工知能の「フレーム問題」という奴ですね。囲碁や将棋がブレイクスルーできたのは、単に有限・完全情報ゲームだったからですね。ポーカーや人狼のような不完全情報ゲームですら、まだまだこれからの研究課題になってるレベルですからね。東大の試験なんか、いわんやですね。
>間違いを許容させれば
その許容範囲をどうとるかって部分でフレーム問題にぶち当たりますね。
フレーム問題が解決した状態ってのはなるべく幅広い任意の入力に対して飽和しない高次の配列を返すモデルがある状態だろ。今のAI研究は入力と出力次元が一致するか小さくなるものがほとんどだ。つまりむしろ意味を丸めて落として曖昧にしている。的外れだと思うな。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲは一日にしてならず -- アレゲ研究家
クオリア論の延長? (スコア:2)
そもそも人間自身「自然言語の意味を理解」していると言えるだろうか?
哲学的ゾンビは本当に哲学的ゾンビなんだろうか?
Re: (スコア:1)
「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」といったな問題に解答することが現時点では難しいという意味だろうけど。
囲碁においては「盤面の意味を理解することは難しく、過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。
Re: (スコア:1)
いわゆる人工知能の「フレーム問題」という奴ですね。囲碁や将棋がブレイクスルーできたのは、単に有限・完全情報ゲームだったからですね。
ポーカーや人狼のような不完全情報ゲームですら、まだまだこれからの研究課題になってるレベルですからね。東大の試験なんか、いわんやですね。
Re: (スコア:2)
間違いを許容させれば,10年ほどで,人間とさほど変わらなくなるような気がしますけどね。
で,そもそも意思の疎通さえ図れれば,AIが人間と同じである必要はないですけどね。
Re:クオリア論の延長? (スコア:2)
>間違いを許容させれば
その許容範囲をどうとるかって部分でフレーム問題にぶち当たりますね。
如何なる内容であろうとACでの書き込みは一切無視します。
Re:クオリア論の延長? (スコア:4, 参考になる)
今のAI研究の限界なんでしょうね。
だから新井教授が言っていることも事実なんですよねえ。
ただ,限界を認識したとしても,
今の段階ではAIに曖昧さを求めるようなフェイズまで来てませんから
今の研究を限界までがんばってもらうしかないんでしょうけど。
Re: (スコア:0)
フレーム問題が解決した状態ってのはなるべく幅広い任意の入力に対して飽和しない高次の配列を返すモデルがある状態だろ。
今のAI研究は入力と出力次元が一致するか小さくなるものがほとんどだ。つまりむしろ意味を丸めて落として曖昧にしている。的外れだと思うな。