アカウント名:
パスワード:
先週は「これまで人間は囲碁というゲームを本当には理解していなかった」ということがわかった週でした。
AlphaGoの手のいくつかを「悪手」「疑問手」と解説のプロ棋士は判断しましたが数手後にはその評価は「あの選択もまあアリ」さらに十手後には「今にして思えば絶妙な手」と判断が変わっていきました。
これってまさに「水平線効果」じゃないですか。コンピュータではなく人間側の。
水平線効果(すいへいせんこうか)は探索アルゴリズムの深度を有限とした場合、それ以降の経路をあたかも水平線の向こうのように考慮しないため、長期的に見て問題のある選択をしてしまう人工知能における問題である。通常多くのゲームにおいて、可能な状態あるいは配置の数は莫大であり、コンピュータはそのごく一部(大抵ゲーム木の数層下)しか探索することができない。(wikipediaより)
打つべき手が「A」「B」があった場合、どちらが得か人間にはわからないので「短い局面では有効な手であるA」「将来的に局面がどう転んでも対応しやすい手A」を「善手」としているわけですが、AlphaGoはその後の数十手後までの展開を読んでいるので「短い局面では損」「将来的に致命的な悪手になりかねない手」であるBでも平気で打ってくるわけです。Bが致命的な悪手になる展開にはならない、と読めているので。
今はコレは囲碁なので、数時間後には結果がわかるから問題はないのですがたとえば人工知能による都市計画(Googleは実際にやろうとしてます)とか、あるいは人工知能による政治なんかだと「人間にはそれが最善の判断とは思えないが人工知能が最善だと判断している選択」なんてのが将来的にはありえるわけで。その場合人間はどう見ても不合理な(人間の目からそう見える)人工知能の判断に乗ることができるのでしょうか。
その理屈では、不利に転じたらグダグダになってしまった第四局を説明できない。
この第五局も定石(理詰めで分かる法則)が分からずに地を取られる場面もあった。モンテカルロ法で求める解と、論理的に求める解には隔たりがあるようだ。これはGoogleの自動運転カーの詰まらない事故みたいものが起きる可能性を示している。
そして、全般に見て、勝負は成立していた。囲碁というのは棋力に差があればボロボロにされてしまうものだが、そこまでの差は無い。演算力はいくらでもぶちこめるにも関らずそうなのだから、AIの導く答えの正しさについても疑問が生ずる。つまり、力技で従来のAIより強くはなったが、これ以上の発展が出来ない可能性がある。
今答えを出すべきではないし、その必要も無い。数年先に人間の名人が4子程度置いてあっさり負ける強さになっていたら、このアプローチは正しいのだろうけど。
つまり、力技で従来のAIより強くはなったが、これ以上の発展が出来ない可能性がある。
まあディープラーニングでその可能性は非常に低いと思うが…
ディープラーニングは幾つもの手筋から「正しそうな」手を見つけるのに使っているのだろうが、石塔絞りの所では「正しい」手がGoogle八分され、「正しそうな」手が選択されてしまった。
これは対象を様々なレベルの要素に分解して、それらを総合して判断するという性質によるものではないかと言う気がする。
もしそうなら、これを是正しようとすると、ディープラーニングの上位に定石のAIを置くことになり、判断が硬直化する。要は戦う時はそいつを引っ掛ければいいのであって、つまり完成度を上げるほど弱くなっていく可能性すら出てくるような。
リアルで言うと将来AIの兵隊がゲリラでなくゲリラっぽい人を撃つかもしれないみたいな話か。
私はそうは思いませんでした。判断の省略によるもののように思います。4局についてもそう。計算し検討されたものの中で一番勝率の高いものを選ぶわけですが、その検討の中に入ってこなかったということかと。これが、制限時間が増えたり計算速度が上がってくれば克服される問題のように思いました。人と対局しなくても、自分との対局を重ねていくことでもいずれ石塔絞りを見つけていたと思うので、学習がまだ足りなかったとも思いますが。
>まあディープラーニングでその可能性は非常に低いと思うが…
ディープラーニングの性能って明らかになってたっけ?90年代のニューラルネットのブームでは「思ったほど性能が出ない」ということがはっきりして勢いが下がっていったんだよね。「(分類に用いるとすると)線形な統計的手法を用いて得られる結果と同等程度」だったはず。
(まだ明らかになってないかもしれないが)ディープラーニングにもそれに類する話がなきゃおかしい。
第一局では、最初は「これは疑問手です」と言われた手が好手だったのですよね。第四局は結果的に負けたからあとから評価を変える必要がなかっただけの話で、第一局のときと同じように人間が意味を理解できていないということでは。
この第五局も定石(理詰めで分かる法則)が分からずに地を取られる場面もあった。
日本語の解説では「軽いので捨ててもいいところ」と言っていました。その後の大ポカはともかく。
今答えを出すべきではないし、その必要も無い。数
> 先週は「これまで人間は囲碁というゲームを本当には理解していなかった」ということがわかった週でした。この「わかった」、が重要なんじゃないですかね。
実績を積めば人工知能のプランにも乗ると思う。が、実績を積ませるためには人間がギリギリ理解できるところからじゃないと始められないかも知れません。
その場合人間はどう見ても不合理な(人間の目からそう見える)人工知能の判断に乗ることができるのでしょうか。
最終的には人工知能の指示に従って核を撃ち合って人類滅亡するんですよね、わかります
「問題ありません、市民。アルファコンプレックスは安全です。」
それ人工知能の判断だからどうってわけでもなく、人間の判断に乗るかどうかですら起こってる問題じゃんw対戦相手が人間だったとしても解説者は悪手と実況しただろ。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
あと、僕は馬鹿なことをするのは嫌いですよ (わざとやるとき以外は)。-- Larry Wall
AlphaGo、第5戦にも勝利。4-1でイ・セドルに勝ち越し (スコア:5, 興味深い)
先週は「これまで人間は囲碁というゲームを本当には理解していなかった」ということがわかった週でした。
AlphaGoの手のいくつかを「悪手」「疑問手」と解説のプロ棋士は判断しましたが数手後にはその評価は「あの選択もまあアリ」さらに十手後には「今にして思えば絶妙な手」と判断が変わっていきました。
これってまさに「水平線効果」じゃないですか。コンピュータではなく人間側の。
水平線効果(すいへいせんこうか)は探索アルゴリズムの深度を有限とした場合、それ以降の経路をあたかも水平線の向こうのように考慮しないため、長期的に見て問題のある選択をしてしまう人工知能における問題である。通常多くのゲームにおいて、可能な状態あるいは配置の数は莫大であり、コンピュータはそのごく一部(大抵ゲーム木の数層下)しか探索することができない。(wikipediaより)
打つべき手が「A」「B」があった場合、どちらが得か人間にはわからないので「短い局面では有効な手であるA」「将来的に局面がどう転んでも対応しやすい手A」を「善手」としているわけですが、AlphaGoはその後の数十手後までの展開を読んでいるので「短い局面では損」「将来的に致命的な悪手になりかねない手」であるBでも平気で打ってくるわけです。Bが致命的な悪手になる展開にはならない、と読めているので。
今はコレは囲碁なので、数時間後には結果がわかるから問題はないのですがたとえば人工知能による都市計画(Googleは実際にやろうとしてます)とか、あるいは人工知能による政治なんかだと「人間にはそれが最善の判断とは思えないが人工知能が最善だと判断している選択」なんてのが将来的にはありえるわけで。
その場合人間はどう見ても不合理な(人間の目からそう見える)人工知能の判断に乗ることができるのでしょうか。
Re:AlphaGo、第5戦にも勝利。4-1でイ・セドルに勝ち越し (スコア:2, 興味深い)
その理屈では、不利に転じたらグダグダになってしまった第四局を説明できない。
この第五局も定石(理詰めで分かる法則)が分からずに地を取られる場面もあった。
モンテカルロ法で求める解と、論理的に求める解には隔たりがあるようだ。
これはGoogleの自動運転カーの詰まらない事故みたいものが起きる可能性を示している。
そして、全般に見て、勝負は成立していた。
囲碁というのは棋力に差があればボロボロにされてしまうものだが、そこまでの差は無い。
演算力はいくらでもぶちこめるにも関らずそうなのだから、AIの導く答えの正しさについても疑問が生ずる。
つまり、力技で従来のAIより強くはなったが、これ以上の発展が出来ない可能性がある。
今答えを出すべきではないし、その必要も無い。
数年先に人間の名人が4子程度置いてあっさり負ける強さになっていたら、このアプローチは正しいのだろうけど。
Re: (スコア:0)
つまり、力技で従来のAIより強くはなったが、これ以上の発展が出来ない可能性がある。
まあディープラーニングでその可能性は非常に低いと思うが…
Re: (スコア:0)
ディープラーニングは幾つもの手筋から「正しそうな」手を見つけるのに使っているのだろうが、
石塔絞りの所では「正しい」手がGoogle八分され、「正しそうな」手が選択されてしまった。
これは対象を様々なレベルの要素に分解して、
それらを総合して判断するという性質によるものではないかと言う気がする。
もしそうなら、これを是正しようとすると、ディープラーニングの上位に定石のAIを置くことになり、判断が硬直化する。
要は戦う時はそいつを引っ掛ければいいのであって、つまり完成度を上げるほど弱くなっていく可能性すら出てくるような。
リアルで言うと将来AIの兵隊がゲリラでなくゲリラっぽい人を撃つかもしれないみたいな話か。
Re:AlphaGo、第5戦にも勝利。4-1でイ・セドルに勝ち越し (スコア:1)
私はそうは思いませんでした。判断の省略によるもののように思います。4局についてもそう。計算し検討されたものの中で一番勝率の高いものを選ぶわけですが、その検討の中に入ってこなかったということかと。これが、制限時間が増えたり計算速度が上がってくれば克服される問題のように思いました。人と対局しなくても、自分との対局を重ねていくことでもいずれ石塔絞りを見つけていたと思うので、学習がまだ足りなかったとも思いますが。
LIVE-GON(リベゴン)
Re: (スコア:0)
>まあディープラーニングでその可能性は非常に低いと思うが…
ディープラーニングの性能って明らかになってたっけ?
90年代のニューラルネットのブームでは「思ったほど性能が出ない」
ということがはっきりして勢いが下がっていったんだよね。
「(分類に用いるとすると)線形な統計的手法を用いて得られる結果と
同等程度」だったはず。
(まだ明らかになってないかもしれないが)
ディープラーニングにもそれに類する話がなきゃおかしい。
Re: (スコア:0)
Re: (スコア:0)
第一局では、最初は「これは疑問手です」と言われた手が好手だったのですよね。第四局は結果的に負けたからあとから評価を変える必要がなかっただけの話で、第一局のときと同じように人間が意味を理解できていないということでは。
Re: (スコア:0)
この第五局も定石(理詰めで分かる法則)が分からずに地を取られる場面もあった。
日本語の解説では「軽いので捨ててもいいところ」と言っていました。
その後の大ポカはともかく。
そして、全般に見て、勝負は成立していた。
囲碁というのは棋力に差があればボロボロにされてしまうものだが、そこまでの差は無い。
演算力はいくらでもぶちこめるにも関らずそうなのだから、AIの導く答えの正しさについても疑問が生ずる。
つまり、力技で従来のAIより強くはなったが、これ以上の発展が出来ない可能性がある。
今答えを出すべきではないし、その必要も無い。
数
Re:AlphaGo、第5戦にも勝利。4-1でイ・セドルに勝ち越し (スコア:2, 参考になる)
> 先週は「これまで人間は囲碁というゲームを本当には理解していなかった」ということがわかった週でした。
この「わかった」、が重要なんじゃないですかね。
実績を積めば人工知能のプランにも乗ると思う。
が、実績を積ませるためには人間がギリギリ理解できるところからじゃないと始められないかも知れません。
Re:AlphaGo、第5戦にも勝利。4-1でイ・セドルに勝ち越し (スコア:1)
その場合人間はどう見ても不合理な(人間の目からそう見える)人工知能の判断に乗ることができるのでしょうか。
最終的には人工知能の指示に従って核を撃ち合って人類滅亡するんですよね、わかります
Re:AlphaGo、第5戦にも勝利。4-1でイ・セドルに勝ち越し (スコア:1)
「問題ありません、市民。アルファコンプレックスは安全です。」
RYZEN始めました
Re: (スコア:0)
それ人工知能の判断だからどうってわけでもなく、人間の判断に乗るかどうかですら起こってる問題じゃんw
対戦相手が人間だったとしても解説者は悪手と実況しただろ。