パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

8段のプロ囲碁棋士がコンピュータに破れる(ただし9子のハンデつき)」記事へのコメント

  • by Anonymous Coward
    >まるで機械のようだった
    このコメントに吹いたのはおれだけではないはず
    • >勝ちを最大化しようとはせず、勝つ可能性が一番高い動きを取り続けた。
      これはまさにミニマックス法 [wikipedia.org]を使ったときの動作ですね。
      もし棋士が、もともとこういったアルゴリズムを知っているとかでなく
      戦っていてそんな気がしたなら、分かっておられる方だなぁ、と。
      --
      1を聞いて0を知れ!
      親コメント
      • by AnomalousCoward (32957) on 2008年08月10日 13時06分 (#1400481) 日記
        MoGoはモンテカルロ法だって思いっきりストーリの中に書いてあるだろ・・・
        >ソフトウェアはモンテ・カルロ法を活用したMoGoとのこと。

        そもそも、「勝つ可能性が一番高い動きを取り続けた⇒ミニマックス法」
        の意味が「全く」わからない。目数差の最大化じゃなくて、勝率の最大化って
        それむしろモンテカルロ木探索の特徴じゃん。

        そして、コンピューター側の構成を
        >800コア、4.7GhzのCPUを搭載し、15TeraFlopsの演算能力を持つスパコン
        こうしている時点で、まず探索系は無いって解るでしょ。
        クラスタコンピューター上でαβ探索を強くするのは未だに研究途中で、
        今のところ通信周りの遅さに足が引っ張られていて、普通に作るとシングルノードよりも遅い。
        モンテカルロ法はランダムシミュレーションなので、クラスタ上で
        好きなだけプレイアウトを増やせるってのが強さの一因なんすよ。(MoGoはUCTなので多少複雑だが)

        俺はあなたが何でMoGoがミニマックスだと思ってしまったのか、そこが知りたい。
        MoGoって名前からしてMontecarlo Goだろ常考っていう。

        参考資料
        エンターテイメントと認知科学ステーション [uec.ac.jp]
        モンテカルロ碁の説明 [uec.ac.jp]
        --
        ごめんなさい。
        親コメント
        • クラスタコンピューター上でαβ探索を強くするのは未だに研究途中で、 今のところ通信周りの遅さに足が引っ張られていて、普通に作るとシングルノードよりも遅い。

          並列アルファベータ探索は、Deep Blueが512個のLSIを使って行っています。その後もPC向けコンピュータチェスのCrafty [craftychess.com]などで効率化が進歩し、アーキテクチャの上でDeep Blueの後継といえるHydra [wikipedia.org]も並列です。今や世界コンピュータ将棋選手権 [computer-shogi.org]の上位クラスも軒並み並列化されており、Bonanza [geocities.jp]は毎秒400万局面の探索速度で昨年、渡辺竜王 [goo.ne.jp]と記念対局 [weblogs.jp]に臨みました。ですから、並列アルファベータ探索がシングルノードより遅いということはさすがにありません。

          もっとも、アルファベータ探索の並列化が困難であることは確かで、Deep BlueやHydraのような特別なハードウェアを用いない超並列クラスタで並列実行する価値は薄いかもしれません。アルファベータ探索は、原理上、たとえ通信遅延がゼロであってもCPUノード数に比例した探索量を達成することは不可能です。ですから、シングルノードに比べて著しく効率が落ちる、ということはいえます。それに比べればモンテカルロ木探索が並列化しやすいのは間違いありません。

          なおHydraのサイトは現在、GoogleやFirefoxから警告を受けるようになってしまっているため、とりあえずリンクはWikipediaに張っています。

          親コメント
        • by Anonymous Coward
          プレイヤーの損失を
          ・負けたときは目数に関係なく一定で(>0)、勝ったときは0
          だと仮定すると、勝率の最大化はゲーム理論における「ミニマックス戦略」にはなりますね。
          「ミニマックス法」ではないですが。
          • by Anonymous Coward
            Max だけあって,Min がないように見えますが...
      • by usata (21728) on 2008年08月10日 11時55分 (#1400453)
        http://minerva.cs.uec.ac.jp/~ito/entcog/contents/lecture/date/5-yoshizoe.pdf [uec.ac.jp] にもありますが、勝ちを最大化する(できるだけ多い目を取ろうとする)のではなく勝つ可能性を最大化する(1目でもいいからとにかく勝とうとする)ようにしてから飛躍的に強くなったみたいですね>コンピュータ囲碁 このあたりはここ数年のコンピュータ囲碁の動きだそうで、それ知らずにこういう経験的な感想が出てきたのだとしたら興味深いです。
        親コメント
      • by Anonymous Coward on 2008年08月10日 17時45分 (#1400580)
        MoGoの基本アルゴリズムであるUCTは、モンテカルロ法をゲーム木(ミニマックス木)
        に適用したアルゴリズムですからミニマックス探索を行っていると見ても
        あながち間違っていないですね。
        ただ、モンテカルロ法でのゲームはホントに勝ちにだけこだわるので、
        きわどい競り合いの場面では異様な強さを発揮します。
        また、勝ちにだけこだわるので大局観や基本戦略がなく、序盤など人間なら戦略をあれこれ
        考える場面でも場当たり的な手(弱い手ではないが、一貫性が無いなど)を使います。
        そのあたりが、(今までのミニマックス探索プログラムに比べて)機械のようだと感じる
        原因かと思います。

        ただ、人間と互角に渡り合うとなると、もう1、2回革命的変化が無いと難しいでしょう。
        親コメント
      • by Anonymous Coward
        可能性を最大化するのはMinMaxではなくMaxMinでは?
        ミニマックス(MinMax)だと最小化しちゃいますから。

身近な人の偉大さは半減する -- あるアレゲ人

処理中...