パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

Google Programming Contest開催」記事へのコメント

    • 文字コード単位でのエントロピを計算する

      昔Brownが計算したのだと文字単位で4bit弱だったかなぁ... 少なくともgoogleが持っているページはBrown Corpusよりも大きいだろうから、うまくやれば厳密な計算ができるかな?

    • 単語について
    • 互いのリンク構造を可視化してみたいなぁ。
      Googleの持ってるデータすべてに対してやって、この前話題になった3次元マップとか作ってみたり。
      • 元3次元マップ利用者ですが、経験上3次元マップが快適なのは要素数がある一定範囲内に収まっているときです。3次元マップにおいては、
        • 3次元空間の広さは扱う話題 (概念) の幅による
        • 密度は要素数による
        • 要素間距離は関連性 (リンク) による
        のですが、20億ページとなると広さと密度のバランスが取りにくいでしょう。そこで、解像度に応じてGoogle Rankでフィルターをかけるのがいいかと。マクロを見回すときはランクの高いものだけを表示し、ミクロに観察するときはランクの低いものも表示する、という具合に。
        3D処理はクライアント側になりますから、GoogleはMCFを吐き出すだけでよく、検索結果をHTMLで吐き出すのと大差なく実現できそうですね。あとはMCFを随時必要な分送信する仕組みさえあれば……MCFストリーミング?
        親コメント

あと、僕は馬鹿なことをするのは嫌いですよ (わざとやるとき以外は)。-- Larry Wall

処理中...