アカウント名:
パスワード:
昔Brownが計算したのだと文字単位で4bit弱だったかなぁ... 少なくともgoogleが持っているページはBrown Corpusよりも大きいだろうから、うまくやれば厳密な計算ができるかな?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
あと、僕は馬鹿なことをするのは嫌いですよ (わざとやるとき以外は)。-- Larry Wall
誰かやりそうなこと (スコア:2, 興味深い)
昔Brownが計算したのだと文字単位で4bit弱だったかなぁ... 少なくともgoogleが持っているページはBrown Corpusよりも大きいだろうから、うまくやれば厳密な計算ができるかな?
Re:誰かやりそうなこと (スコア:1)
Googleの持ってるデータすべてに対してやって、この前話題になった3次元マップとか作ってみたり。
Re:誰かやりそうなこと (スコア:1)
- 3次元空間の広さは扱う話題 (概念) の幅による
- 密度は要素数による
- 要素間距離は関連性 (リンク) による
のですが、20億ページとなると広さと密度のバランスが取りにくいでしょう。そこで、解像度に応じてGoogle Rankでフィルターをかけるのがいいかと。マクロを見回すときはランクの高いものだけを表示し、ミクロに観察するときはランクの低いものも表示する、という具合に。3D処理はクライアント側になりますから、GoogleはMCFを吐き出すだけでよく、検索結果をHTMLで吐き出すのと大差なく実現できそうですね。あとはMCFを随時必要な分送信する仕組みさえあれば……MCFストリーミング?