パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

データをすべてファイル名扱いにして高速検索を実現?」記事へのコメント

  • by Anonymous Coward
    データコンテンツの大きさが分からんと具体的な数字は
    吟味できないとは思うのでうが、110万レコードの全体検索で
      1秒っていうのは、高性能なの?
      (1usec/record)
    それともいまどきあたりまえ?
    • by Anonymous Coward on 2008年01月22日 1時18分 (#1284347)
      1レコード100byteで100byteまるまる比較として考えると100万レコードの
      照合は100MB/sなんでディスクのシリアルアクセス速度に近い。というわけで
      レコードサイズとか照合方法は知らんけどリニアスキャンなら早い。

      でも、インデックス使うのなら(普通のDB)別に普通の速度。

      今回のはインデックスというより検索キーが確定すると即アドレス(パス)が
      取れるという構成らしいので、そもそもスキャンという処理はないんじゃ?
      単にパス辿る時のエントリルックアップ時間だけだろう。
      親コメント
      • by Anonymous Coward
        どうせ速いといっても、Windowsが用意しているバッファに収まるまで。
        バッファが足りなくなったら途端にディスクアクセスを始めて、
        予測を上回る速度で遅くなっていくのではないかな。

        さらに、OS任せの部分が速度の要だから、速度に対してチューニングの
        余地もないだろうし。

        メインメモリを増やせばバッファも増えるだろうけど、効果が分かりにくいよね。

アレゲは一日にしてならず -- アレゲ見習い

処理中...