アカウント名:
パスワード:
Scan時の圧縮アルゴリズムは圧縮率に関わらず同じだけの処理速度がかかる
のではなく、「圧縮率が高い(小さいファイルが作られる)時ほど速い」はずです。たくさんデータを作らないといけないので…
具体的にはたくさんハフマンコードを作ってビット列をバイト列にパッキングする部分が辛いです。超ざっくりで1バイトのJPEGデータを作るのにかかる時間は10~50CPUサイクルなので、 50MBのファイルサイズ違いがあると0.5~2.5Gcycleぐらいかかります。つまり3GHzのCPUで0.5秒とか1秒行くかどうかぐらい。
いまどきのHDDで50MBぐらい書き出すのはファイルシステムの影響を考慮しても2,3秒程度と思いますが、これと比べて無視できるほど小さい時間じゃないかと思われます。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
最初のバージョンは常に打ち捨てられる。
圧縮にかかる時間 (スコア:2)
のではなく、「圧縮率が高い(小さいファイルが作られる)時ほど速い」はずです。たくさんデータを作らないといけないので…
具体的にはたくさんハフマンコードを作ってビット列をバイト列にパッキングする部分が辛いです。超ざっくりで1バイトのJPEGデータを作るのにかかる時間は10~50CPUサイクルなので、 50MBのファイルサイズ違いがあると0.5~2.5Gcycleぐらいかかります。つまり3GHzのCPUで0.5秒とか1秒行くかどうかぐらい。
いまどきのHDDで50MBぐらい書き出すのはファイルシステムの影響を考慮しても2,3秒程度と思いますが、これと比べて無視できるほど小さい時間じゃないかと思われます。
-- Takehiro TOMINAGA // may the source be with you!