アカウント名:
パスワード:
HDDの場合、デフラグはHDD領域全体に連続的な負荷を要求するため、やり過ぎは寿命を縮めるということらしい。
そりゃ当然だろ。むしろ、大量にアクセスするが効率化された結果寿命が増える、とかの調査結果が出たならニュースバリューがあるが。
また、SSDの場合はフラッシュメモリの書き換え回数に制限があるため、やはりデフラグにより寿命が縮まる可能性があるらしい。
寿命が減るのはいちいち言われないとわからないのかよ!レベルの話として、いやそもそもSSDでデフラグって、なんか間違ってなくね?ディスクと違って順番に読み込む必要がないんだから、そもそもデフラグなんてほぼいらないような・・・
元記事を見ると
リンクスインターナショナルはHDD製品の取り扱いをしておらず、特定のHDDメーカーから特別な情報協力等は受けていない、同社独自の見解となります。
と書かれてて、元記事自体がエビデンスなしの一般論(HDD取り扱っていないPCパーツ代理店のお話)にすぎない様です。よく読むと「デフラグで寿命縮むかもしれません。でも一番影響するのは熱ですよ」と書かれています。
デフラグが必要かどうかはユースケースに大きく依存しますよね。空き容量が2割を切るような使い方をしていると断片化しやすいです。NTFSに代表されるような最近のファイルシステムはなるべく連続領域を割り当てるように設計されてますが、空き容量が少なくなるとそもそも空き連続領域が存在しない、なんてことになります。
確かに過度な断片化は性能に悪影響を及ぼしますが、そもそも多くのI/O単位はそんなに大きくないので数十MB以上に連続してファイルが配置されていることが重要だとは思いません。
Windows 8 では SSD にたいして「最適化」すると、TRIMを全空き領域に対して発行しますね。そもそも削除するときにTRIMしているような気がするんですが、これは効果あるんでしょうか。
と書かれてて、元記事自体がエビデンスなしの一般論(HDD取り扱っていないPCパーツ代理店のお話)にすぎない様です。
エビデンスについての記述が無いのは確かなんだけど、記事の引用部分はエビデンスの有無について言っているのではなく、ハードディスク製造者に有利な発言をしているわけではない、と言う主張なんだと思うけど。
デフラグが必要かどうかは<<略>>数十MB以上に連続してファイルが配置されていることが重要だとは思いません。
それってエビデンスは…
>でも一番影響するのは熱ですよもともと80GB/SATAしか無かったノートパソコンのHDDをホップステップジャンプで750GB/SATA2まで増量したらHDDが飛びまくる。保証期間なので返送して同じ物が送られてきてはまた飛ぶ。3回飛んだので「同等の別な製品に換えてくれ」とメールで送っても無視された。送られてきたものはファン付きの外付けケースにしなきゃ使えないのかなぁ。
アンペア数大丈夫?ノートPCの場合、電源設計がシビア過ぎて、安易にHDD載せ換えると、電流が足りなくて飛ぶよ。元々載っていたHDDの低格消費電流と比べてみては。
私の経験だと、一般に省電力と思いこまれているSSDだけど、最近の高速タイプは意外と電流食いで、古いノートPCに載らなかった事があるよ。
> NTFSに代表されるような最近のファイルシステムはなるべく連続領域を割り当てるように設計されてますが、
うちのVistaや7や8はそんな動きをしないけど。
最初にデフラグしてファイルをディスクの先頭に詰めておき、その中のファイルを削除して穴ができると、次に大きなファイルを書き込むときにはファイルの削除跡の小さな穴から埋めていくため、ほとんどの場合断片化するよ。
ちなみにディスクの使用量は30%以下ね。
# しょっちゅうDiskeeperやO&O defragでファイル配置を見ていると、# 広大な空き領域から使っていくことも確かにあるが、# NTFSが必ず連続領域を優先的に使うという感じは全くしない。
ファイルの種類で割り当て方を変えてるとかないのかな。シーケンシャルにしか利用しないファイルなら多少断片化してても問題なし、とか。ランダムアクセスするファイルなら(先読み分のキャッシュなどで)連続してる方が望ましい、とか。
ファイルシステムはそんな用途は分からないから無理なんじゃないかなー。
拡張子で判別とか、利用状況の統計とるとか。
大きなファイルを入れるドライブはクラスタサイズを大きく設定してますが、それでもディスクの断片化の影響は実感できますね。時々、他のドライブに移動する擬似的なデフラグ操作をしたりします。
>NTFSに代表されるような最近のファイルシステムはなるべく連続領域を>割り当てるように設計されてますが、空き容量が少なくなるとそもそも>空き連続領域が存在しない、なんてことになります。
XPですがエクスプローラーでファイルコピーするとおおむね連続領域にコピーされることに最近気が付きまして、(特に巨大ファイルを)あえてコピーして元ファイルを消すことでピンポイント簡易デフラグしています。(対象ファイルは勘で選ぶ、「分析」で確認しながら)でも通常の open()->write() でファイルを作るもの (たとえば zip.exe とか)は open() 時に最終ファイル長がわからないからなのか、ファイル長がでかくなると当然断片化するのです。
これは open() 時に長さをヒントとして与えられるようは特別な open() 相当のシステムコールがあるのか、エクスプローラーのファイルコピー機能の努力の結果なんでしょうか?
いや、もろに CopyFile http://msdn.microsoft.com/ja-jp/library/cc429185.aspx [microsoft.com] とか CopyFileEx http://msdn.microsoft.com/ja-jp/library/cc429187.aspx [microsoft.com] とかいうそのものずばりの API 関数があるのですが。
Cドライブが余りまくっていてもWindowsUpdateでボロボロになるのは最初に個々のファイルサイズが分からないということなのかな?
SetFilePointerとSetEndOfFileであらかじめファイルサイズを拡張しておくと連続領域を確保できるらしい
デフラグは寿命を縮める、熱はもっと縮めるってとっくの昔にGoogleが発表してましたよね?
あれって、ディスクの故障とデフラグの因果性を、ディスクをばらして故障原因まで突き止めたんだっけ?
# 個人的には、単なる経験則を発表しただけで、信用に値しないと考えている
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
にわかな奴ほど語りたがる -- あるハッカー
何をいまさら・・・ (スコア:1)
そりゃ当然だろ。むしろ、大量にアクセスするが効率化された結果寿命が増える、とかの調査結果が出たならニュースバリューがあるが。
寿命が減るのはいちいち言われないとわからないのかよ!レベルの話として、いやそもそもSSDでデフラグって、なんか間違ってなくね?ディスクと違って順番に読み込む必要がないんだから、そもそもデフラグなんてほぼいらないような・・・
Re:何をいまさら・・・ (スコア:2)
元記事を見ると
と書かれてて、元記事自体がエビデンスなしの一般論(HDD取り扱っていないPCパーツ代理店のお話)にすぎない様です。
よく読むと「デフラグで寿命縮むかもしれません。でも一番影響するのは熱ですよ」と書かれています。
デフラグが必要かどうかはユースケースに大きく依存しますよね。
空き容量が2割を切るような使い方をしていると断片化しやすいです。
NTFSに代表されるような最近のファイルシステムはなるべく連続領域を割り当てるように設計されてますが、
空き容量が少なくなるとそもそも空き連続領域が存在しない、なんてことになります。
確かに過度な断片化は性能に悪影響を及ぼしますが、そもそも多くのI/O単位はそんなに大きくないので
数十MB以上に連続してファイルが配置されていることが重要だとは思いません。
Windows 8 では SSD にたいして「最適化」すると、TRIMを全空き領域に対して発行しますね。
そもそも削除するときにTRIMしているような気がするんですが、これは効果あるんでしょうか。
Re:何をいまさら・・・ (スコア:2)
リンクスインターナショナルはHDD製品の取り扱いをしておらず、特定のHDDメーカーから特別な情報協力等は受けていない、同社独自の見解となります。
と書かれてて、元記事自体がエビデンスなしの一般論(HDD取り扱っていないPCパーツ代理店のお話)にすぎない様です。
エビデンスについての記述が無いのは確かなんだけど、記事の引用部分はエビデンスの有無について言っているのではなく、ハードディスク製造者に有利な発言をしているわけではない、と言う主張なんだと思うけど。
デフラグが必要かどうかは
<<略>>
数十MB以上に連続してファイルが配置されていることが重要だとは思いません。
それってエビデンスは…
Re:何をいまさら・・・ (スコア:1)
>でも一番影響するのは熱ですよ
もともと80GB/SATAしか無かったノートパソコンのHDDをホップステップジャンプで750GB/SATA2まで増量したらHDDが飛びまくる。
保証期間なので返送して同じ物が送られてきてはまた飛ぶ。
3回飛んだので「同等の別な製品に換えてくれ」とメールで送っても無視された。
送られてきたものはファン付きの外付けケースにしなきゃ使えないのかなぁ。
Re:何をいまさら・・・ (スコア:2, 興味深い)
アンペア数大丈夫?
ノートPCの場合、電源設計がシビア過ぎて、安易にHDD載せ換えると、電流が足りなくて飛ぶよ。
元々載っていたHDDの低格消費電流と比べてみては。
私の経験だと、一般に省電力と思いこまれているSSDだけど、最近の高速タイプは意外と電流食いで、古いノートPCに載らなかった事があるよ。
Re: (スコア:0)
Re: (スコア:0)
> NTFSに代表されるような最近のファイルシステムはなるべく連続領域を割り当てるように設計されてますが、
うちのVistaや7や8はそんな動きをしないけど。
最初にデフラグしてファイルをディスクの先頭に詰めておき、
その中のファイルを削除して穴ができると、次に大きなファイルを
書き込むときにはファイルの削除跡の小さな穴から埋めていくため、
ほとんどの場合断片化するよ。
ちなみにディスクの使用量は30%以下ね。
# しょっちゅうDiskeeperやO&O defragでファイル配置を見ていると、
# 広大な空き領域から使っていくことも確かにあるが、
# NTFSが必ず連続領域を優先的に使うという感じは全くしない。
Re: (スコア:0)
ファイルの種類で割り当て方を変えてるとかないのかな。
シーケンシャルにしか利用しないファイルなら多少断片化してても問題なし、とか。
ランダムアクセスするファイルなら(先読み分のキャッシュなどで)連続してる方が望ましい、とか。
Re: (スコア:0)
ファイルシステムはそんな用途は分からないから無理なんじゃないかなー。
Re: (スコア:0)
拡張子で判別とか、利用状況の統計とるとか。
Re: (スコア:0)
大きなファイルを入れるドライブはクラスタサイズを大きく設定してますが、それでもディスクの断片化の影響は実感できますね。
時々、他のドライブに移動する擬似的なデフラグ操作をしたりします。
Re: (スコア:0)
>NTFSに代表されるような最近のファイルシステムはなるべく連続領域を
>割り当てるように設計されてますが、空き容量が少なくなるとそもそも
>空き連続領域が存在しない、なんてことになります。
XPですがエクスプローラーでファイルコピーするとおおむね連続領域にコピーされる
ことに最近気が付きまして、(特に巨大ファイルを)あえてコピーして元ファイルを消すことで
ピンポイント簡易デフラグしています。(対象ファイルは勘で選ぶ、「分析」で確認しながら)
でも通常の open()->write() でファイルを作るもの (たとえば zip.exe とか)は open() 時に
最終ファイル長がわからないからなのか、ファイル長がでかくなると当然断片化するのです。
これは open() 時に長さをヒントとして与えられるようは特別な open() 相当のシステム
コールがあるのか、エクスプローラーのファイルコピー機能の努力の結果なんでしょうか?
Re:何をいまさら・・・ (スコア:1)
いや、もろに CopyFile http://msdn.microsoft.com/ja-jp/library/cc429185.aspx [microsoft.com] とか CopyFileEx http://msdn.microsoft.com/ja-jp/library/cc429187.aspx [microsoft.com] とかいうそのものずばりの API 関数があるのですが。
Re: (スコア:0)
Cドライブが余りまくっていてもWindowsUpdateでボロボロになるのは
最初に個々のファイルサイズが分からないということなのかな?
Re: (スコア:0)
Re: (スコア:0)
SetFilePointerとSetEndOfFileであらかじめファイルサイズを拡張しておくと連続領域を確保できるらしい
Re: (スコア:0)
デフラグは寿命を縮める、熱はもっと縮めるってとっくの昔にGoogleが発表してましたよね?
Re: (スコア:0)
あれって、ディスクの故障とデフラグの因果性を、ディスクをばらして故障原因まで突き止めたんだっけ?
# 個人的には、単なる経験則を発表しただけで、信用に値しないと考えている