アカウント名:
パスワード:
HDDの場合、デフラグはHDD領域全体に連続的な負荷を要求するため、やり過ぎは寿命を縮めるということらしい。
そりゃ当然だろ。むしろ、大量にアクセスするが効率化された結果寿命が増える、とかの調査結果が出たならニュースバリューがあるが。
また、SSDの場合はフラッシュメモリの書き換え回数に制限があるため、やはりデフラグにより寿命が縮まる可能性があるらしい。
寿命が減るのはいちいち言われないとわからないのかよ!レベルの話として、いやそもそもSSDでデフラグって、なんか間違ってなくね?ディスクと違って順番に読み込む必要がないんだから、そもそもデフラグなんてほぼいらないような・・・
フラッシュメモリデバイスの場合は,極端に寿命が縮まるから デフラグしちゃダメよ! というのが一般論だと思ってたんですが,違うんですかね?:SSDだと,効果がない じゃなくて,むしろ害悪 じゃないかと.USBメモリなんかに デフラグかけちゃダメ,と言われてたのと同じで.
ウェアレベリングで 書き込みが極端に集中してバカになる箇所が出ないよう 大体平滑化してるのに,わざわざデフラグで偏らせるなんて!って理解してました.
ファイルシステムのメタデータは、デフラグする方が好ましい。これは、メタデータ自身がキャッシュされるんで、カーネルの消費メモリ削減になって、システム全体が若干高速になるから。
あと、SSDなら、ブロック範囲に収まるデータは、一ブロックに集約するのが良いが、それ以前に、良く書き換えるファイルと書き換えないファイルを同一ブロックに入れない様にする事が肝要。
でも、SSD内の論理-物理変換方式は、各社研究中の流動的且つ重要な機密情報なんで、サードパーティーツールで最適化する事は実質不可能。
でも、断片化してるとメタデータが増えているのは確実だから、SSDでもデフラグは無意味じゃない。如何に優秀な方式でも、余分なデータが無い方が確実に効率を上げられるからね。
ただ、SSDの場合は、頻度と積極性は下げる方が良い。つまり、極端にフラグメントが進んでる場所だけを必要最小限の移動でデフラグする方式がベストになる。具体的には、解析にやや時間が掛かるが、実行自体は瞬時に終わる物が良いって事になる。
ところで、ちょっと疑問なのですが。SSDで、ファイルの領域が連続しているとデフラグソフトで表示されていたときでも、内部のメモリのアドレスとして必ずしも連続していないのでは?メモリの使用頻度の平準化とか不具合部分の回避とかするんですよねぇ?ちがうの?
SSD内の論理-物理変換に粒度の制限がある。
ぶっちゃけ、セクタ単位での個別物理変換テーブルなんて持たせたら、容量の無駄遣い。更に、論物変換データ自体もフラッシュに格納される事を忘れない様に。
論理-物理変換の変更量が増えると、やはり寿命を縮める事になる。なので、論理側で不変領域を一箇所に集中させる(変動領域を一箇所に集中させるのと等価)と、論物変換の管理領域の更新量が減って、性能と寿命が両方向上する訳。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
UNIXはただ死んだだけでなく、本当にひどい臭いを放ち始めている -- あるソフトウェアエンジニア
何をいまさら・・・ (スコア:1)
そりゃ当然だろ。むしろ、大量にアクセスするが効率化された結果寿命が増える、とかの調査結果が出たならニュースバリューがあるが。
寿命が減るのはいちいち言われないとわからないのかよ!レベルの話として、いやそもそもSSDでデフラグって、なんか間違ってなくね?ディスクと違って順番に読み込む必要がないんだから、そもそもデフラグなんてほぼいらないような・・・
Re: (スコア:1)
寿命が減るのはいちいち言われないとわからないのかよ!レベルの話として、いやそもそもSSDでデフラグって、なんか間違ってなくね?ディスクと違って順番に読み込む必要がないんだから、そもそもデフラグなんてほぼいらないような・・・
フラッシュメモリデバイスの場合は,極端に寿命が縮まるから デフラグしちゃダメよ! というのが一般論だと思ってたんですが,違うんですかね?:
SSDだと,効果がない じゃなくて,むしろ害悪 じゃないかと.
USBメモリなんかに デフラグかけちゃダメ,と言われてたのと同じで.
ウェアレベリングで 書き込みが極端に集中してバカになる箇所が出ないよう 大体平滑化してるのに,わざわざデフラグで偏らせるなんて!
って理解してました.
Re: (スコア:1)
ファイルシステムのメタデータは、デフラグする方が好ましい。
これは、メタデータ自身がキャッシュされるんで、カーネルの消費メモリ削減になって、システム全体が若干高速になるから。
あと、SSDなら、ブロック範囲に収まるデータは、一ブロックに集約するのが良いが、それ以前に、良く書き換えるファイルと書き換えないファイルを同一ブロックに入れない様にする事が肝要。
でも、SSD内の論理-物理変換方式は、各社研究中の流動的且つ重要な機密情報なんで、サードパーティーツールで最適化する事は実質不可能。
でも、断片化してるとメタデータが増えているのは確実だから、SSDでもデフラグは無意味じゃない。
如何に優秀な方式でも、余分なデータが無い方が確実に効率を上げられるからね。
ただ、SSDの場合は、頻度と積極性は下げる方が良い。
つまり、極端にフラグメントが進んでる場所だけを必要最小限の移動でデフラグする方式がベストになる。
具体的には、解析にやや時間が掛かるが、実行自体は瞬時に終わる物が良いって事になる。
-- Buy It When You Found It --
Re: (スコア:0)
ところで、ちょっと疑問なのですが。
SSDで、ファイルの領域が連続しているとデフラグソフトで表示されていたときでも、内部のメモリのアドレスとして必ずしも連続していないのでは?
メモリの使用頻度の平準化とか不具合部分の回避とかするんですよねぇ?
ちがうの?
SSDの論理と物理 (スコア:1)
SSD内の論理-物理変換に粒度の制限がある。
ぶっちゃけ、セクタ単位での個別物理変換テーブルなんて持たせたら、容量の無駄遣い。
更に、論物変換データ自体もフラッシュに格納される事を忘れない様に。
論理-物理変換の変更量が増えると、やはり寿命を縮める事になる。
なので、論理側で不変領域を一箇所に集中させる(変動領域を一箇所に集中させるのと等価)と、論物変換の管理領域の更新量が減って、性能と寿命が両方向上する訳。
-- Buy It When You Found It --