kawakazuの日記: SDカードの断片化 10
日記 by
kawakazu
ノートPCのSSDの断片化どんなもんかなとDefragglerで見てて
ついでに使ってるSDカードの断片化どうだろって見たら50%を超えてたので
なんか気持ち悪いと思い、データ回避→フォーマット→データ復旧した
フラッシュメモリはでデフラグ無駄と言われてるけど
どうなんだろっていつも思う
Defragglerで見た限りはベンチマークは変わらんしな
SDカードやUSBフラッシュメモリはそんなに耐久度ないから要らないけど
SSDはどうなんだろ
Web見る端末とか要らないだろうけど
重くなったらOS再インストールしたほうが良いのかな
ていうかSMART情報見る限り壊れる気配がない
まあいきなり壊れるってのがSSDだからなあ
Windows7ぐらいからあんまりOS再インストールしなくなったな
PC自作もしなくなったからなあ
コメントありがとうございます (スコア:2)
私もですが
ただ、ISOイメージや動画ファイルが断片化してるとイラッときますね
あとSSDのデータ復旧ってかなりの高難易度らしいのでどうなんでしょうかねえ
コントローラのシリアルが合わないとデータが復旧できないとかあるみたいですが
まあ要勉強ですかね
# Typoミスってたなあ
Re:コメントありがとうございます (スコア:1)
通常のデフラグはダメだけど、SSD 向けに最適化された空き容量のデフラグならやってもいい派
ちなみに Windows 標準の [ドライブの最適化] は Trim を発行しているだけらしい
ファイルシステムによる (スコア:1)
無駄な管理領域ができちゃう(+その書き換えもおきる)とかだと意味がある。
そうじゃないと、結局コントローラによるウェアレベリングで適当な番地にあるので、あんまり意味ない。
だとは思う。
# とはいえ、明言はできないけど...
M-FalconSky (暑いか寒い)
Re:ファイルシステムによる (スコア:1)
同意です。
他にもファイルシステムによっては、ファイルや空き領域等の断片数に上限が有る場合があります。
その場合、予防的なデフラグは必要となるかもしれません。(不具合事例 [microsoft.com])
またSSDの機種や使い方により空き領域の断片化には注意が必要かも。
Trimコマンドによる空き領域の回収を効果的に実行するには連続した空き領域が必要ですが、
あまりにも空き領域が断片化しているとSSDの機種によってはページ単位の読み込み>消去>書き直しがあちこちで発生してしまい、他SSDからのコピー等での巨大ファイル(VMのVHDとかISOイメージとか)書き込み時のシーケンシャルライト時にパフォーマンスが落ち込みます。
一瞬、なぜか物理的な断片化を想像した (スコア:1)
SDカードが細切れになっている所を想像した…
これはきっと疲れているな…
今日は自身で自身の勤労を感謝することにしよう(呑
SSDには物理的な移動がない (スコア:1)
HDDならばヘッドシークという物理動作があり、ミリ秒単位で時間がかかりますが、SSDやSDなどの半導体メモリには、そ~ゆ~時間の掛かる可動部がありません。
管理領域がよっぽど酷い細切れにならない限り、HDDのシーク時間を超えることはない筈です。
なので、SSDに対してはデフラグは不要だと思います。
「労力や、SSDの寿命短縮というコストに見合った高速化が期待できない」ので。
# デフラグで高速化するような状況だと、早晩壊れるから、倍の容量のSSDに載せ替えるべきだと思います。
notice : I ignore an anonymous contribution.
Re:SSDには物理的な移動がない (スコア:2)
高速化よりもデータ復旧の可能性に着目したのかも。
でも管理領域が壊れやすいってこともないのかな?
Re:SSDには物理的な移動がない (スコア:2)
SSD も中身はフラッシュメモリなので
ヘッドの位置合わせによる機械的な物理的シークはなくても
レジスターに読み込むための電気的な物理シークがあるので
first read とその後の sequential read で速度が 1000 倍(数十 μs/B と 数十 ns/B)くらい違いますよ。
流石に機械的な物理シークやってる HDD に対して 4KB 以下のランダムリード負ける程遅くはないですけど、キャッシュでごまかせてる時はまだしも、キャッシュがヒットしないと page サイズ(だいたい 2KB/page とか 4KB/page くらい)以下のランダムリードでは first read のオーバーヘッドがかなりの重荷になります。
あと、書き込みは page 単位で行えますが数百 μs/page くらいかかります。しかし、一旦、書き込む page が属している block を全消去(おおよそ数 ms/block)しないと書けません。
従って、最高速度で書き込むにはデータが block サイズでアライメントされてないと消去のオーバーヘッドが重くのしかかって来ます。これはだいたい 64 page/block とかそんな感じです。
上記の具体的数値は、使ってるチップにより若干異なります。
uxi
Re:SSDには物理的な移動がない (スコア:2)
エンタープライズ向けの製品だとかなり影響がありそうな印象を受けました
Fusion-io [sandisk.com]とか使うようなシステムだとかなり影響があるのかな?
s/回避/退避/ (スコア:1)
なんだろうなぁ、とうっすら思った。
#Typo渦巻くすらど
SSDとかのメモリだと、無駄な読み込み書込が増えると寿命が縮む気がするのでデフラグは要らないんでしょうね。
#Win95の頃はコーヒータイムにぼーっとデフラグ画面を眺めるのもおつでした。