gm300の日記: aws でバックアップ 3
日記 by
gm300
aws s3のdeep glacier でバックアップ。
バックアップしたいデータは4Tくらいあって、生データなので、きっともう2度と見ることはない。
特に90年台の懐かしいCD-ROMなんて、加工したデータだってみるかどうかあやしい。
たとえばSCO Linuxのサービスデータ、skunk works.
walnuts のLinux kernel 0.95 が入ったもの
など。
で、それを全部捨てたいけど未練があるので、格安で残したい。部屋の隅に置いておくよりも格安になってほしい。
s3のdeep glacier だと0.00099$/G. 4Tで、約$4./month. = $48./year = 5200円/year。部屋代よりは高いな。CDを数層に敷いて、その上に寝たらだいぶコストセーブだ。椅子代わりに使うとか、糊で固めてテーブル代わりにすれば、実質タダだ。
って仕事以外で自分のデータをawsにバックアップするって普通なのかな? 大抵のonline storage より安いと思うよ。
アップロードにはどのくらいかかりますか? (スコア:2)
Re:アップロードにはどのくらいかかりますか? (スコア:2)
合計で数日くらいだった気がします。ってという程度では簡単すぎるので..
ちなみに自宅の外側は100Mの回線です。
downloadには、複数のstreeamで合計43Mくらいの速度がでたりします。
uploadもそれなりに早いはずですが、数字は覚えていません。
AWSの場合、複数streamを許しているので、10 steam並列とか行えば、理想的には、60Mbpsくらい出るかもしれません。
AWSの便利なところは、1つのfile複数部分を並列的にputできるところです。
10Gのfileがあったとして、1Gずつ10個に分割して、同時にputできます。
全体と、分割部分両方のchecksum を指定できるので、つなぎ間違えも防御できます。
そのうちのいくつかが失敗、部分的に失敗しても、失敗した部分のみの再putができます。
Re:アップロードにはどのくらいかかりますか? (スコア:2)