パスワードを忘れた? アカウント作成
13887079 journal
日記

gm300の日記: aws でバックアップ 3

日記 by gm300

aws s3のdeep glacier でバックアップ。
バックアップしたいデータは4Tくらいあって、生データなので、きっともう2度と見ることはない。
特に90年台の懐かしいCD-ROMなんて、加工したデータだってみるかどうかあやしい。
たとえばSCO Linuxのサービスデータ、skunk works.
walnuts のLinux kernel 0.95 が入ったもの
など。
で、それを全部捨てたいけど未練があるので、格安で残したい。部屋の隅に置いておくよりも格安になってほしい。

s3のdeep glacier だと0.00099$/G. 4Tで、約$4./month. = $48./year = 5200円/year。部屋代よりは高いな。CDを数層に敷いて、その上に寝たらだいぶコストセーブだ。椅子代わりに使うとか、糊で固めてテーブル代わりにすれば、実質タダだ。

って仕事以外で自分のデータをawsにバックアップするって普通なのかな? 大抵のonline storage より安いと思うよ。

この議論は、gm300 (14617)によって ログインユーザだけとして作成されたが、今となっては 新たにコメントを付けることはできません。
  • 私もバックアップ方法を検討した際にオンラインストレージを検討したのですが、アップロードに時間がかかりすぎるので断念しました。今のところ、ポータブルHDDに2世代のコピーとって、自宅と職場においてます。 光回線の速いやつだと4TBのバックアップでも現実的な時間でいけるのでしょうか…
    • 北米のAWSのglacierには、すでにほぼ4T持っています。
      合計で数日くらいだった気がします。ってという程度では簡単すぎるので..

      ちなみに自宅の外側は100Mの回線です。
      downloadには、複数のstreeamで合計43Mくらいの速度がでたりします。

      uploadもそれなりに早いはずですが、数字は覚えていません。
      AWSの場合、複数streamを許しているので、10 steam並列とか行えば、理想的には、60Mbpsくらい出るかもしれません。
      AWSの便利なところは、1つのfile複数部分を並列的にputできるところです。
      10Gのfileがあったとして、1Gずつ10個に分割して、同時にputできます。
      全体と、分割部分両方のchecksum を指定できるので、つなぎ間違えも防御できます。
      そのうちのいくつかが失敗、部分的に失敗しても、失敗した部分のみの再putができます。
      親コメント
typodupeerror

目玉の数さえ十分あれば、どんなバグも深刻ではない -- Eric Raymond

読み込み中...