アカウント名:
パスワード:
数十TiBだったら、2TiBのHDDが20~30台くらいでは?ざっくり30万もあったらバックアップ取れますよ。100万ぐらいの予算で、3ヶ月に一回、「これdo台」とか使ってまる1日作業でサイクルバックアップじゃないですかね。大学の研究室はそれでやってたとこがありました。飛んだら困るが、半年ぐらいなら泣くぐらいで済むというデータ。
結局、どの程度そのデータに価値を置いていて、お金がかけられるかという所に落ち着くとは思います。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
吾輩はリファレンスである。名前はまだ無い -- perlの中の人
少数派だったか・・・「クラスタリングして冗長化+分散化」 (スコア:1)
冗長化+分散化以外の方法で数十TBのデータってどうやってバックアップ取ればいいんだろ・・・・
※冗長化、分散化はバックアップじゃないないって意見もあるかと思いますがそこはスルーで。
データの価値と相談じゃないですかね (Re:少数派だったか・・・「クラスタリングして冗長化+分散化」 (スコア:2)
数十TiBだったら、2TiBのHDDが20~30台くらいでは?ざっくり30万もあったらバックアップ取れますよ。
100万ぐらいの予算で、3ヶ月に一回、「これdo台」とか使ってまる1日作業でサイクルバックアップじゃないですかね。
大学の研究室はそれでやってたとこがありました。飛んだら困るが、半年ぐらいなら泣くぐらいで済むというデータ。
結局、どの程度そのデータに価値を置いていて、お金がかけられるかという所に落ち着くとは思います。