アカウント名:
パスワード:
と思ってざっくり計算してみたのだけれど、20TB預けるのに200ドル。消失時に20TBのデータを取り出すのに1800ドル。
アリかナシかは各々の判断に委ねます。
Bitcasaのほうが値上げ後でもずっと安いし($99)、値下げ後のGoogleドライブ($199.99)でもいいな。使い勝手も比較対象がGlacierならずっといい。
容量は一応それでいいのかもしれませんが、転送時間の問題が。Flet's光の上り最大速度100Mbpsで換算すると、20TB転送するのに19.4日かかるみたい。最大速度なんてなかなか出ませんから、まぁ…… がまんしますかね。
別に毎回バックアップする必要もないですし、最初の書き込みにのんびり数カ月かけてその後は数日に一回くらい差分バックアップ→年に一回程度リフレッシュと言うのが王道な考え方の気がしますけどね。
まぁ、向こうを仮想の物理ドライブだということにして、その上に書き込みしたら追記されて、特定のコマンド以外ではファイル実体が消されないようなファイルシステムを構築し、更にそのファイルシステムを(SAMBAやNFSのように)こちら側にマウントして、こちら側とミラーリングが出来ると楽だし完璧なんですが…
# nilfs [sourceforge.net]とかそういう使い方出来た気がする。
王道な考え方だけど、その "最初の書き込み" なる 20TB ものアップロードも許してくれる ISP をあなたは知っているのですか?
ああ、確かに20TBを数カ月でアップロードするのは、一時的にでも高価な専用線を借りないとダメかも知れないですね。
で、最初のアップロードについて普通のISPでギリギリ怒られないようにするにはどうすればいいか考えたのですが、・アップロードを1MBytes/sec程度に制限する・24時間アップリンクを張るのではなく、10〜12時間程度にする
この条件なら、ざっくり計算して、10時間で36GB/日、12時間で43.2GB/日なので、ISPによっては引っかかりますが、引っかからないISPも少なからずありますよ。私の契約してるISPは、前は30GB/日アップロードで規制が入ってましたが、今は転送量(これにはダウンロードも含まれる)に応じて帯域が絞られるという風に規約が変えられています。仮に、30GB/日の制限を20%(=6GB)のマージン込みで満たすような転送を一日10時間やるならば、666KBytes/secになります。
これで行くと、大体1250日かかりますね_| ̄|●正直、帯域を絞られてもいいから、せめて一日100GB位は転送できないと(それでも300日はかかる!)実用性が無いですね。一時的にでも、多少高価でも転送量制限が緩くてなおかつ毎秒5Mbytes〜10Mbytes程度の転送を24時間行うのが可能なISPと契約する必要も出てきますね。# 毎秒5Mbytes転送できたとして、24時間で432GB。このペースが許されても、全部転送するのに最低46日と7時間6分37秒かかる。
AWSでは、そのためにHDDごと物理的に送るオプションが用意されていますよね?http://aws.amazon.com/importexport/ [amazon.com]これを使えば良いのでは?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
UNIXはシンプルである。必要なのはそのシンプルさを理解する素質だけである -- Dennis Ritchie
Amazon Glacier 使えば? (スコア:0)
と思ってざっくり計算してみたのだけれど、20TB預けるのに200ドル。
消失時に20TBのデータを取り出すのに1800ドル。
アリかナシかは各々の判断に委ねます。
Re: (スコア:0)
Bitcasaのほうが値上げ後でもずっと安いし($99)、値下げ後のGoogleドライブ($199.99)でもいいな。
使い勝手も比較対象がGlacierならずっといい。
Re: (スコア:2)
容量は一応それでいいのかもしれませんが、転送時間の問題が。
Flet's光の上り最大速度100Mbpsで換算すると、20TB転送するのに19.4日かかるみたい。
最大速度なんてなかなか出ませんから、まぁ…… がまんしますかね。
人生は七転び八起き、一日は早寝早起き
Re: (スコア:1)
別に毎回バックアップする必要もないですし、最初の書き込みにのんびり数カ月かけてその後は数日に一回くらい差分バックアップ→年に一回程度リフレッシュ
と言うのが王道な考え方の気がしますけどね。
まぁ、向こうを仮想の物理ドライブだということにして、その上に書き込みしたら追記されて、特定のコマンド以外ではファイル実体が消されないようなファイルシステムを構築し、更にそのファイルシステムを(SAMBAやNFSのように)こちら側にマウントして、こちら側とミラーリングが出来ると楽だし完璧なんですが…
# nilfs [sourceforge.net]とかそういう使い方出来た気がする。
Re: (スコア:0)
別に毎回バックアップする必要もないですし、最初の書き込みにのんびり数カ月かけてその後は数日に一回くらい差分バックアップ→年に一回程度リフレッシュ
と言うのが王道な考え方の気がしますけどね。
王道な考え方だけど、その "最初の書き込み" なる 20TB ものアップロードも許してくれる ISP をあなたは知っているのですか?
Re:Amazon Glacier 使えば? (スコア:1)
ああ、確かに20TBを数カ月でアップロードするのは、一時的にでも高価な専用線を借りないとダメかも知れないですね。
で、最初のアップロードについて普通のISPでギリギリ怒られないようにするにはどうすればいいか考えたのですが、
・アップロードを1MBytes/sec程度に制限する
・24時間アップリンクを張るのではなく、10〜12時間程度にする
この条件なら、ざっくり計算して、10時間で36GB/日、12時間で43.2GB/日なので、ISPによっては引っかかりますが、引っかからないISPも少なからずありますよ。
私の契約してるISPは、前は30GB/日アップロードで規制が入ってましたが、今は転送量(これにはダウンロードも含まれる)に応じて帯域が絞られるという風に規約が変えられています。
仮に、30GB/日の制限を20%(=6GB)のマージン込みで満たすような転送を一日10時間やるならば、666KBytes/secになります。
これで行くと、大体1250日かかりますね_| ̄|●
正直、帯域を絞られてもいいから、せめて一日100GB位は転送できないと(それでも300日はかかる!)実用性が無いですね。
一時的にでも、多少高価でも転送量制限が緩くてなおかつ毎秒5Mbytes〜10Mbytes程度の転送を24時間行うのが可能なISPと契約する必要も出てきますね。
# 毎秒5Mbytes転送できたとして、24時間で432GB。このペースが許されても、全部転送するのに最低46日と7時間6分37秒かかる。
Re: (スコア:0)
AWSでは、そのためにHDDごと物理的に送るオプションが用意されていますよね?
http://aws.amazon.com/importexport/ [amazon.com]
これを使えば良いのでは?