アカウント名:
パスワード:
近年障害の起きているファイルシステムのほとんどが 分散並列フォールトトレラントファイルシステム [wikipedia.org]なのですが、何か関係あるのでしょうかね?
SourceForge.netの障害→Ceph [opensource.srad.jp] Googleの雷の件→Go [it.srad.jp]
同じようなアーキテクチャのストレージで一回データロストに遭遇したけど、その時は異常(死にかけ)なノードを検知してクラスタから切り離すのに失敗、て感じだった。今回の原因は#2871069の人が書いてるようなやつだと該当ノードは正常なフリして動き続けるんで切り離す対象とみなされなかったんでしょう。正常に切り離せれば当然書き込みの対象にもならんし元からそこにあったデータもレプリカから再度複製されるんだけどね。
発生頻度としてはノードになるサーバを買い足せば簡単に容量を増やせる仕組みなだけに台数が増えるぶん単体障害が発生しやすいてとこじゃないかな。スケールアウトしやすいんでDCでの採用例が増えてるから目立つだけかもしれん。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
あつくて寝られない時はhackしろ! 386BSD(98)はそうやってつくられましたよ? -- あるハッカー
分散並列フォールトトレラントファイルシステム (スコア:1)
近年障害の起きているファイルシステムのほとんどが 分散並列フォールトトレラントファイルシステム [wikipedia.org]なのですが、何か関係あるのでしょうかね?
SourceForge.netの障害→Ceph [opensource.srad.jp]
Googleの雷の件→Go [it.srad.jp]
Re:分散並列フォールトトレラントファイルシステム (スコア:1)
同じようなアーキテクチャのストレージで一回データロストに遭遇したけど、
その時は異常(死にかけ)なノードを検知してクラスタから切り離すのに失敗、て感じだった。
今回の原因は#2871069の人が書いてるようなやつだと該当ノードは正常なフリして動き続けるんで
切り離す対象とみなされなかったんでしょう。
正常に切り離せれば当然書き込みの対象にもならんし元からそこにあったデータも
レプリカから再度複製されるんだけどね。
発生頻度としてはノードになるサーバを買い足せば簡単に容量を増やせる仕組みなだけに
台数が増えるぶん単体障害が発生しやすいてとこじゃないかな。
スケールアウトしやすいんでDCでの採用例が増えてるから目立つだけかもしれん。