アカウント名:
パスワード:
サブジェクトが「過去の遺物くん」に見えた……
それはおいといて,
> > そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに> それは、貴方がそんなメーカばかり選定しているからでしょう?> ちゃんと発売してからずっーと互換性を維持しているメーカがありますよ。
どこのメーカーが互換性を維持していて,(知っているのなら)維持していないメーカーはどこか教えていただけると参考になります。
ちなみに私は VMware は使ったことがあるけどブレードは使ったことがない人なんで 1U か 2Uサーバ +VMware でいいじゃんという考えなんですが,VMware と比較してブレードサーバにメリットがあるという話があれば教えていただきたいです。
#ブレードサーバに VMware を載せるといった話があったけど,自分が働いているときに実現しなかった#ので余計興味があったり。
元ACとは別人だけれど。
過去の筐体(ブレードの入れ物)に最新のブレードサーバを挿せること、をさして互換性というなら
IBMは互換性を維持していて、HPは維持していないはず。
VMware と比較してブレードサーバにメリットがあるという話
その比較は意味が無いんじゃない?仮想化とブレードサーバは併用可能なんだから。
ブレードってやっぱり特定ベンダに依存しすぎちゃうってのが確かに問題の一つなんだよね。ベンダに囲い込まれちゃう。その割りに価格的メリットはそれ程でない場合も多い。
経験で言うと、ブレードサーバのシャーシの問題が発覚して、パッチ適用で直るって話だったんだけど、パッチ適用後にブレード全体の再起動が必要、とかヌカしてきたベンダがあった。さすがにこれには呆れた。
VMwareのような仮想化技術を使うなら、ブレード挿してコア追加していくよりはコア数の多いサーバを数個置いたほうがサーバ密度もあげられるしパフォーマンス調整もやりやすいと思うんですよ。
必要な処理能力が分からず順次増やしていきたいというのであればブレードも選択肢としてはいいのかもしれませんね。しかし私の仕事の場合、お客さんの調達の仕方を見ていると処理能力を追加したいからブレードの追加でというのはほとんどありません。というのは私がかかわっているお客さんの場合、アプリケーションはマルチスレッド化が十分に進んでいて、同じメモリ空間を見るコアがもっとほしいという要望になることが多いからです。そんなわけでメモリ空間的に分かれていない多コアのほうが使いやすいんですよ。
そういうわけで、併用は可能だけどブレードサーバだと仮想化技術のうちパフォーマンスの柔軟な調整(やりくり)という点が生きてこないように思います。
最初からブレード単位で処理能力を切り売りするような用途には、ブレードサーバのほうがいいのかもしれませんね。
> > VMware と比較してブレードサーバにメリットがあるという話> その比較は意味が無いんじゃない?仮想化とブレードサーバは併用可能なんだから。
nekomata_nyaosuke氏の書き方から「VMwareよりもブレードのほうがよい」というイメージを受けたので聞いてみました。個人的には,ほんのちょっと話を聞いただけでのイメージなんですが,VMwareとブレードを併用すればメリットが大きいと感じています。とはいえ,実際にその部分に業務的に関わらなかったので,それ以上のことは調べていないのですが……
#いかん,イメージ先行で調査が足りていない。
>もし壊れてもブレード差し替えるだけ
そんなの、仮想化ノード間で仮想マシン移動させればいいだけ。16コアとか24コアのサーバで仮想化するほうが集約しやすいと思うけど。
>>同じU数なら集積度向上今時のラックマウントサーバーの集積度って,物理的スペースが上限を決めてるんじゃなくて, 電力と空調(場所によっては音も重要)が決めてるから, ある程度大規模なシステムだとブレードにしたら集積度が上がるってことはない.
>> 故障部品はシャーシへ集約ちょっと意味がわからない
>>もし壊れてもブレード差し替えるだけ普通のラックマウントサーバも壊れた部分を差し替えるだけ.そしてその壊れた部分のみを差し替えるということに関して,普及品の方がはるかに調達が容易.
ブレードのメリットと
故障部品はシャーシへ集約
ちょっと意味がわからない
「故障(する可能性の高い)部品はシャーシへ集約」って意味かなあ。ディスクとかファンとか。
そしてその壊れた部分のみを差し替えるということに関して,普及品の方がはるかに調達が容易.
メーカ保守に頼らず、自前で修理ならその選択肢もなくは無いね。でも、24×7なサービスを提供する場合なんかだと、ちょっと厳しいかな。人件費まで含めて考えるとメーカに払う保守費の方が安いし早いし確実だから。
従「サーバ壊れました、メーカーのせいです。」
誤上司「それなら仕方ないよね」
正上司「そんなメーカー勧めたおまえ達が悪い」
うーん、電力と空調が潤沢なら うちは、まだそこに入れるまでもないという規模なのです
コストを考えてみてください。電気も土地もただじゃありませんよ。
故障『しそうな共通』部品はシャーシへ集約
よほどの廉価サーバでなければ、電源やファンといった部品は冗長構成を組みます。 確かに稼働部品が増えて故障率は上がりますが、通常のラックマウント型の部品は 他の型番と共通の物が使われていることも多く、単価が安いメリットがあります。
よっぽどひどい営業さんしか訪ねてこなかったみたい
そういうことではなく、同じ仕様で増設したくても不可能になってしまう、ということです。 ラックマウント型は個々が独立しているので別仕様のマシンが紛れても問題ありませんが、 ブレードは個々の部品がシャーシ依存で他製品と互換性がない場合が圧倒的です。 だから最初にごっそり導入しておかないと、追加したいときには対応品が入手できないなんてことも。 でも、経費削減の折、最初にごっそり揃えて遊ばせているわけにもいかないでしょう。 数年おきに丸ごと置き換えることができるところばかりじゃないのですよ。
確かに稼働部品が増えて故障率は上がりますが、通常のラックマウント型の部品は他の型番と共通の物が使われていることも多く、単価が安いメリットがあります。
故障率が上がるとオペレータの負荷が上がるんだよね。つまり、人件費に影響してくる。普通、人件費は部品代の費では無いから、故障率の低い方、つまりブレードを選ぶと言う場合があっても不思議はない。#そうでない場合があっても不思議は無いけど。
>>ブレードのメリットと言われていたことは, 実はほとんどメリットに>>ならないことがわかってきて
超がつくほど合理主義的なサーバー構築をし続けてきているGoogleが、どういうサーバーを使っているのかそれどころか、どういうデータセンターを作ってきているのかを見てみれば、ブレードサーバーのデメリットがおのずと浮かび上がってきそうなもんですけどね。
# 技術力より営業力が勝ることがある
超がつくほど合理主義的なサーバー構築をし続けてきているGoogleが、どういうサーバーを使っているのか
あれはGoogleの規模と技術があってはじめて実現可能なんであって、一般の企業やそこいらのSIerの真似できることじゃないと思いますよ。
だからといって、その代わりの答がブレードか、っていうとそれはそれで疑問が残りますが。
>まず、それ貴方のまわりのデータセンターが>タコ>なだけでは?
残念ながらそういうデータセンターの方が多いです電力系の@なところも、別区画契約じゃないと、無理ですし
>100Vで動くブレードもあるんですよ?
使う電源総容量と熱量の問題は100Vでも200Vでも対して変わりませんよ
>> そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに>それは、貴方がそんなメーカばかり選定しているからでしょう?>ちゃんと発売してからずっーと互換性を維持しているメーカがありますよ。
IBMだけですよね?あと、IBMも、最近のHS22と
集約度が上がっても1ラックで許容されている熱容量+電源容量は変わらないので、最大台数は変わらない
通常のラックマウントサーバに比べて、電源が集約される分、同台数比で(ちょっとだけ)電源容量が下がる、って聞いたことがあるけど、本当かどうか検証したことはない。
>>予備ブレード用意して、SANブート先を別のブレードに付け替えて、差し替えてますけど...。あ、もちろんその後、メーカ呼んでますよ(w
予備機を準備する必要が無いってのも、仮想化のメリットです。ハード障害が発生したら、勝手に別の仮想ホストでゲストが再起動されますので。
IBMの犬ですが。
>> あと、IBMも、最近のHS22とかって初代BladeCenterには使えないんじゃなかったかと
>Σ (゚Д゚;)エ?うちの動いてますけど(w やばいんかな?かな?...って調べてみました。どうやら、ブレードをぱんぱんに入れると電源容量が足りない風味...orz 気をつけなきゃ。
確かに初代のBlade Centerだと、最大構成時には電源の給電能力を超えるので使えません。が、電源ユニットを2320Wの大容量版へ交換する事で対応可能です。修理用の部品FRUではなく、オプションとして46M0508 [ibm.com]を発注して下さい。また大容量電源に対応するためにシャシのBIOS更新をお忘れなく。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
Stableって古いって意味だっけ? -- Debian初級
すでに過去の遺物 (スコア:4, 参考になる)
まず教えて欲しい。
「拡張性が犠牲になる代わりに集約して場所代を節約しましょう」
というのがウリなのに集約すら無理なデータセンターが多すぎる。
そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに
なるから、使う用途がなくてもブレードをフル搭載で買わないとあとで泣
きを見る。(=無駄な投資が多くなる)
ブレードとストレージをセットで買う目的の1つとして、SANからbootして
「ブレードは単に計算させるだけの機械」にし、bootイメージを差し替え
つつサーバリソースの再配分なんてことも、VMwareを使えばベンダーを
殆ど選ばず簡単にしかも安価で同じような事が出来る。電源効率とCPU負荷
を考えればVMware+2Uクラスのミッドレンジサーバを買う方がマシな気がする。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
タコ
なだけでは?
100Vで動くブレードもあるんですよ?
> そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに
それは、貴方がそんなメーカばかり選定しているからでしょう?
ちゃんと発売してからずっーと互換性を維持しているメーカがありますよ。
> を考えればVMware+2Uクラスのミッドレンジサーバを買う方がマシな気がする。
あのー、ブレードにすれば、
- 同じU数なら集積度向上
- 故障部品はシャーシへ集約
- もし壊れてもブレード差し替えるだけ
...といろいろメリットあるんですけど、一度、『ブレードを使ったことのある』SIerとかメーカさんの説明うけたほうがいいかもね。営業トークにだまされてはいけませんが(w
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
サブジェクトが「過去の遺物くん」に見えた……
それはおいといて,
> > そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに
> それは、貴方がそんなメーカばかり選定しているからでしょう?
> ちゃんと発売してからずっーと互換性を維持しているメーカがありますよ。
どこのメーカーが互換性を維持していて,(知っているのなら)維持していないメーカーはどこか教えて
いただけると参考になります。
ちなみに私は VMware は使ったことがあるけどブレードは使ったことがない人なんで 1U か 2Uサーバ +
VMware でいいじゃんという考えなんですが,VMware と比較してブレードサーバにメリットがあるという
話があれば教えていただきたいです。
#ブレードサーバに VMware を載せるといった話があったけど,自分が働いているときに実現しなかった
#ので余計興味があったり。
Re:すでに過去の遺物<んなことないっす。 (スコア:1, 参考になる)
元ACとは別人だけれど。
過去の筐体(ブレードの入れ物)に最新のブレードサーバを挿せること、をさして互換性というなら
IBMは互換性を維持していて、HPは維持していないはず。
Re: (スコア:0, 既出)
VMware と比較してブレードサーバにメリットがあるという話
その比較は意味が無いんじゃない?仮想化とブレードサーバは併用可能なんだから。
ブレードってやっぱり特定ベンダに依存しすぎちゃうってのが確かに問題の一つなんだよね。ベンダに囲い込まれちゃう。その割りに価格的メリットはそれ程でない場合も多い。
経験で言うと、ブレードサーバのシャーシの問題が発覚して、パッチ適用で直るって話だったんだけど、パッチ適用後にブレード全体の再起動が必要、とかヌカしてきたベンダがあった。さすがにこれには呆れた。
VM使うならコア数が多いほうがいい (スコア:2, 参考になる)
VMwareのような仮想化技術を使うなら、ブレード挿してコア追加していくよりはコア数の多いサーバを数個置いたほうがサーバ密度もあげられるしパフォーマンス調整もやりやすいと思うんですよ。
必要な処理能力が分からず順次増やしていきたいというのであればブレードも選択肢としてはいいのかもしれませんね。しかし私の仕事の場合、お客さんの調達の仕方を見ていると処理能力を追加したいからブレードの追加でというのはほとんどありません。というのは私がかかわっているお客さんの場合、アプリケーションはマルチスレッド化が十分に進んでいて、同じメモリ空間を見るコアがもっとほしいという要望になることが多いからです。そんなわけでメモリ空間的に分かれていない多コアのほうが使いやすいんですよ。
そういうわけで、併用は可能だけどブレードサーバだと仮想化技術のうちパフォーマンスの柔軟な調整(やりくり)という点が生きてこないように思います。
最初からブレード単位で処理能力を切り売りするような用途には、ブレードサーバのほうがいいのかもしれませんね。
屍体メモ [windy.cx]
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
> > VMware と比較してブレードサーバにメリットがあるという話
> その比較は意味が無いんじゃない?仮想化とブレードサーバは併用可能なんだから。
nekomata_nyaosuke氏の書き方から「VMwareよりもブレードのほうがよい」というイメージを受けたので聞いてみました。
個人的には,ほんのちょっと話を聞いただけでのイメージなんですが,VMwareとブレードを併用すればメリットが大きい
と感じています。とはいえ,実際にその部分に業務的に関わらなかったので,それ以上のことは調べていないのですが……
#いかん,イメージ先行で調査が足りていない。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
ksyuu さんも書かれていますが、併用すればいいかと。最近のブレードは、めっさ早いCPUとメモリをたくさん積めるので、1個のOS動かすのもったいないですー。元々ブレードの仕様が均一なので、vMotionとかやりやすいですし。始めて目の前で動いたときは感動した(w
> #いかん,イメージ先行で調査が足りていない。
いえ、私もたいしたこと言えずすいません。
VMotionみたいなのでいいじゃん (スコア:1)
>もし壊れてもブレード差し替えるだけ
そんなの、仮想化ノード間で仮想マシン移動させればいいだけ。
16コアとか24コアのサーバで仮想化するほうが集約しやすいと思うけど。
屍体メモ [windy.cx]
Re: (スコア:0)
>>同じU数なら集積度向上
今時のラックマウントサーバーの集積度って,
物理的スペースが上限を決めてるんじゃなくて, 電力と空調(場所によっては音も重要)が
決めてるから, ある程度大規模なシステムだとブレードにしたら集積度が上がるってことはない.
>> 故障部品はシャーシへ集約
ちょっと意味がわからない
>>もし壊れてもブレード差し替えるだけ
普通のラックマウントサーバも壊れた部分を差し替えるだけ.
そしてその壊れた部分のみを差し替えるということに関して,
普及品の方がはるかに調達が容易.
ブレードのメリットと
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
故障部品はシャーシへ集約
ちょっと意味がわからない
「故障(する可能性の高い)部品はシャーシへ集約」って意味かなあ。ディスクとかファンとか。
そしてその壊れた部分のみを差し替えるということに関して,普及品の方がはるかに調達が容易.
メーカ保守に頼らず、自前で修理ならその選択肢もなくは無いね。
でも、24×7なサービスを提供する場合なんかだと、ちょっと厳しいかな。人件費まで含めて考えるとメーカに払う保守費の方が安いし早いし確実だから。
Re: (スコア:0)
機器の一つ一つを普及品で調達して、「何かあった」時にかかるストレスが大きく違ってくるからね。
Re: (スコア:0)
従「サーバ壊れました、メーカーのせいです。」
誤
上司「それなら仕方ないよね」
正
上司「そんなメーカー勧めたおまえ達が悪い」
Re:すでに過去の遺物 < んなことないっす。 (スコア:1)
> 決めてるから, ある程度大規模なシステムだとブレードにしたら集積度が上がるってことはない.
うーん、電力と空調が潤沢なら、そんな話になんないんですけど。前提条件が違うのですねぇ。
ちなむと、調べた某DCは、まったく余裕なのですが、うちは、まだそこに入れるまでもないという規模なのです(^^;
>>> 故障部品はシャーシへ集約
> ちょっと意味がわからない
すいません、舌足らずで(^^; えっと、故障『しそうな共通』部品はシャーシへ集約ってことです。
>>>もし壊れてもブレード差し替えるだけ
> 普通のラックマウントサーバも壊れた部分を差し替えるだけ.
> そしてその壊れた部分のみを差し替えるということに関して,
> 普及品の方がはるかに調達が容易.
うーんと、差し替えたら、OSとか復旧はどうするんでしょう?SANブートかな?かな?あと、ブレードの部品を交換することなんてほとんどなくて、まるっこ交換するからメリットがあるんだけど...。
> ブレードのメリットと言われていたことは, 実はほとんどメリットに
> ならないことがわかってきて, 価格的デメリットのみ残っているので普及しない.
> そして普及しないから価格的デメリットはますます拡大している,
> ってのが現状かと.
ブレード買うと負け組ですか...orz
> 特定ベンダーを完全に信頼して, 何から何まで純正品を言い値で買ってサポート
> 全部まかせて, メーカー都合のディスコンがリプレース時期を決める,
> って所なら導入してあげると営業さんが喜んでくれると思いますよ.
うーん、よっぽどひどい営業さんしか訪ねてこなかったみたいですねぇ...。なんか過去にあったのでしょうか...。
べ、べつに、うちは営業さんを喜ばす為に買ったんじゃないんだからね!(w
なんか、色々な方のコメントを見てると、データセンターの話と、うちみたいに会社のサーバをまるっこブレードに集約しちゃいました(てへ、みたいなのと、いっしょになってって、よくメリット・デメリットが、わかんなくなってきました(汗;;;
まとめて、えらいひと!(w
Re:すでに過去の遺物 < んなことないっす。 (スコア:1, 参考になる)
コストを考えてみてください。電気も土地もただじゃありませんよ。
よほどの廉価サーバでなければ、電源やファンといった部品は冗長構成を組みます。
確かに稼働部品が増えて故障率は上がりますが、通常のラックマウント型の部品は
他の型番と共通の物が使われていることも多く、単価が安いメリットがあります。
そういうことではなく、同じ仕様で増設したくても不可能になってしまう、ということです。
ラックマウント型は個々が独立しているので別仕様のマシンが紛れても問題ありませんが、
ブレードは個々の部品がシャーシ依存で他製品と互換性がない場合が圧倒的です。
だから最初にごっそり導入しておかないと、追加したいときには対応品が入手できないなんてことも。
でも、経費削減の折、最初にごっそり揃えて遊ばせているわけにもいかないでしょう。
数年おきに丸ごと置き換えることができるところばかりじゃないのですよ。
Re:すでに過去の遺物 < んなことないっす。 (スコア:1)
確かに稼働部品が増えて故障率は上がりますが、通常のラックマウント型の部品は他の型番と共通の物が使われていることも多く、単価が安いメリットがあります。
故障率が上がるとオペレータの負荷が上がるんだよね。つまり、人件費に影響してくる。
普通、人件費は部品代の費では無いから、故障率の低い方、つまりブレードを選ぶと言う場合があっても不思議はない。
#そうでない場合があっても不思議は無いけど。
Re: (スコア:0)
スポット費用が発生しない契約になっているものも多いですよね。
まぁ、その場合は保守部品代もスポットになることは稀なので
どっちを選んでも似たようなものになるとは思いますが。:-)
Re:すでに過去の遺物 < んなことないっす。 (スコア:1)
や、勉強になります♪
> コストを考えてみてください。電気も土地もただじゃありませんよ。
ふむ。
> 確かに稼働部品が増えて故障率は上がりますが、通常のラックマウント型の部品は
> 他の型番と共通の物が使われていることも多く、単価が安いメリットがあります。
んと、ここの部品を交換するんじゃなくて、ブレードまるっこ交換って運用なのですー。
でも確かに、部品を交換するなら、その方が安いですね。でも、交換する人がいないのですー...orz
>> よっぽどひどい営業さんしか訪ねてこなかったみたい
> そういうことではなく、同じ仕様で増設したくても不可能になってしまう、ということです。
ベンダーロックインになると...。やっぱ、うちは負け組なのか...orz
> 数年おきに丸ごと置き換えることができるところばかりじゃないのですよ。
そっか、始まりが違うんだね。うちはもうブレード入っちゃったから、あとはブレード足してけばいいじゃんって思ってましたけど、これからブレードを検討するとなると、システム全体を対象にして入れ替える『理由』を考えないといけないですね。そこに費用対効果を見出せないとブレードなんかに飛びつけないですね。
勉強になりました♪
Re: (スコア:0)
>>ブレードのメリットと言われていたことは, 実はほとんどメリットに
>>ならないことがわかってきて
超がつくほど合理主義的なサーバー構築をし続けてきているGoogleが、どういうサーバーを使っているのか
それどころか、どういうデータセンターを作ってきているのかを見てみれば、
ブレードサーバーのデメリットがおのずと浮かび上がってきそうなもんですけどね。
# 技術力より営業力が勝ることがある
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
超がつくほど合理主義的なサーバー構築をし続けてきているGoogleが、どういうサーバーを使っているのか
あれはGoogleの規模と技術があってはじめて実現可能なんであって、一般の企業やそこいらのSIerの真似できることじゃないと思いますよ。
だからといって、その代わりの答がブレードか、っていうとそれはそれで疑問が残りますが。
Re: (スコア:0)
>まず、それ貴方のまわりのデータセンターが
>タコ
>なだけでは?
残念ながらそういうデータセンターの方が多いです
電力系の@なところも、別区画契約じゃないと、無理ですし
>100Vで動くブレードもあるんですよ?
使う電源総容量と熱量の問題は100Vでも200Vでも対して変わりませんよ
>> そして殆どのブレードがシャーシの減価償却期間を待たずにディスコンに
>それは、貴方がそんなメーカばかり選定しているからでしょう?
>ちゃんと発売してからずっーと互換性を維持しているメーカがありますよ。
IBMだけですよね?
あと、IBMも、最近のHS22と
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
集約度が上がっても1ラックで許容されている熱容量+電源容量は変わらないので、最大台数は変わらない
通常のラックマウントサーバに比べて、電源が集約される分、同台数比で(ちょっとだけ)電源容量が下がる、って聞いたことがあるけど、本当かどうか検証したことはない。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
んー、別区画契約ですかー。
> 使う電源総容量と熱量の問題は100Vでも200Vでも対して変わりませんよ
や、すいません、ブレードの枚数が同じだと、確かにそうですね。
シャーシ内のブレードの枚数が少なくてもよくて、事務所の隅っこに置くっていう場合にしか、100Vのメリットないかも。データセンターだと、シャーシにぱんぱんにブレード挿しますものね。
> IBMだけですよね?
たぶんそうです。
> あと、IBMも、最近のHS22とかって初代BladeCenterには使えないんじゃなかったかと
Σ (゚Д゚;)エ?うちの動いてますけど(w やばいんかな?かな?...って調べてみました。どうやら、ブレードをぱんぱんに入れると電源容量が足りない風味...orz 気をつけなきゃ。
> 集約度が上がっても1ラックで許容されている熱容量+電源容量は変わらないので、最大台数は変わらない
確かに、"熱容量+電源容量は変わらない"ってところを変えないと、メリットでませんね。
> 普通メーカの24/365保守で直しますよね?
> 差し替えなんてやるんですか?
予備ブレード用意して、SANブート先を別のブレードに付け替えて、差し替えてますけど...。あ、もちろんその後、メーカ呼んでますよ(w
# みなさんのお話を聞いていると、うちがふつーじゃない!って気がしてきた...orz
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
>んー、別区画契約ですかー。
よく勘違いする人がいますが、@は1㎡あたりの使用電力を柔軟に使えるってだけですよ。
他に新しいIDCでブレード入れられます!って宣伝しているIDCで実効6KVAとかですね。
シャーシにフルパワーのを詰め込んだら実は1セット突っ込んで終了です。
メーカーの営業も困り顔でした。
他に3本搭載できるIDCもありますが、月額の利用料金が非常に高いです。3倍くらいする。
それなら、初期投資は高くとも、良質の通常サーバを買って使用したほうがランニングコストを含めてはるかにお得。
初期投資ケチって、ランニング含めてトータルで経費が増える選択する理由がないと思っています。
企業内利用で、電力は供給できるけど場所がないというようなところには有用だと思っています。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
>>予備ブレード用意して、SANブート先を別のブレードに付け替えて、差し替えてますけど...。あ、もちろんその後、メーカ呼んでますよ(w
予備機を準備する必要が無いってのも、仮想化のメリットです。
ハード障害が発生したら、勝手に別の仮想ホストでゲストが再起動されますので。
Re:すでに過去の遺物<んなことないっす。 (スコア:1)
IBMの犬ですが。
>> あと、IBMも、最近のHS22とかって初代BladeCenterには使えないんじゃなかったかと
>Σ (゚Д゚;)エ?うちの動いてますけど(w やばいんかな?かな?...って調べてみました。どうやら、ブレードをぱんぱんに入れると電源容量が足りない風味...orz 気をつけなきゃ。
確かに初代のBlade Centerだと、最大構成時には電源の給電能力を超えるので使えません。が、電源ユニットを2320Wの大容量版へ
交換する事で対応可能です。修理用の部品FRUではなく、オプションとして46M0508 [ibm.com]を
発注して下さい。また大容量電源に対応するためにシャシのBIOS更新をお忘れなく。