重量級のアウトオブオーダ実行コアを計算コアとして使う京コンピュータは、HPLを実行するTOP500では10位に下がったが、メモリバンド幅が効くHPCGベンチマークや、グラフ処理のGraph500では世界の1位をキープしており、実用アプリの実行性能では高いランキングにある。実アプリの性能との相関が下がっていると言われるHPLではなく、指標として選択したアプリケーション群の性能を向上させるには、軽量コアよりも高性能コアだけを(Post-K の CPU に)使う方が良いという判断と思われる。
あなたのコメントで Tesla の話がそのまま PEZY にあてはまるという部分の根拠も見当たりません。
NVIDIA の Tesla がスーパーコンピュータに重要なことは理解しています。 昨年11月の HPCG [hpcg-benchmark.org] で Tesla を使ったスーパーコンピュータが4位、10位をはじめ100位までに10以上入っています。これはメモリバンド幅が効く計算を Tesla が扱える可能性を表しています。これは PEZY プロセッサにはあてはまりません。
部門名 日本のスパコンの将来はどうなる (スコア:0)
実用上は全く影響しないんじゃないかな。
Post-Kスパコンは重量級計算ノードを採用 [mynavi.jp]
重量級のアウトオブオーダ実行コアを計算コアとして使う京コンピュータは、HPLを実行するTOP500では10位に下がったが、メモリバンド幅が効くHPCGベンチマークや、グラフ処理のGraph500では世界の1位をキープしており、実用アプリの実行性能では高いランキングにある。実アプリの性能との相関が下がっていると言われるHPLではなく、指標として選択したアプリケーション群の性能を向上させるには、軽量コアよりも高性能コアだけを(Post-K の CPU に)使う方が良いという判断と思われる。
PEZYは,実アプリの性能との相関が低いベンチマーク (Top500, Green500) のランキングが高い
現在の京コンピュータは実用アプリ寄りのベンチマーク(メモリバンド幅が効くHPCG, グラフ処理のGraph500)で世界1位,
実用アプリの結果も豊富(情報処理 2014年7月(続)スーパーコンピュータ「京」の利用 [nii.ac.jp])
次の Post-K は Top500, Green500 の順位よりも実アプリを重視して開発されるので、今回の開発中止は今後の Top500, Green500 のベンチマークの順位が下がるくらいで、実用的には日本のスパコンに影響しないと思う。
Re: (スコア:0)
Post-Kの役割が重要なのはその通りだと思います。
メモリバンド幅やネットワーク帯域が重要な大規模計算の用途はたくさんあります。
でも、PEZYのように演算性能と電力効率に特化したスパコンも必要なんです。
今が旬のAI開発にはPost-Kのようなものは必要ありません。
DeepLearningに使うには、演算性能とローカルでのメモリ帯域だけあればいい。
この用途で代表的なのはNVIDIAのTeslaV100。
Post-Kを止める必要は全くないのですが、今研究者の需要が大きいのはNVIDIAとかPEZYとかの小規模計算を大量に回すのが得意な方。
全く影響ないとはいえないでしょう。
Re: (スコア:0)
DeepLearningに使うには、演算性能とローカルでのメモリ帯域だけあればいい。
その情報の出典はどこですか?
ディープラーニングで使うネットワーク構造は複雑で不規則な形を取れるので、ローカルのメモリアクセスだけでほとんどを処理できるとは思えません。
さらに疑問に思う根拠は NVIDIA の Tesla V100 を使ったディープラーニング研究開発用マシン DGX-2の記事 GTC 2018 - NVIDIAのスーパー・ラーニングマシン「DGX-2」 [mynavi.jp] にあります。
DGX-2のもう1つの目玉は、「NVSwitch」と呼ぶスイッチチップを新開発して16個のV100 GPUを相互接続した点である。
ローカルでのメモリ帯域だけあればいいのなら,なぜ NVIDIA はディープラーニング用マシンのためにこのようなチップを新開発したのでしょうか?さらに同記事によれば DGX-2 は
各GPUが持つ32GBメモリのどのアドレスも連続のメモリ領域としてアクセスすることができるので、単一の512GBの連続メモリ領域をもち、相当大きなニューラルネットでも、全体をGPUメモリに収
Re: (スコア:0)
京の計算ノードは、128GFLOPS(fp64)の演算性能に対して、64GB/sのメモリ帯域があります。ノード間の通信は100GB/s。
メモリのBF比は0.50、ノード間通信の帯域では0.78です。
Tesla V100は、7.5TFLOPS(fp64)の演算性能に対して、900GB/sのメモリ帯域があります。ノード間の通信は300GB/s。
メモリのBF比は0.12、ノード間通信の帯域では0.04です。
このように、Tesla V100はメモリ帯域やノード間通信が速くなったとはいえ、演算性能も上がってるのでその比率は低いままです。
京やPost-Kのような大規模計算を中心に考えたスパコンと、Tesla V100のようなGPUベースの物は全く性格
Re: (スコア:0)
まず
DeepLearningに使うには、演算性能とローカルでのメモリ帯域だけあればいい。
というコメントの出典を尋ねましたが、示してもらえなかったですね。
ディープラーニングについて根拠のないコメントをされたということでよろしいでしょうか。
あなたのコメントで Tesla の話がそのまま PEZY にあてはまるという部分の根拠も見当たりません。
NVIDIA の Tesla がスーパーコンピュータに重要なことは理解しています。
昨年11月の HPCG [hpcg-benchmark.org] で Tesla を使ったスーパーコンピュータが4位、10位をはじめ100位までに10以上入っています。これはメモリバンド幅が効く計算を Tesla が扱える可能性を表しています。これは PEZY プロセッサにはあてはまりません。
ディープラーニ
Re: (スコア:0)
#3389568と#3390136を読んでから出直してください。
Re: (スコア:0)
自分のコメントの出典も示せないし、コメントの要点も示せないのですね。
次にコメントすることがあれば、出典を示し要点をまとめられるようになってからにしてください。
あなたのコメントは読みづらいので間違っているかもしれませんが、
あなたの思い込みは、Tesla と PEZY が同じだということに基づいているでしょう。
スーパーコンピュータに関して重要な点では、この2つに余りあるほどの違いがあります。
以下ではバンド幅を重要な点として挙げていますが、これは専門家の知見( 見えたスパコン京の次世代像、理研の新センター長に東工大松岡氏 [nikkeibp.co.jp])に基づきます。
なぜ総メモリーバンド幅に注目するのか。
現在の科学技術計算のアプリケーションは、メモリーバンド幅の大きさが実行演算性能を決めているためだ。TOP500ランキングの指標であるLINPACKベンチマークは、この点で適した指標とは言えない。
京は汎用プロセッサを大量に並べた結果、総メモリーバンド幅が大きなマシンになった。京は2017年11月まで、(総メモリーバンド幅が重要になる)HPCGベンチマークで3期連続で世界首位を獲得している。
京のプロセッサ、Tesla はメモリーバンド幅の大きい処理を扱えることを HPCGベンチマークで実証しているので、スーパーコンピュータとし