
科学技術振興機構、ExaScalerに開発を委託していたスパコンの開発中止を決定 56
ストーリー by hylom
日本のスパコンの将来はどうなる 部門より
日本のスパコンの将来はどうなる 部門より
科学技術振興機構がExaScalerに開発を委託していたスーパーコンピュータの開発中止を決定したと報じられている(日経xTECH)。
このスーパーコンピュータは「磁界結合DRAM・インタフェースを用いた大規模省電力スーパーコンピュータ」とされており、ExaScalerはすでに2017年にスーパーコンピュータ「暁光」を開発、世界スパコンランキングで国内最高となる4位を達成していた。その後暁光はアップデートで20ペタFLOPSの性能を達成していたいっぽうで、ExaScalerの関連会社であるPEZY Computingで助成金の不正受給疑惑が発生、同社の将来は不透明な状況となっている。
中止の理由は、ExaScalerが磁気結合に関する開発内容の大幅縮小と開発期間の大幅延長を決めたためだという。また、ExaScaler側の事情での中止ということで、科学技術振興機構は融資した開発資金52億円の全額返済を求めるようだ。
磁界結合DRAM (スコア:0)
バブルメモリっすか? それとも磁気コアメモリ?
Re:磁界結合DRAM (スコア:1)
何故かマイコン買うと灰皿が付いて居たって奴?
Re: (スコア:0)
最新のGPUに搭載されてるHBM系のスタックドメモリは、貫通VIAで縦に積んだIC間の通信を行っています。
磁界結合DRAMってのは、そのIC間の通信を磁界結合の無線通信で行うもの。
メモリをとても薄く(数10um以下)してIC間の距離を極端に詰めれば、貫通VIAよりも面積や電力で有利になります。
ボケてるだけかもしれないけど、一応。
結局誰が悪いの (スコア:0)
結局黒幕は誰?
逮捕された社長?
Re:結局誰が悪いの (スコア:2)
わからん杉る。
いつ説明を受けたのか知らないけど、知っていながらJSTは開発中止しなかったのだろうか。
Re:結局誰が悪いの (スコア:5, 参考になる)
JST は知っているのに黙っていたわけではありません。ExaScaler は開発計画を連絡なしに変更していて、助成金詐取事件で調査が始まるまで、JST は計画変更も開発の遅れも知りませんでした。わかった後 ExaScaler の不利にならないように情報を隠したままで開発中止を発表するために3か月ほど時間が必要でした。これだけ情報を隠して
その詳細は「ExaScalerとJSTとの間の話」として明らかに
せず、 ExaScaler が取材をまだ受けないのは、よほど深刻なのかも(あくまでかも)しれません.
JST が説明を受けたというか、2017年12月に助成金詐取事件が表面化した後、JST が ExaScaler へのヒアリングを進めて [nikkei.com] その調査(ヒアリング)の過程において提出された書類等を検討した結果、採択時のものから大幅な計画変更となっており、本課題を採択した前提を欠いている [jst.go.jp]ことがわかったんです。事件が起きていなければ ExaScaler は JST に説明していないでしょう。
そのヒアリングで、ExaScaler による開発が計画の遅れに加えて、性能も目標に大きく届かないことがわかった [nikkei.com]と。
そこでExaScaler は昨年12月から複数回、大幅な期間の延長と性能の縮小をする申し出をしたのですが、「社内の都合」としか理由を JST に説明していません [mainichi.jp]。理由が説明されないので JST は困ったわけです。説明がないので「社内の都合」というのは、助成金詐取事件のことと解釈した JST の関係者がいたかもしれません。
この段階で開発中止を発表しても良いようなものですが、ExaScaler の申し出(大幅な期間延長と性能縮小)は、その技術レベルに直結するので JST はその詳細を公表できません。
そこで第三者による評価 [jst.go.jp]を聞き、第三者だけにヒアリングの結果(開発の遅れ、目標に大きく届かない性能)を示すことで本開発を中止すべき相当の理由があり、本開発の継続が適切でないと判断するに至った [jst.go.jp]とやっと発表できたわけです。
Re:結局誰が悪いの (スコア:2)
ありがとう。
JSTは大幅な期間延長と性能縮小を黙認せず中止したと読み取れるし、「磁界結合に関する開発内容の大幅縮小」は開発中止の理由に足りると思う。
Re: (スコア:0)
続報待ちですな。
Re: (スコア:0)
情報公開請求で明らかになるかだな.
Re: (スコア:0)
それはそれ、これはこれの話だと思おうが
失敗した場合は10%分のみ返済となる契約 (スコア:0)
有利な契約だったようですね。
Re:失敗した場合は10%分のみ返済となる契約 (スコア:2)
磁界結合がうまくいってないんだから技術的な不成功じゃないの?
Re: (スコア:0)
52億円って結構な額だぞ。今更返せと言われて返せるのか。
Re:失敗した場合は10%分のみ返済となる契約 (スコア:1)
JSTは52億円について、預金を担保にしているので全額回収できるとしています。 [tv-asahi.co.jp]と報道されているので大丈夫でしょう.
Re:失敗した場合は10%分のみ返済となる契約 (スコア:1)
資本金に手を付けちゃいけないことになってるのと同程度の軽さですな。
Re:失敗した場合は10%分のみ返済となる契約 (スコア:1)
資本金に手を付けちゃいけないことになってるのと同程度の軽さですな。
助成金詐取の疑いがかかったのはこの融資の契約より後なので,軽くてもそんなに悪くないでしょう.今回は昨日52億円 JST に返還された [nikkei.com]そうですし.
Re: (スコア:0)
預金が解約されていないか,確認しているのかな?
それとも通帳を貸付側が預かるヤバいタイプのやつかな.
Re:失敗した場合は10%分のみ返済となる契約 (スコア:1)
預金が解約されていないか,確認しているのかな?
そのようなことはあり得ないと思いますが,
もしそうなら契約に反するので,そうわかった時点で法的に処理する話でしょう.
相手が契約に反していないかどうか常に(毎月,毎週,毎日?)確認していたら,
科学技術振興機構側の職員が何人いても足りません.
相手を疑い始めたら際限がありません.
結局 (スコア:0)
速いの?
Re: (スコア:0)
分からないがもし本当に速いならとっくに各種大学や理研やGoogleがお買い上げしてレビューなりレポート出してくれてるのでは?
そもそもPEZY-SC2を使ったシステムってどこか外部で使ってるところあるの?
PEZY-SCx がシステムで売れたのは1台か0台 (スコア:1)
PEZY-SC なら個人で買ったよ。 [twitter.com]
PEZY の人に尋ねても、ただの野次馬に売れた売れないの話をおいそれと言えないから、教えてもらえないのは当然だよ。 [twitter.com]
個人はさておきシステムでは、購入の選択肢となる可能性は低いでしょうね。
並列計算向けのソフト (例えばディープラーニングの TensolFlow とか Python で並列処理のプログラムを書くための PyOpenCL とか) は PEZY-SC に対応していないような。
残念なことに、PEZY-SC は並列計算のクロスプラットフォームなフレームワークに対応していません。OpenCL は PEZY-SC だけの独自仕様の PZCL に書き直さないと動きません。そうすると PyOpenCL といったオープンソースソフトウェアを PEZY-SC で動かすには、自分で書いていないコードを書き直さなければいけません。それは普通のユーザには(プログラミングに自信のあるユーザでも)無理です。
自分でコードを0から書く人が PEZY-SC 専用のコードを書いて動かすために個人購入するケースはあるでしょうが、そんな研究者だけが集まる大学でないとシステムとして購入できないですね。
実際 ExaScaler が販売したのは Yahoo Japan に NVIDIA プロセッサのスパコンを1台、あとどこか不明な1社が購入(ただしプロセッサが PEZY-SC かは不明)の2台だという昨年末の記事 [nikkeibp.co.jp]があるので,PEZY-SC がシステムで売れたのは1台か0台ですね。
PEZY が Green500 のランキングのために自社に設置したSakura [top500.org]というシステムがありますが,まさかこれは数に入っていないでしょう。
Re: (スコア:0)
DGX-1,DGX-2みたいなGPUが8台、16台の規模ならまだしも、TOP500に載るような規模のスパコンで、既存のフレームワークを使えるような物なんて存在しないですよ。
CPUやGPU数百台、数千台以上に対応できるスケーラビリティを持ったフレームワークはないので、基本的には専用でソフトを書く必要があります。
というか、GPU8台(実際にはAWSのp3.16xlarge)だって性能を出すのは大変です。
既存のディープラーニング向けフレームワークだと性能でないので、cuDNNとかCUDAで自力で書いてるところです。
既存のフレームワークを使えるTOP500に載る規模のスパコン (スコア:0)
DGX-1,DGX-2みたいなGPUが8台、16台の規模ならまだしも、TOP500に載るような規模のスパコンで、既存のフレームワークを使えるような物なんて存在しないですよ。
既存のフレームワークを使える Top500 に入るスーパーコンピュータがあるという反例を示します。
昨年11月に Top500 13位、Green500 6位、HPCG 10位となった TSUBAME 3.0 では ディープラーニング用のフレームワーク [titech.ac.jp] として Caffe, Chainer, TensorFlow が使えます。さらにソルバー・シミュレーターや解析ソフトウェア、量子化学計算、分子動力学計算、化学シミュレーションなどのソフト [titech.ac.jp]
Re: (スコア:0)
意外と「研究する為の道具」と「道具を研究開発する」ってのを混同する人たちが多いんだよね。
でも購入する研究者としては飽くまで前者。
よっぽどの時間的・予算的な余裕が有れば後者にもコミット出来るって位なんだけど。
Re: (スコア:0)
https://ja.wikipedia.org/wiki/PEZY-SC [wikipedia.org]
理研に1台、KEKに2台、JAMSTECに1台入っているのは販売した内に入らないの?
Re: (スコア:0)
理研に1台、KEKに2台、JAMSTECに1台入っているのは販売した内に入らないの?
それらはPEZYグループが保有し研究機関に共同研究費を渡して運用を委託している(JAMSTEC の暁光は、PEZYグループが運用を行っている)ので、研究機関は購入していません。
PEZY社長逮捕、スパコンの旗手に何が起きたのか [nikkeibp.co.jp]に書かれています。
PEZY ComputingはNEDOの助成金に加え、複数のグループ企業を通じて出資を受けてスパコンを製造していた。理化学研究所や高エネルギー加速器研究機構(KEK)に設置したスパコンは、PEZYグループが保有し、理研やKEKに共
Re: (スコア:0)
中の人のツィートによると、ちょくちょく利用されてるみたいですよ。
課題にあるグラフ処理性能について Gyoukou はどのくらい速い? (スコア:0)
今回開発中止になった Gyoukou の課題 [jst.go.jp]に、
世界トップクラスのグラフ処理性能を目標のひとつにすることが書かれていますが、
Gyoukou のグラフ処理性能って世界トップクラスですか?
もし今トップクラスでなくても、磁界結合インタフェースができれば、
同じハードウェアですぐに世界トップクラスになりますか?
探した限りでは見つからなかったので、詳しい方教えて下さい。
損切り (スコア:0)
このプロジェクトが損なのかはわからないけど、これを中止にできるのならば、他のプロジェクト撤退できる判断をできる人がどこかにはいるというところは、評価できるような。
Re: (スコア:0)
社長が詐欺で捕まったところだからなあ。役人の事なかれ主義で説明がつくような気もする。
磁界結合?磁気結合? (スコア:0)
> このスーパーコンピュータは「磁界結合DRAM・インタフェースを用いた大規模省電力スーパーコンピュータ」とされており
> 中止の理由は、ExaScalerが磁気結合に関する開発内容の大幅縮小と開発期間の大幅延長を決めたためだという。
ご参考 (スコア:0)
朝日新聞の記者とPEZY社員のやりとりが興味深い
https://togetter.com/li/1213646 [togetter.com]
Re: (スコア:0)
「磁界結合DRAM・インタフェースを用いた大規模省電力スーパーコンピュータ」という課題のJSTの事業が中止になったのは事実。
磁界結合DRAMが開発遅れていたのも事実。
でもPEZYのスパコン開発が遅れているわけでも、開発中止したわけでもないってことか。
磁界結合DRAMは単にメモリのインターフェイスの一つなので、だめになったらHBM2使えばいいわけで、まぁ影響ないよな。
部門名 日本のスパコンの将来はどうなる (スコア:0)
実用上は全く影響しないんじゃないかな。
Post-Kスパコンは重量級計算ノードを採用 [mynavi.jp]
重量級のアウトオブオーダ実行コアを計算コアとして使う京コンピュータは、HPLを実行するTOP500では10位に下がったが、メモリバンド幅が効くHPCGベンチマークや、グラフ処理のGraph500では世界の1位をキープしており、実用アプリの実行性能では高いランキングにある。実アプリの性能との相関が下がっていると言われるHPLではなく、指標として選択したアプリケーション群の性能を向上させるには、軽量コアよりも高性能コアだけを(Post-K の CPU に)使う方が良いという判断と思われる。
PEZYは,実アプリの性能との相関が低いベンチマーク (Top500, Green500) のランキングが高い
現在の京コンピュータは実用アプリ寄りのベンチマーク(メモリバンド幅が効くHPCG, グラフ処理のGraph500)で世界1位,
実用アプリの結果も豊富(情報処理 2014年7月(続)スーパーコンピュータ「京」の利用 [nii.ac.jp])
次の Post-K は Top500, Green500 の順位よりも実アプリを重視して開発されるので、今回の開発中止は今後の Top500, Green500 のベンチマークの順位が下がるくらいで、実用的には日本のスパコンに影響しないと思う。
Re: (スコア:0)
Post-Kの役割が重要なのはその通りだと思います。
メモリバンド幅やネットワーク帯域が重要な大規模計算の用途はたくさんあります。
でも、PEZYのように演算性能と電力効率に特化したスパコンも必要なんです。
今が旬のAI開発にはPost-Kのようなものは必要ありません。
DeepLearningに使うには、演算性能とローカルでのメモリ帯域だけあればいい。
この用途で代表的なのはNVIDIAのTeslaV100。
Post-Kを止める必要は全くないのですが、今研究者の需要が大きいのはNVIDIAとかPEZYとかの小規模計算を大量に回すのが得意な方。
全く影響ないとはいえないでしょう。
Re: (スコア:0)
DeepLearningに使うには、演算性能とローカルでのメモリ帯域だけあればいい。
その情報の出典はどこですか?
ディープラーニングで使うネットワーク構造は複雑で不規則な形を取れるので、ローカルのメモリアクセスだけでほとんどを処理できるとは思えません。
さらに疑問に思う根拠は NVIDIA の Tesla V100 を使ったディープラーニング研究開発用マシン DGX-2の記事 GTC 2018 - NVIDIAのスーパー・ラーニングマシン「DGX-2」 [mynavi.jp] にあります。
DGX-2のもう1つの目玉は、「NVSwitch」と呼ぶスイッチチップを新開発して16個のV100 GPUを相互接続した点である。
ローカルでのメモリ帯域だけあればいいのなら,なぜ NVIDIA はディープラーニング用マシンのためにこのようなチップを新開発したのでしょうか?さらに同記事によれば DGX-2 は
各GPUが持つ32GBメモリのどのアドレスも連続のメモリ領域としてアクセスすることができるので、単一の512GBの連続メモリ領域をもち、相当大きなニューラルネットでも、全体をGPUメモリに収
Re: (スコア:0)
京の計算ノードは、128GFLOPS(fp64)の演算性能に対して、64GB/sのメモリ帯域があります。ノード間の通信は100GB/s。
メモリのBF比は0.50、ノード間通信の帯域では0.78です。
Tesla V100は、7.5TFLOPS(fp64)の演算性能に対して、900GB/sのメモリ帯域があります。ノード間の通信は300GB/s。
メモリのBF比は0.12、ノード間通信の帯域では0.04です。
このように、Tesla V100はメモリ帯域やノード間通信が速くなったとはいえ、演算性能も上がってるのでその比率は低いままです。
京やPost-Kのような大規模計算を中心に考えたスパコンと、Tesla V100のようなGPUベースの物は全く性格
Re: (スコア:0)
まず
DeepLearningに使うには、演算性能とローカルでのメモリ帯域だけあればいい。
というコメントの出典を尋ねましたが、示してもらえなかったですね。
ディープラーニングについて根拠のないコメントをされたということでよろしいでしょうか。
あなたのコメントで Tesla の話がそのまま PEZY にあてはまるという部分の根拠も見当たりません。
NVIDIA の Tesla がスーパーコンピュータに重要なことは理解しています。
昨年11月の HPCG [hpcg-benchmark.org] で Tesla を使ったスーパーコンピュータが4位、10位をはじめ100位までに10以上入っています。これはメモリバンド幅が効く計算を Tesla が扱える可能性を表しています。これは PEZY プロセッサにはあてはまりません。
ディープラーニ
事実は公表されるんですかね?? (スコア:0)
直接は関係はないのだが。
微妙に間接的な関連がある人から言えば。
ちゃんと技術的な信頼できる、事実関係の調査結果が出るかが気になる。
要するにこれは詐欺だったの?
高速メモリ詐欺に無駄に金払っただけ?
Re: (スコア:0)
ぼったくった金を何に使ってたかはもう報道が出てたと思ったが?
お前が知らない≒公表されてないじゃないぞ?
Re: (スコア:0)
社長が馬に使ったとかそういう下sewなワイドショー的な情報は割とどうでもよくて
結局この会社が作ってた自称スパコンて、スパコンだったの?、
という疑問じゃないの?元ACの疑問は。
詳しいようですからご説明できるんですよね。お願いします
Re: (スコア:0)
スパコンは出来ているでしょう。
今回の話題は更なる性能を出すという磁界結合メモリの開発についてです。
Re: (スコア:0)
今回の問題の教訓は「ベンチャーが大手よりも良いもの黙って作っちゃったら駄目」ということですよ。
Re: (スコア:0)
どうしてそうなる?
Re: (スコア:0)
「メモリの開発で獲った金をCPU開発に付け替えた」という以外に何も出てこないのに、やれアベがどうしたベンチスコアがどうしたとかなぜ横領しないんだとか、Fの製品より速いと俺が困るとか素人に延々放火されてたからだろ。
Re:事実は公表されるんですかね?? (スコア:2)
この事件は、
技術的知識の無い「東京地検特捜部」による、
被害者が居ない、
東京地検特捜部が「自分たち頑張ってますよ!」と自己顕示するための、
ライブドアの時と同じでうんざり。
な、酷い話だと思うのです。
産学共同実用化開発事業(NexTEP) (スコア:0)
むぬ?NeXTSTEP??…じゃなかった。
でも、産学共同実用化開発事業をどう略したらNexTEPになるのかピンとこないし、名前をつける権限を持つレベルの人の中に意識している人がいるものとお見受けする。
新興企業がスパコンを作るのは国益に反していると思う (スコア:0)
結局のところ信頼と実績が無いから国もこういう形で排除していくしかない
Re: (スコア:0)
巨大演算システムを運用するGoogleもFacebookも新興企業だと思うんですが
Re: (スコア:0)
日本の場合スパコンは雇用保護を兼ねた公共事業としての側面があるんだから
こういうぽっと出の企業が取れてしまうと誰も幸せになれないでしょ