はてなキーワード:Opteronとは
2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問の発言で非常に曰く付きとなったアレだ。
ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ)計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータSequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと?
ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMDOpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータPRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国HPCWalesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2]ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4]ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6]ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud
あってるかわからない
ぴーしーすりー いちまんにせんはっぴゃく (でぃーでぃーあーるすりー せんろっぴゃく) でぃーでぃーあーるすりー えすでぃーらむ
でぃーあーるでぃーらむ
しりあるえーてぃーえー
えすえーてぃーえー
さす
じーおん
あいてにあむ
こあ あいせぶん きゅうせんななひゃくけー
あすろん ろくよん えっくすつー
おぷてろん
えむつー えぬぶいえむいー えすえすでぃー
なんど
のあ
まっくすとあ
まとろっくす
らでぃおん
じーふぉーす
えいすーす
計算する問題が分割されたままで良い、という領域においては当然そうなる。分割したもの同士が相互作用しないのなら。
残念ながらシミュレーション系においてはそらGRAPEが扱うなかでもごくごく一部ぐらいだけがそうで(普通は共有メモリ内で参照できるからそんな高いコストを払わなくて良い)、それ以外はメッシュだろうが格子だろうがIBだろうが最低でも隣接する領域との相互作用計算のための共有メモリ外との通信が発生する。
スケールアウトできないのはものすごく雑に言うと、
・扱う問題が原理的に向いてない
・計算機同士のインターコネクトが今でも遅すぎるのにこれ以上遅くしたらまさに演算系の無駄
ってとこがものすごく大きい。
評価・統合などなどまあ使う方式で言い方も使い方もいろいろあるけど、分割しただけで統合したりする処理が要らないんだったら、まさにRoadrunnerのOpteronブレード部分は無用だよ。計算するだけならCellブレードとインターコネクトボードがあればいい。だがOpteronを使わなきゃいけない(というわけでも無いんだけどあれぐらいの処理能力とメモリバンドとローカルメモリはバランス的に欲しい)というところに何かがあると感じてくれ。これをかいてる自分増田は定量的に~とか言われると式をグダグダ書き連ねないと説明できない低脳なので。
長大ジョブを投入して計算中でも、計算を止めないままノードごと別のノードに引き継がせて、そのノードを捨てたり点検したり、ってのは超大規模クラスタではもちろんある。
(脱線するが、x86は縮退させにくいとか、信頼性が足りないとかいうのも最近みかけるけどそんなことはない。x86だからということはないし、ノードの設計とジョブの入れ方できまるようなもの。あとすべてのノードをVMにのせてジョブを続けながらLive Migrationした実証実験なんてのもある。x86系コア・メモリのRAS機能は充実してきてるとはいえまだ足りないが、RAS機能がホントに重要ならPOWERベースにすれば実績と性能の点で申し分ない。x86の出自云々をいうならsparcだって出自がアレだしね。zシリーズにまで同一コアが使われるPOWERとは違う。脱線終わり)
それにスケールアップといったときに地球シミュレータの例はあまり適切ではないとおもう。アレは元々いろいろとアップグレードしにくいシステムだったし。
どうせならアップグレードしやすいCray XT5や、今度のXT6あたりで比較しよう。ちょうどJaguarのコアアップグレードは4Phaseにわけて実行された。
http://www.nccs.gov/computing-resources/jaguar/road-map/
コアの入れ替えだけなんでかかった費用は支援費の二千万ドル含んで数千万ドル(ちょっと語弊があるけど)。
あとJaguarはNCCSの配下にあるというのは一つの特徴だろう。利用時のスケジュールポリシーなんかもほぼ全部載ってるので、読んでみるといいよ。ちなみにNCCSのトップページにはいつも今配下のクラスタに投入されてるジョブがでてる。
ついでにGoogleのシステムはパソコンがベースって言って良いのかわからないぐらい特化してるよ。だから省電力でもある。それを安く調達するのはまさに規模の経済。
ToRスイッチを完成品じゃなくてBroadcomからチップ買って自前で専用のスイッチつくっちゃうのも規模の力。
最近いろんなところで引き合いに出されるNACCのGPUクラスタはコスト面とアルゴリズムで比較対象にもいい。簡単にいうと「苦手」なものを対象としないことで他の問題に最適化したのが濱田先生のところのチームがつくったクラスタ。特性を把握して性能を引き出して、実際に運用したという意味でとても良い研究なんだけど、故に超大規模クラスタとかで走らせることになる巨大CFDモデルなんかは対象外のシステムだ。
だから最近のスパコンうんたらかんたらとやらでNACCの話を持ち出してる記事やらエントリやらを見かけたら、そこに書かれてることは無視するといい。持ち出してくる奴は、基本からして間違ってるか何でも繋げればスケールアウトすると勘違いさせたがってるだろうから。
Rank Site Computer/Year VendorCores Rmax RpeakPower1 DOE/NNSA/LANL
United StatesRoadrunner -BladeCenter QS22/LS21Cluster,PowerXCell 8i 3.2 Ghz /OpteronDC 1.8 GHz, Voltaire Infiniband / 2008
IBM 129600 1105.00 1456.70 2483.47
United StatesJaguar - Cray XT5 QC 2.3 GHz / 2008
Cray Inc. 150152 1059.00 1381.40 6950.60
3 Forschungszentrum Juelich (FZJ)
Germany JUGENE -Blue Gene/P Solution / 2009
IBM 294912 825.50 1002.70 2268.00
4NASA/Ames Research Center/NAS
United StatesPleiades -SGIAltixICE 8200EX,Xeon QC 3.0/2.66 GHz / 2008
SGI 51200 487.01 608.83 2090.00
5 DOE/NNSA/LLNL
United StatesBlueGene/L - eServerBlue Gene Solution / 2007
IBM 212992 478.20 596.38 2329.60
6National Institute for Computational Sciences/University of Tennessee
United States Kraken XT5 - Cray XT5 QC 2.3 GHz / 2008
Cray Inc. 66000 463.30 607.20
United StatesBlue Gene/P Solution / 2007
IBM 163840 458.61 557.06 1260.00
8 Texas Advanced Computing Center/Univ. of Texas
United States Ranger -SunBlade x6420,Opteron QC 2.3 Ghz, Infiniband / 2008
Sun Microsystems 62976 433.20 579.38 2000.00
9 DOE/NNSA/LLNL
United StatesDawn -Blue Gene/P Solution / 2009
IBM 147456 415.70501.35 1134.00
10 Forschungszentrum Juelich (FZJ)
Germany JUROPA -Sun Constellation, NovaScale R422-E2,IntelXeon X5570, 2.93 GHz,SunM9/Mellanox QDR Infiniband/Partec Parastation / 2009
Bull SA 26304 274.80 308.28 1549.00
11 NERSC/LBNL
United States Franklin - Cray XT4QuadCore 2.3 GHz / 2008
Cray Inc. 38642 266.30 355.51 1150.00
12Oak RidgeNational Laboratory
United StatesJaguar - Cray XT4QuadCore 2.1 GHz / 2008
Cray Inc. 30976 205.00 260.20 1580.71
13 NNSA/SandiaNational Laboratories
United StatesRed Storm - Sandia/ CrayRed Storm, XT3/4, 2.4/2.2 GHz dual/quadcore / 2008
Cray Inc. 38208 204.20 284.00 2506.00
14King Abdullah University of Science and Technology
Saudia ArabiaShaheen -Blue Gene/P Solution / 2009
IBM 65536 185.17 222.82 504.00
15ShanghaiSupercomputer Center
China MagicCube -Dawning 5000A, QCOpteron 1.9 Ghz, Infiniband,WindowsHPC 2008 / 2008
Dawning 30720 180.60 233.47
16 SciNet/University of Toronto
Canada GPC - iDataPlex,Xeon E55xx QC 2.53 GHz, GigE / 2009
IBM 30240 168.60 306.03 869.40
17 NewMexico Computing Applications Center (NMCAC)
United States Encanto -SGIAltixICE 8200,Xeonquadcore 3.0 GHz / 2007
SGI 14336 133.20 172.03 861.63
18 Computational Research Laboratories, TATA SONS
India EKA -Cluster Platform 3000 BL460c,Xeon 53xx 3GHz, Infiniband / 2008
Hewlett-Packard 14384 132.80 172.61 786.00
19 Lawrence LivermoreNational Laboratory
United States Juno - Appro XtremeServer 1143H,Opteron QC 2.2Ghz, Infiniband / 2008
ApproInternational 18224 131.60 162.20
20 Grand EquipementNational de Calcul Intensif - Centre InformatiqueNational de l'EnseignementSupérieur (GENCI-CINES)
France Jade -SGIAltixICE 8200EX,Xeonquadcore 3.0 GHz / 2008
SGI 12288 128.40 146.74 608.18
21National Institute for Computational Sciences/University of Tennessee
United StatesAthena - Cray XT4QuadCore 2.3 GHz / 2008
Cray Inc. 17956 125.13 165.20 888.82
22Japan Agency for Marine -Earth Science and Technology
JapanEarth Simulator -Earth Simulator / 2009
NEC 1280 122.40 131.07
23 Swiss Scientific Computing Center (CSCS)
Switzerland Monte Rosa - Cray XT5 QC 2.4 GHz / 2009
Cray Inc. 14740 117.60 141.50
24 IDRIS
FranceBlue Gene/P Solution / 2008
IBM 40960 116.01 139.26 315.00
25 ECMWF
UnitedKingdomPower 575, p6 4.7 GHz, Infiniband / 2009
IBM 8320 115.90 156.42 1329.70
26 ECMWF
UnitedKingdomPower 575, p6 4.7 GHz, Infiniband / 2008
IBM 8320 115.90 156.42 1329.70
27 DKRZ - Deutsches Klimarechenzentrum
GermanyPower 575, p6 4.7 GHz, Infiniband / 2008
IBM 8064 115.90 151.60 1288.69
28JAXA
JapanFujitsu FX1,Quadcore SPARC64VII 2.52 GHz, InfinibandDDR / 2009
Fujitsu 12032 110.60 121.28
29 Total Exploration Production
FranceSGIAltixICE 8200EX,Xeonquadcore 3.0 GHz / 2008
SGI 10240 106.10 122.88 442.00
30 Government Agency
SwedenCluster Platform 3000 BL460c,Xeon 53xx 2.66GHz, Infiniband / 2007
Hewlett-Packard 13728 102.80 146.43
31 ComputerNetwork Information Center, Chinese Academy of Science
China DeepComp 7000, HS21/x3950Cluster,Xeon QC HT 3 GHz/2.93 GHz, Infiniband / 2008
Lenovo 12216 102.80 145.97
32 Lawrence LivermoreNational Laboratory
United States Hera - Appro Xtreme-X3 Server -QuadOpteronQuadCore 2.3 GHz, Infiniband / 2009
ApproInternational 13552 102.20 127.20
33Max-Planck-Gesellschaft MPI/IPP
GermanyVIP -Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 6720 98.24 126.34 1073.99
34Pacific NorthwestNational Laboratory
United States Chinook -Cluster Platform 4000 DL185G5,Opteron QC 2.2 GHz, InfinibandDDR / 2008
Hewlett-Packard 18176 97.07 159.95
35 IT Service Provider
GermanyCluster Platform 3000 BL2x220, E54xx 3.0 Ghz, Infiniband / 2009
Hewlett-Packard 10240 94.74 122.88
France Frontier2 BG/L -Blue Gene/P Solution / 2008
37IBM Thomas J. Watson Research Center
United States BGW - eServerBlue Gene Solution / 2005
IBM 40960 91.29 114.69 448.00
38 Commissariat a l'EnergieAtomique (CEA)/CCRT
FranceCEA-CCRT-Titane - BULL Novascale R422-E2 / 2009
Bull SA 8576 91.19 100.51
39 Naval Oceanographic Office - NAVO MSRC
United States Cray XT5 QC 2.3 GHz / 2008
Cray Inc. 12733 90.84 117.13 588.90
40 Institute of Physical and Chemical Res. (RIKEN)
Japan PRIMERGY RX200S5Cluster,Xeon X5570 2.93GHz, InfinibandDDR / 2009
Fujitsu 8256 87.89 96.76
41 GSIC Center,Tokyo Institute of Technology
Japan TSUBAME GridCluster with CompView TSUBASA -SunFire x4600/x6250,Opteron 2.4/2.6 GHz,Xeon E5440 2.833 GHz, ClearSpeed CSX600,nVidia GT200; Voltaire Infiniband / 2009
NEC/Sun 31024 87.01 163.19 1103.00
42 Information Technology Center, The University ofTokyo
Japan T2KOpenSupercomputer (Todai CombinedCluster) -HitachiClusterOpteron QC 2.3 GHz, Myrinet10G / 2008
Hitachi 12288 82.98 113.05 638.60
43 HLRNat Universitaet Hannover / RRZN
GermanySGIAltixICE 8200EX,Xeon X5570quadcore 2.93 GHz / 2009
SGI 7680 82.57 90.01
44 HLRNat ZIB/Konrad Zuse-Zentrum fuer Informationstechnik
GermanySGIAltixICE 8200EX,Xeon X5570quadcore 2.93 GHz / 2009
SGI 7680 82.57 90.01
45 StonyBrook/BNL,New York Center for Computational Sciences
United StatesNew YorkBlue - eServerBlue Gene Solution / 2007
IBM 36864 82.16 103.22 403.20
46 CINECA
ItalyPower 575, p6 4.7 GHz, Infiniband / 2009
IBM 5376 78.68 101.07 859.19
47 Center for Computational Sciences, University of Tsukuba
Japan T2KOpenSupercomputer - Appro Xtreme-X3 Server -QuadOpteronQuadCore 2.3 GHz, Infiniband / 2009
ApproInternational 10368 77.28 95.39 671.80
48 US Army Research Laboratory (ARL)
United States Cray XT5 QC 2.3 GHz / 2008
Cray Inc. 10400 76.80 95.68 481.00
49CSC (Center for Scientific Computing)
Finland Cray XT5/XT4 QC 2.3 GHz / 2009
Cray Inc. 10864 76.51 102.00 520.80
50 DOE/NNSA/LLNL
United StatesASC Purple - eServer pSeries p5 575 1.9 GHz / 2006
IBM 12208 75.76 92.78 1992.96
51National Centers for Environment Prediction
United StatesPower 575, p6 4.7 GHz, Infiniband / 2008
IBM 4992 73.06 93.85 797.82
52 Rensselaer Polytechnic Institute, Computational Center for Nanotechnology Innovations
United States eServerBlue Gene Solution / 2007
IBM 32768 73.03 91.75 358.40
53 Naval Oceanographic Office - NAVO MSRC
United StatesPower 575, p6 4.7 GHz, Infiniband / 2008
54 JointSupercomputer Center
Russia MVS-100K -Cluster Platform 3000 BL460c/BL2x220,Xeon 54xx 3 Ghz, Infiniband / 2008
Hewlett-Packard 7920 71.28 95.04 327.00
55 US Army Research Laboratory (ARL)
United StatesSGIAltixICE 8200 Enhanced LX,Xeon X5560quadcore 2.8 GHz / 2009
SGI 6656 70.00 74.55
56 NCSA
United States Abe -PowerEdge 1955, 2.33 GHz, Infiniband,Windows Server 2008/Red Hat Enterprise Linux 4 / 2007
Dell 9600 68.48 89.59
57 Cray Inc.
United StatesShark - Cray XT5 QC 2.4 GHz / 2009
Cray Inc. 8576 67.76 82.33
58NASA/Ames Research Center/NAS
United States Columbia -SGIAltix 1.5/1.6/1.66 GHz, Voltaire Infiniband / 2008
SGI 13824 66.57 82.94
59 University of Minnesota/Supercomputing Institute
United StatesCluster Platform 3000 BL280c G6,Xeon X55xx 2.8Ghz, Infiniband / 2009
Hewlett-Packard 8048 64.00 90.14
60 BarcelonaSupercomputing Center
Spain MareNostrum -BladeCenter JS21Cluster,PPC 970, 2.3 GHz, Myrinet / 2006
IBM 10240 63.83 94.21
61 DOE/NNSA/LANL
United States Cerrillos -BladeCenter QS22/LS21Cluster,PowerXCell 8i 3.2 Ghz /OpteronDC 1.8 GHz, Infiniband / 2008
IBM 7200 63.25 80.93 138.00
62IBM Poughkeepsie Benchmarking Center
United StatesBladeCenter QS22/LS21Cluster,PowerXCell 8i 3.2 Ghz /OpteronDC 1.8 GHz, Infiniband / 2008
IBM 7200 63.25 80.93 138.00
63National Centers for Environment Prediction
United StatesPower 575, p6 4.7 GHz, Infiniband / 2009
IBM 4224 61.82 79.41 675.08
64 NCAR (National Center forAtmospheric Research)
United Statesbluefire -Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 4064 59.68 76.40 649.51
65National Institute for Fusion Science (NIFS)
Japan Plasma Simulator -Hitachi SR16000Model L2,Power6 4.7Ghz, Infiniband / 2009
Hitachi 4096 56.65 77.00 645.00
66Leibniz Rechenzentrum
Germany HLRB-II -Altix 4700 1.6 GHz / 2007
SGI 9728 56.52 62.26 990.24
67 ERDC MSRC
United States Jade - Cray XT4QuadCore 2.1 GHz / 2008
Cray Inc. 8464 56.25 71.10 418.97
68 University ofEdinburgh
UnitedKingdom HECToR - Cray XT4, 2.8 GHz / 2007
Cray Inc. 11328 54.65 63.44
69 University ofTokyo/Human Genome Center, IMS
JapanSHIROKANE -SunBlade x6250,Xeon E5450 3GHz, Infiniband / 2009
Sun Microsystems 5760 54.21 69.12
70 NNSA/SandiaNational Laboratories
United StatesThunderbird -PowerEdge 1850, 3.6 GHz, Infiniband / 2006
Dell 9024 53.00 64.97
71 Commissariat a l'EnergieAtomique (CEA)
France Tera-10 - NovaScale 5160, Itanium2 1.6 GHz,Quadrics / 2006
Bull SA 9968 52.84 63.80
72 IDRIS
FrancePower 575, p6 4.7 GHz, Infiniband / 2008
IBM 3584 52.81 67.38 572.79
73 UnitedKingdom Meteorological Office
UnitedKingdom UKMO B -Power 575, p6 4.7 GHz, Infiniband / 2009
IBM 3520 51.86 66.18 562.60
74 UnitedKingdom Meteorological Office
UnitedKingdom UKMO A -Power 575, p6 4.7 GHz, Infiniband / 2009
IBM 3520 51.86 66.18 562.60
75 Wright-PattersonAir ForceBase/DoDASC
United StatesAltix 4700 1.6 GHz / 2007
SGI 9216 51.44 58.98
76 University of Southern California
United StatesHPC -PowerEdge 1950/SunFire X2200ClusterIntel 53xx 2.33Ghz,Opteron 2.3 Ghz, Myrinet10G / 2009
77 HWW/Universitaet Stuttgart
GermanyBaku -NECHPC 140Rb-1Cluster,Xeon X5560 2.8Ghz, Infiniband / 2009
NEC 5376 50.79 60.21 186.00
78Kyoto University
Japan T2KOpenSupercomputer/Kyodai -FujitsuCluster HX600,OpteronQuadCore, 2.3 GHz, Infiniband / 2008
Fujitsu 6656 50.51 61.24
79 SARA (Stichting Academisch Rekencentrum)
NetherlandsPower 575, p6 4.7 GHz, Infiniband / 2008
IBM 3328 48.93 62.57 531.88
80 SciNet/University of Toronto
CanadaPower 575, p6 4.7 GHz, Infiniband / 2008
IBM 3328 48.93 62.57 531.88
81 IT Service Provider (B)
United StatesCluster Platform 3000 BL460c,Xeon 54xx 3.0GHz, GigEthernet / 2009
Hewlett-Packard 7600 48.14 91.20
82 MoscowState University - Research Computing Center
Russia SKIF MSU - T-Platforms T60,IntelQuadcore 3Mhz, InfinibandDDR / 2008
SKIF/T-Platforms 5000 47.17 60.00 265.00
83NationalSupercomputer Centre (NSC)
Sweden Neolith -Cluster Platform 3000 DL140Cluster,Xeon 53xx 2.33GHz Infiniband / 2008
Hewlett-Packard 6440 47.03 60.02
84IBM - Rochester
United StatesBlue Gene/P Solution / 2007
IBM 16384 46.83 55.71 126.00
85IBM Thomas J. Watson Research Center
United StatesBlue Gene/P Solution / 2009
IBM 16384 46.83 55.71 126.00
86Max-Planck-Gesellschaft MPI/IPP
GermanyGenius -Blue Gene/P Solution / 2008
IBM 16384 46.83 55.71 126.00
87 Texas Advanced Computing Center/Univ. of Texas
United States Lonestar -PowerEdge 1955, 2.66 GHz, Infiniband / 2007
Dell 5848 46.73 62.22
88HPC2N - Umea University
Sweden Akka -BladeCenter HS21Cluster,Xeon QC HT 2.5 GHz, IB,WindowsHPC 2008/CentOS / 2008
IBM 5376 46.04 53.76 173.21
89 Clemson University
United States Palmetto -PowerEdge 1950/SunFire X2200ClusterIntel 53xx/54xx 2.33Ghz,Opteron 2.3 Ghz, Myrinet10G / 2008
Dell/Sun 6120 45.61 56.55 285.00
90 Financial Services (H)
United StatesCluster Platform 3000 BL460cG1,Xeon L5420 2.5 GHz, GigE / 2009
Hewlett-Packard 8312 43.75 83.12
91 OhioSupercomputer Center
United States xSeriesx3455ClusterOpteron,DC 2.6 GHz/QC 2.5 GHz, Infiniband / 2009
IBM 8416 43.46 68.38
92 Consulting (C)
United StatesCluster Platform 3000 BL460cG1,Xeon E5450 3.0 GHz, GigE / 2009
Hewlett-Packard 6768 43.00 81.22
93National Institute for Materials Science
JapanSGIAltixICE 8200EX,Xeon X5560quadcore 2.8 GHz / 2009
SGI 4096 42.69 45.88
94 IT Service Provider (D)
United StatesCluster Platform 3000 BL460c,Xeon 54xx 3.0GHz, GigEthernet / 2009
Hewlett-Packard 6672 42.41 80.06
95 Maui High-Performance Computing Center (MHPCC)
United StatesJaws -PowerEdge 1955, 3.0 GHz, Infiniband / 2006
Dell 5200 42.39 62.40
96 Commissariat a l'EnergieAtomique (CEA)
FranceCEA-CCRT-Platine - Novascale 3045, Itanium2 1.6 GHz, Infiniband / 2007
Bull SA 7680 42.13 49.15
97 US Army Research Laboratory (ARL)
United States Michael J. MuussCluster (MJM) - Evolocity II (LSSupersystem)Xeon 51xx 3.0 GHz IB / 2007
Linux Networx 4416 40.61 52.99
98 University of Bergen
Norway Cray XT4QuadCore 2.3 GHz / 2008
Cray Inc. 5550 40.59 51.06 274.73
99 Jeraisy Computer and Communication Services
Saudia ArabiaCluster Platform 3000 BL460c,Xeon 54xx 3 GHz, Infiniband / 2009
Hewlett-Packard 4192 39.70 50.30
100 R-Systems
United States R Smarr -DellDCS CS23-SH, QC HT 2.8 GHz, Infiniband / 2008
Dell 4608 39.58 51.61
Pentium4だと別スレッドの実行待ちで止まられた時なんか恥ずかしいww
下向いちゃうしww
せめて普通にCore 2 DuoやPhenomぐらいは使って欲しい。
常識的に考えて欲しいだけなんです!
Pentium4とかで仮想PCした時の動作の遅さとか分かる?
あのね?たとえば週末10??20人ぐらいでチャットとかするでしょ?
みんな普通にAthron 64FXやOpteronやXeonやCore 2 Extreamでするわけでしょ?
Pentium4でノロノロ文字打ってたら大恥かくでしょうがww