Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「Opteron」を含む日記RSS

はてなキーワード:Opteronとは

2025-01-27

anond:20250127011930

2009年ごろの記事だけどコスパマルチCPU選択肢になったみたい

http://shikakumaniatoistds.blog57.fc2.com/blog-entry-254.html

4コアPhenomと4コア*2のOpteronが近い値段

でもマザーボードは高いしメモリサーバー用なのでちょっと高くつく

Permalink |記事への反応(0) | 06:18

このエントリーをはてなブックマークに追加ツイートシェア

2022-12-04

2位とはなんだったのか

2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問発言で非常に曰く付きとなったアレだ。

ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたか理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である

ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか

アーキテクチャ

初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ)計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構地球シミュレータが、NECのSXシリーズベースにしたベクトル型であり、ベクトル型のスーパーコンピュータ日本お家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界スーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業負担が高額になることを嫌い、NEC日立撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。

CPUはというと、世界スーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャCPUが既に多くなってきていた中、富士通SPARC64VIIIfxを採用した。よく国産CPU表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通サイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。

目標性能

計画2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標10P FLOPSと示した[4]。稼働開始は2010年2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しか日進月歩の分野で5年は結果的に長かった。

さて、前述のように、ベクトル陣営2009年5月撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態10P FLOPSのあてはいつついたのだろうか? 2009年7月報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。

強すぎたライバルたち

遡ること半年2009年2月3日米国国家安全保障局(NNSA)はIBMと新しいスーパーコンピュータSequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年2012年。京の1年も前になる可能性があるという。

そう、双方が計画通りなら、京は2012年提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年ベンチマークだけでも「トップを取った」という実績を残したいわけである

さて、その後のSequoiaはというと?

ある意味計画通りだろう、2012年提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書ラストのような展開だ。しかも、SequoiaIBMPowerアーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMDOpteronNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。

事業仕分け

さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。

さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMSequoiaに追い抜かされることが見えていた。TitanはGPU調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoia意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。

共同事業者撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りから疑問符が付くグダグダプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPUソフトウェア新規制作税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータCPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。

達成できたこと、できなかったこ

さて、京は何を達成したのだろうか? 京は完成前ではあるものベンチマーク実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダからして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。

では目標産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータPRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター豪州 NCI、英国HPCWalesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。

消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとあるSequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。

費用面はどうだろうか。これもライバル比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。


纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。

さいごに

近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWS名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本方向性を間違ってしまったのではないか。私は、そんな気がしてならない。


[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf

[2]ttp://www.nec.co.jp/press/ja/0905/1402.html

[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/

[4]ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html

[5] ttps://www.top500.org/lists/top500/2007/06/

[6]ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf

[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer

[8] ttps://www.top500.org/lists/top500/2012/06/

[9] ttps://www.top500.org/lists/top500/2012/11/

[10] ttps://www.top500.org/lists/top500/2011/06/

[11] ttps://www.top500.org/lists/top500/2011/11/

[12] ttps://www.riken.jp/pr/news/2012/20120927/

[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107

[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html

[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html

[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html

[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html

[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html

[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html

[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html

[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html

[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf

[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/

[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html

[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365

[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud

Permalink |記事への反応(2) | 17:40

このエントリーをはてなブックマークに追加ツイートシェア

2020-02-01

読み方

あってるかわからない

PC3-12800 (DDR3-1600) DDR3SDRAM

ぴーしーすりー いちまんにせんはっぴゃく (でぃーでぃーあーるすりー せんろっぴゃく) でぃーでぃーあーるすりー えすでぃーらむ

DRDRAM

でぃーあーるでぃーらむ

SerialATA

しりあるえーてぃーえー

SATA

えすえーてぃーえー

SAS

さす

Xeon

じーおん

Itanium

あいてにあむ

Core i7-9700K

こあ あいせぶん きゅうせんななひゃくけー

Athlon 64 X2

あすろん ろくよん えっくすつー

Opteron

おぷてろん

M.2 NVMeSSD

えむつー えぬぶいえむいー えすえすでぃー

NAND

なんど

NOR

のあ

Maxtor

まっくすとあ

Matrox

まとろっくす

RADEON

らでぃおん

GeForce

じーふぉーす

ASUS

えいすーす

Permalink |記事への反応(0) | 00:23

このエントリーをはてなブックマークに追加ツイートシェア

2010-09-18

http://anond.hatelabo.jp/20100918202127

なんか、AMDOpteronを1000個ロット単位で発注とか、当時結構がんばってるんでなかったっけ?

データセンターも当時は自前でやってたし。がんばってるんだと思うよ。

実際、稼働率犠牲にしても良いんだったら、なんでもできる。 

稼働率メンテナンス性を犠牲にしないで、サービスを作るから難しい。 メンテナンス考えると出来ないことが増えてくるからね。

Permalink |記事への反応(0) | 23:22

このエントリーをはてなブックマークに追加ツイートシェア

2009-12-01

http://anond.hatelabo.jp/20091129223310

計算する問題が分割されたままで良い、という領域においては当然そうなる。分割したもの同士が相互作用しないのなら。

残念ながらシミュレーション系においてはそらGRAPEが扱うなかでもごくごく一部ぐらいだけがそうで(普通は共有メモリ内で参照できるからそんな高いコストを払わなくて良い)、それ以外はメッシュだろうが格子だろうがIBだろうが最低でも隣接する領域との相互作用計算のための共有メモリ外との通信が発生する。

スケールアウトできないのはものすごく雑に言うと、

・扱う問題が原理的に向いてない

計算機同士のインターコネクトが今でも遅すぎるのにこれ以上遅くしたらまさに演算系の無駄

ってとこがものすごく大きい。

評価・統合などなどまあ使う方式で言い方も使い方もいろいろあるけど、分割しただけで統合したりする処理が要らないんだったら、まさにRoadrunnerOpteronブレード部分は無用だよ。計算するだけならCellブレードとインターコネクトボードがあればいい。だがOpteronを使わなきゃいけない(というわけでも無いんだけどあれぐらいの処理能力メモリバンドローカルメモリバランス的に欲しい)というところに何かがあると感じてくれ。これをかいてる自分増田は定量的に~とか言われると式をグダグダ書き連ねないと説明できない低脳なので。

長大ジョブを投入して計算中でも、計算を止めないままノードごと別のノードに引き継がせて、そのノードを捨てたり点検したり、ってのは超大規模クラスタではもちろんある。

脱線するが、x86は縮退させにくいとか、信頼性が足りないとかいうのも最近みかけるけどそんなことはない。x86だからということはないし、ノード設計ジョブの入れ方できまるようなもの。あとすべてのノードVMにのせてジョブを続けながらLive Migrationした実証実験なんてのもある。x86系コア・メモリのRAS機能は充実してきてるとはいえまだ足りないが、RAS機能がホントに重要ならPOWERベースにすれば実績と性能の点で申し分ない。x86の出自云々をいうならsparcだって出自がアレだしね。zシリーズにまで同一コアが使われるPOWERとは違う。脱線終わり)

それにスケールアップといったときに地球シミュレータの例はあまり適切ではないとおもう。アレは元々いろいろとアップグレードしにくいシステムだったし。

どうせならアップグレードしやすいCray XT5や、今度のXT6あたりで比較しよう。ちょうどJaguarのコアアップグレードは4Phaseにわけて実行された。

http://www.nccs.gov/computing-resources/jaguar/road-map/

コアの入れ替えだけなんでかかった費用は支援費の二千万ドル含んで数千万ドル(ちょっと語弊があるけど)。

あとJaguarはNCCSの配下にあるというのは一つの特徴だろう。利用時のスケジュールポリシーなんかもほぼ全部載ってるので、読んでみるといいよ。ちなみにNCCSのトップページにはいつも今配下のクラスタに投入されてるジョブがでてる。

ついでにGoogleシステムパソコンベースって言って良いのかわからないぐらい特化してるよ。だから省電力でもある。それを安く調達するのはまさに規模の経済

ToRスイッチを完成品じゃなくてBroadcomからチップ買って自前で専用のスイッチつくっちゃうのも規模の力。

最近いろんなところで引き合いに出されるNACCのGPUクラスタコスト面とアルゴリズムで比較対象にもいい。簡単にいうと「苦手」なものを対象としないことで他の問題に最適化したのが濱田先生のところのチームがつくったクラスタ。特性を把握して性能を引き出して、実際に運用したという意味でとても良い研究なんだけど、故に超大規模クラスタとかで走らせることになる巨大CFDモデルなんかは対象外のシステムだ。

だから最近スパコンうんたらかんたらとやらでNACCの話を持ち出してる記事やらエントリやらを見かけたら、そこに書かれてることは無視するといい。持ち出してくる奴は、基本からして間違ってるか何でも繋げればスケールアウトすると勘違いさせたがってるだろうから。

Permalink |記事への反応(0) | 03:57

このエントリーをはてなブックマークに追加ツイートシェア

2009-11-14

Top500

Rank Site Computer/Year VendorCores Rmax RpeakPower1 DOE/NNSA/LANL

United StatesRoadrunner -BladeCenter QS22/LS21Cluster,PowerXCell 8i 3.2 Ghz /OpteronDC 1.8 GHz, Voltaire Infiniband / 2008

IBM 129600 1105.00 1456.70 2483.47

2Oak RidgeNational Laboratory

United StatesJaguar - Cray XT5 QC 2.3 GHz / 2008

Cray Inc. 150152 1059.00 1381.40 6950.60

3 Forschungszentrum Juelich (FZJ)

Germany JUGENE -Blue Gene/P Solution / 2009

IBM 294912 825.50 1002.70 2268.00

4NASA/Ames Research Center/NAS

United StatesPleiades -SGIAltixICE 8200EX,Xeon QC 3.0/2.66 GHz / 2008

SGI 51200 487.01 608.83 2090.00

5 DOE/NNSA/LLNL

United StatesBlueGene/L - eServerBlue Gene Solution / 2007

IBM 212992 478.20 596.38 2329.60

6National Institute for Computational Sciences/University of Tennessee

United States Kraken XT5 - Cray XT5 QC 2.3 GHz / 2008

Cray Inc. 66000 463.30 607.20

7 ArgonneNational Laboratory

United StatesBlue Gene/P Solution / 2007

IBM 163840 458.61 557.06 1260.00

8 Texas Advanced Computing Center/Univ. of Texas

United States Ranger -SunBlade x6420,Opteron QC 2.3 Ghz, Infiniband / 2008

Sun Microsystems 62976 433.20 579.38 2000.00

9 DOE/NNSA/LLNL

United StatesDawn -Blue Gene/P Solution / 2009

IBM 147456 415.70501.35 1134.00

10 Forschungszentrum Juelich (FZJ)

Germany JUROPA -Sun Constellation, NovaScale R422-E2,IntelXeon X5570, 2.93 GHz,SunM9/Mellanox QDR Infiniband/Partec Parastation / 2009

Bull SA 26304 274.80 308.28 1549.00

11 NERSC/LBNL

United States Franklin - Cray XT4QuadCore 2.3 GHz / 2008

Cray Inc. 38642 266.30 355.51 1150.00

12Oak RidgeNational Laboratory

United StatesJaguar - Cray XT4QuadCore 2.1 GHz / 2008

Cray Inc. 30976 205.00 260.20 1580.71

13 NNSA/SandiaNational Laboratories

United StatesRed Storm - Sandia/ CrayRed Storm, XT3/4, 2.4/2.2 GHz dual/quadcore / 2008

Cray Inc. 38208 204.20 284.00 2506.00

14King Abdullah University of Science and Technology

Saudia ArabiaShaheen -Blue Gene/P Solution / 2009

IBM 65536 185.17 222.82 504.00

15ShanghaiSupercomputer Center

China MagicCube -Dawning 5000A, QCOpteron 1.9 Ghz, Infiniband,WindowsHPC 2008 / 2008

Dawning 30720 180.60 233.47

16 SciNet/University of Toronto

Canada GPC - iDataPlex,Xeon E55xx QC 2.53 GHz, GigE / 2009

IBM 30240 168.60 306.03 869.40

17 NewMexico Computing Applications Center (NMCAC)

United States Encanto -SGIAltixICE 8200,Xeonquadcore 3.0 GHz / 2007

SGI 14336 133.20 172.03 861.63

18 Computational Research Laboratories, TATA SONS

India EKA -Cluster Platform 3000 BL460c,Xeon 53xx 3GHz, Infiniband / 2008

Hewlett-Packard 14384 132.80 172.61 786.00

19 Lawrence LivermoreNational Laboratory

United States Juno - Appro XtremeServer 1143H,Opteron QC 2.2Ghz, Infiniband / 2008

ApproInternational 18224 131.60 162.20

20 Grand EquipementNational de Calcul Intensif - Centre InformatiqueNational de l'EnseignementSupérieur (GENCI-CINES)

France Jade -SGIAltixICE 8200EX,Xeonquadcore 3.0 GHz / 2008

SGI 12288 128.40 146.74 608.18

21National Institute for Computational Sciences/University of Tennessee

United StatesAthena - Cray XT4QuadCore 2.3 GHz / 2008

Cray Inc. 17956 125.13 165.20 888.82

22Japan Agency for Marine -Earth Science and Technology

JapanEarth Simulator -Earth Simulator / 2009

NEC 1280 122.40 131.07

23 Swiss Scientific Computing Center (CSCS)

Switzerland Monte Rosa - Cray XT5 QC 2.4 GHz / 2009

Cray Inc. 14740 117.60 141.50

24 IDRIS

FranceBlue Gene/P Solution / 2008

IBM 40960 116.01 139.26 315.00

25 ECMWF

UnitedKingdomPower 575, p6 4.7 GHz, Infiniband / 2009

IBM 8320 115.90 156.42 1329.70

26 ECMWF

UnitedKingdomPower 575, p6 4.7 GHz, Infiniband / 2008

IBM 8320 115.90 156.42 1329.70

27 DKRZ - Deutsches Klimarechenzentrum

GermanyPower 575, p6 4.7 GHz, Infiniband / 2008

IBM 8064 115.90 151.60 1288.69

28JAXA

JapanFujitsu FX1,Quadcore SPARC64VII 2.52 GHz, InfinibandDDR / 2009

Fujitsu 12032 110.60 121.28

29 Total Exploration Production

FranceSGIAltixICE 8200EX,Xeonquadcore 3.0 GHz / 2008

SGI 10240 106.10 122.88 442.00

30 Government Agency

SwedenCluster Platform 3000 BL460c,Xeon 53xx 2.66GHz, Infiniband / 2007

Hewlett-Packard 13728 102.80 146.43

31 ComputerNetwork Information Center, Chinese Academy of Science

China DeepComp 7000, HS21/x3950Cluster,Xeon QC HT 3 GHz/2.93 GHz, Infiniband / 2008

Lenovo 12216 102.80 145.97

32 Lawrence LivermoreNational Laboratory

United States Hera - Appro Xtreme-X3 Server -QuadOpteronQuadCore 2.3 GHz, Infiniband / 2009

ApproInternational 13552 102.20 127.20

33Max-Planck-Gesellschaft MPI/IPP

GermanyVIP -Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 6720 98.24 126.34 1073.99

34Pacific NorthwestNational Laboratory

United States Chinook -Cluster Platform 4000 DL185G5,Opteron QC 2.2 GHz, InfinibandDDR / 2008

Hewlett-Packard 18176 97.07 159.95

35 IT Service Provider

GermanyCluster Platform 3000 BL2x220, E54xx 3.0 Ghz, Infiniband / 2009

Hewlett-Packard 10240 94.74 122.88

36EDF R&D

France Frontier2 BG/L -Blue Gene/P Solution / 2008

IBM 32768 92.96 111.41 252.00

37IBM Thomas J. Watson Research Center

United States BGW - eServerBlue Gene Solution / 2005

IBM 40960 91.29 114.69 448.00

38 Commissariat a l'EnergieAtomique (CEA)/CCRT

FranceCEA-CCRT-Titane - BULL Novascale R422-E2 / 2009

Bull SA 8576 91.19 100.51

39 Naval Oceanographic Office - NAVO MSRC

United States Cray XT5 QC 2.3 GHz / 2008

Cray Inc. 12733 90.84 117.13 588.90

40 Institute of Physical and Chemical Res. (RIKEN)

Japan PRIMERGY RX200S5Cluster,Xeon X5570 2.93GHz, InfinibandDDR / 2009

Fujitsu 8256 87.89 96.76

41 GSIC Center,Tokyo Institute of Technology

Japan TSUBAME GridCluster with CompView TSUBASA -SunFire x4600/x6250,Opteron 2.4/2.6 GHz,Xeon E5440 2.833 GHz, ClearSpeed CSX600,nVidia GT200; Voltaire Infiniband / 2009

NEC/Sun 31024 87.01 163.19 1103.00

42 Information Technology Center, The University ofTokyo

Japan T2KOpenSupercomputer (Todai CombinedCluster) -HitachiClusterOpteron QC 2.3 GHz, Myrinet10G / 2008

Hitachi 12288 82.98 113.05 638.60

43 HLRNat Universitaet Hannover / RRZN

GermanySGIAltixICE 8200EX,Xeon X5570quadcore 2.93 GHz / 2009

SGI 7680 82.57 90.01

44 HLRNat ZIB/Konrad Zuse-Zentrum fuer Informationstechnik

GermanySGIAltixICE 8200EX,Xeon X5570quadcore 2.93 GHz / 2009

SGI 7680 82.57 90.01

45 StonyBrook/BNL,New York Center for Computational Sciences

United StatesNew YorkBlue - eServerBlue Gene Solution / 2007

IBM 36864 82.16 103.22 403.20

46 CINECA

ItalyPower 575, p6 4.7 GHz, Infiniband / 2009

IBM 5376 78.68 101.07 859.19

47 Center for Computational Sciences, University of Tsukuba

Japan T2KOpenSupercomputer - Appro Xtreme-X3 Server -QuadOpteronQuadCore 2.3 GHz, Infiniband / 2009

ApproInternational 10368 77.28 95.39 671.80

48 US Army Research Laboratory (ARL)

United States Cray XT5 QC 2.3 GHz / 2008

Cray Inc. 10400 76.80 95.68 481.00

49CSC (Center for Scientific Computing)

Finland Cray XT5/XT4 QC 2.3 GHz / 2009

Cray Inc. 10864 76.51 102.00 520.80

50 DOE/NNSA/LLNL

United StatesASC Purple - eServer pSeries p5 575 1.9 GHz / 2006

IBM 12208 75.76 92.78 1992.96

51National Centers for Environment Prediction

United StatesPower 575, p6 4.7 GHz, Infiniband / 2008

IBM 4992 73.06 93.85 797.82

52 Rensselaer Polytechnic Institute, Computational Center for Nanotechnology Innovations

United States eServerBlue Gene Solution / 2007

IBM 32768 73.03 91.75 358.40

53 Naval Oceanographic Office - NAVO MSRC

United StatesPower 575, p6 4.7 GHz, Infiniband / 2008

IBM 4896 71.66 92.04 782.48

54 JointSupercomputer Center

Russia MVS-100K -Cluster Platform 3000 BL460c/BL2x220,Xeon 54xx 3 Ghz, Infiniband / 2008

Hewlett-Packard 7920 71.28 95.04 327.00

55 US Army Research Laboratory (ARL)

United StatesSGIAltixICE 8200 Enhanced LX,Xeon X5560quadcore 2.8 GHz / 2009

SGI 6656 70.00 74.55

56 NCSA

United States Abe -PowerEdge 1955, 2.33 GHz, Infiniband,Windows Server 2008/Red Hat Enterprise Linux 4 / 2007

Dell 9600 68.48 89.59

57 Cray Inc.

United StatesShark - Cray XT5 QC 2.4 GHz / 2009

Cray Inc. 8576 67.76 82.33

58NASA/Ames Research Center/NAS

United States Columbia -SGIAltix 1.5/1.6/1.66 GHz, Voltaire Infiniband / 2008

SGI 13824 66.57 82.94

59 University of Minnesota/Supercomputing Institute

United StatesCluster Platform 3000 BL280c G6,Xeon X55xx 2.8Ghz, Infiniband / 2009

Hewlett-Packard 8048 64.00 90.14

60 BarcelonaSupercomputing Center

Spain MareNostrum -BladeCenter JS21Cluster,PPC 970, 2.3 GHz, Myrinet / 2006

IBM 10240 63.83 94.21

61 DOE/NNSA/LANL

United States Cerrillos -BladeCenter QS22/LS21Cluster,PowerXCell 8i 3.2 Ghz /OpteronDC 1.8 GHz, Infiniband / 2008

IBM 7200 63.25 80.93 138.00

62IBM Poughkeepsie Benchmarking Center

United StatesBladeCenter QS22/LS21Cluster,PowerXCell 8i 3.2 Ghz /OpteronDC 1.8 GHz, Infiniband / 2008

IBM 7200 63.25 80.93 138.00

63National Centers for Environment Prediction

United StatesPower 575, p6 4.7 GHz, Infiniband / 2009

IBM 4224 61.82 79.41 675.08

64 NCAR (National Center forAtmospheric Research)

United Statesbluefire -Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 4064 59.68 76.40 649.51

65National Institute for Fusion Science (NIFS)

Japan Plasma Simulator -Hitachi SR16000Model L2,Power6 4.7Ghz, Infiniband / 2009

Hitachi 4096 56.65 77.00 645.00

66Leibniz Rechenzentrum

Germany HLRB-II -Altix 4700 1.6 GHz / 2007

SGI 9728 56.52 62.26 990.24

67 ERDC MSRC

United States Jade - Cray XT4QuadCore 2.1 GHz / 2008

Cray Inc. 8464 56.25 71.10 418.97

68 University ofEdinburgh

UnitedKingdom HECToR - Cray XT4, 2.8 GHz / 2007

Cray Inc. 11328 54.65 63.44

69 University ofTokyo/Human Genome Center, IMS

JapanSHIROKANE -SunBlade x6250,Xeon E5450 3GHz, Infiniband / 2009

Sun Microsystems 5760 54.21 69.12

70 NNSA/SandiaNational Laboratories

United StatesThunderbird -PowerEdge 1850, 3.6 GHz, Infiniband / 2006

Dell 9024 53.00 64.97

71 Commissariat a l'EnergieAtomique (CEA)

France Tera-10 - NovaScale 5160, Itanium2 1.6 GHz,Quadrics / 2006

Bull SA 9968 52.84 63.80

72 IDRIS

FrancePower 575, p6 4.7 GHz, Infiniband / 2008

IBM 3584 52.81 67.38 572.79

73 UnitedKingdom Meteorological Office

UnitedKingdom UKMO B -Power 575, p6 4.7 GHz, Infiniband / 2009

IBM 3520 51.86 66.18 562.60

74 UnitedKingdom Meteorological Office

UnitedKingdom UKMO A -Power 575, p6 4.7 GHz, Infiniband / 2009

IBM 3520 51.86 66.18 562.60

75 Wright-PattersonAir ForceBase/DoDASC

United StatesAltix 4700 1.6 GHz / 2007

SGI 9216 51.44 58.98

76 University of Southern California

United StatesHPC -PowerEdge 1950/SunFire X2200ClusterIntel 53xx 2.33Ghz,Opteron 2.3 Ghz, Myrinet10G / 2009

Dell/Sun 7104 51.41 65.64

77 HWW/Universitaet Stuttgart

GermanyBaku -NECHPC 140Rb-1Cluster,Xeon X5560 2.8Ghz, Infiniband / 2009

NEC 5376 50.79 60.21 186.00

78Kyoto University

Japan T2KOpenSupercomputer/Kyodai -FujitsuCluster HX600,OpteronQuadCore, 2.3 GHz, Infiniband / 2008

Fujitsu 6656 50.51 61.24

79 SARA (Stichting Academisch Rekencentrum)

NetherlandsPower 575, p6 4.7 GHz, Infiniband / 2008

IBM 3328 48.93 62.57 531.88

80 SciNet/University of Toronto

CanadaPower 575, p6 4.7 GHz, Infiniband / 2008

IBM 3328 48.93 62.57 531.88

81 IT Service Provider (B)

United StatesCluster Platform 3000 BL460c,Xeon 54xx 3.0GHz, GigEthernet / 2009

Hewlett-Packard 7600 48.14 91.20

82 MoscowState University - Research Computing Center

Russia SKIF MSU - T-Platforms T60,IntelQuadcore 3Mhz, InfinibandDDR / 2008

SKIF/T-Platforms 5000 47.17 60.00 265.00

83NationalSupercomputer Centre (NSC)

Sweden Neolith -Cluster Platform 3000 DL140Cluster,Xeon 53xx 2.33GHz Infiniband / 2008

Hewlett-Packard 6440 47.03 60.02

84IBM - Rochester

United StatesBlue Gene/P Solution / 2007

IBM 16384 46.83 55.71 126.00

85IBM Thomas J. Watson Research Center

United StatesBlue Gene/P Solution / 2009

IBM 16384 46.83 55.71 126.00

86Max-Planck-Gesellschaft MPI/IPP

GermanyGenius -Blue Gene/P Solution / 2008

IBM 16384 46.83 55.71 126.00

87 Texas Advanced Computing Center/Univ. of Texas

United States Lonestar -PowerEdge 1955, 2.66 GHz, Infiniband / 2007

Dell 5848 46.73 62.22

88HPC2N - Umea University

Sweden Akka -BladeCenter HS21Cluster,Xeon QC HT 2.5 GHz, IB,WindowsHPC 2008/CentOS / 2008

IBM 5376 46.04 53.76 173.21

89 Clemson University

United States Palmetto -PowerEdge 1950/SunFire X2200ClusterIntel 53xx/54xx 2.33Ghz,Opteron 2.3 Ghz, Myrinet10G / 2008

Dell/Sun 6120 45.61 56.55 285.00

90 Financial Services (H)

United StatesCluster Platform 3000 BL460cG1,Xeon L5420 2.5 GHz, GigE / 2009

Hewlett-Packard 8312 43.75 83.12

91 OhioSupercomputer Center

United States xSeriesx3455ClusterOpteron,DC 2.6 GHz/QC 2.5 GHz, Infiniband / 2009

IBM 8416 43.46 68.38

92 Consulting (C)

United StatesCluster Platform 3000 BL460cG1,Xeon E5450 3.0 GHz, GigE / 2009

Hewlett-Packard 6768 43.00 81.22

93National Institute for Materials Science

JapanSGIAltixICE 8200EX,Xeon X5560quadcore 2.8 GHz / 2009

SGI 4096 42.69 45.88

94 IT Service Provider (D)

United StatesCluster Platform 3000 BL460c,Xeon 54xx 3.0GHz, GigEthernet / 2009

Hewlett-Packard 6672 42.41 80.06

95 Maui High-Performance Computing Center (MHPCC)

United StatesJaws -PowerEdge 1955, 3.0 GHz, Infiniband / 2006

Dell 5200 42.39 62.40

96 Commissariat a l'EnergieAtomique (CEA)

FranceCEA-CCRT-Platine - Novascale 3045, Itanium2 1.6 GHz, Infiniband / 2007

Bull SA 7680 42.13 49.15

97 US Army Research Laboratory (ARL)

United States Michael J. MuussCluster (MJM) - Evolocity II (LSSupersystem)Xeon 51xx 3.0 GHz IB / 2007

Linux Networx 4416 40.61 52.99

98 University of Bergen

Norway Cray XT4QuadCore 2.3 GHz / 2008

Cray Inc. 5550 40.59 51.06 274.73

99 Jeraisy Computer and Communication Services

Saudia ArabiaCluster Platform 3000 BL460c,Xeon 54xx 3 GHz, Infiniband / 2009

Hewlett-Packard 4192 39.70 50.30

100 R-Systems

United States R Smarr -DellDCS CS23-SH, QC HT 2.8 GHz, Infiniband / 2008

Dell 4608 39.58 51.61

Permalink |記事への反応(0) | 17:38

このエントリーをはてなブックマークに追加ツイートシェア

2008-11-15

彼氏Pentium4を使ってた。別れたい…

Pentium4だと別スレッドの実行待ちで止まられた時なんか恥ずかしいww

下向いちゃうしww

男にはせめてマルチコアCPU使って欲しい・・・

VMwareとかで仮想PC使ったら・・・・もう最悪ww

せめて普通Core 2 DuoPhenomぐらいは使って欲しい。

常識的に考えて欲しいだけなんです!

Pentium4とかで仮想PCした時の動作の遅さとか分かる?

あのね?たとえば週末10??20人ぐらいでチャットとかするでしょ?

それぞれ彼氏PCとかでするわけじゃない?

みんな普通Athron 64FXOpteronXeonやCore 2 Extreamでするわけでしょ?

Pentium4でノロノロ文字打ってたら大恥かくでしょうがww

http://anond.hatelabo.jp/20081111000645

Permalink |記事への反応(0) | 09:45

このエントリーをはてなブックマークに追加ツイートシェア

 
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp