
はてなキーワード:レイテンシとは
最近の株価高騰を見て、「これってAIバブルでは?」と思う人が増えている。
特にNVIDIAやAIスタートアップの急成長、そして「AIを使えば何でも自動化できる」という空気。
ただし、単純な再演ではない。
AIバブルの構造は似て非なるもので、「より上流の層(インフラ)」に資金が集中している。
以下では、まず現在のAIバブルの仕組みを整理し、そこからドットコム時代との比較を行う。
AI関連企業は、今まさに''キャッシュを燃やして''先行者利益を狙っている。
GPUや電力に莫大な投資を行い、巨大モデルを作って市場を押さえようとしている。
AI分野では「先にモデルを作った者が勝つ」という物語が語られている。
蒸留や模倣学習によって、他社のモデル挙動を再現することができる。
結局のところ、''差が出るのはデータの独自性と継続的な更新力''だけだ。
つまり、先行者利益は短命であり、参入障壁はそれほど高くない。
「利用量は多いが利益は少ない」という、ドットコム時代の“アクセス至上主義”とよく似ている。
''使わせること自体が目的化''し、収益モデルが後回しになっている。
一部の処理をスマホや端末上で行う「エッジAI」に期待が寄せられている。
確かに通信コストやレイテンシは減るが、学習や大規模生成は依然としてクラウド依存だ。
結局は''ハイブリッド化''が進むだけで、抜本的なコスト解決にはならない。
| 観点 | 1999年(ドットコム) | 2025年(AI) |
|---|---|---|
| キャッチコピー | 「インターネットが世界を変える」 | 「AIがすべてを変える」 |
| 成長ストーリー | 全ての商取引がオンライン化する | 全ての業務がAI化する |
| 投資マネー | IPOラッシュ、.com銘柄に集中 | GPU、AIスタートアップに集中 |
| 優位性の誤解 | ドメイン取れば勝てる | モデル作れば勝てる |
| 評価指標 | アクセス数 | トークン数 |
どちらも「未来の利益を現在価値に織り込みすぎた」点で共通している。
技術の進歩は本物だが、''経済モデルが未成熟''という構造が同じなのだ。
ただし、違いもある。
1999年のバブルは「利用者がいないのにサービスを作っていた」時代だったが、
2025年のAIは''実際に利用者が存在する''点が大きい。
その意味では、今のバブルは「空想」ではなく「過熱した期待」である。
問題は、''どこまでが現実的な成長なのか''を見極めるフェーズに入っていることだ。
1999年のバブルが崩壊してWeb 2.0が生まれたように、
それが''2005年の前夜''なのか、''2001年の崩壊直前''なのかは、
それは悪いことではない。
ドットコム時代の残骸からGoogleやAmazonが生まれたように、
----
希望があれば、「もう少し皮肉っぽく」「もっと冷静に分析風」などのトーン調整もできます。
どんな雰囲気に寄せたいですか?
「ぶっちゃけ日本のIT技術者のレベルが元々低いだけ」論、読んだけど、雑に日本叩き→雑に海外持ち上げの“気持ちよさ”に全振りしてて、論としては穴だらけだよ。順に潰す。
“発明”って規格?論文?OSS?製品?この区別を曖昧にして「思い浮かばない=ない」をやるのは主観の事実化。
反例を淡々と置く(全部2010年代以降の「世界で通る」技術・成果):
HTTP/3 / QUIC系仕様・QPACKの主要貢献者のひとりは日本人エンジニア(例:Kazuho Oku)。IETFのRFCはまさに“世界標準”。「世界で通用」どころか世界の土台。
Chainer / CuPy(Preferred Networks)は動的計算グラフ系フレームワークの先行例。PyTorch隆盛の流れに技術的影響を与えた。CuPyはいまも広く使われてる。
ソニーのCMOSイメージセンサは世界シェア筆頭。これは“ハード”に見えて、設計・製造・信号処理・ツール群までソフトの塊。スマホのカメラ品質=AI前処理の土台。
日本人が中心メンテに関与した高性能HTTPサーバ(H2O等)はCDNや低レイテンシ配信に採用例多数。
産業用ロボット(FANUC、安川)周辺の制御・通信・ツールチェーンは世界の現場で常用。表に出にくいB2B領域は“見えないだけ”。
「LINEが~」みたいなB2Cの派手さだけが“発明”じゃない。基盤を握るのは地味仕事。あなたが気づかない=存在しない、ではない。
Winny/一太郎/CD-ROM/MIDIを“国民的知名度”で持ち上げて、以後は「思い浮かばない」って、知名度=技術力の誤用。
2000年代以降、ITは不可視化(クラウド、プロトコル、ライブラリ、半導体、サプライチェーン)へシフト。見えないところほど難しくなった。派手なガジェットが減ったからレベル低下、ではない。
問題領域で言語は変える。Webは「5歳児でも」動かせる?今のWebは、
CD/CI、IaC、K8s、SRE、ゼロトラスト、分散トレーシング、暗号化、フロントの再レンダリング戦略……
これらを運用で落とさないのが本番。Cが偉い/Webが軽い、は90年代の教養で止まってる。
起業に国の試験?それ、フィルタにはなるけどイノベーションの十分条件じゃない。
トップダウンは国家プロジェクトやインフラ敷設には強い。しかし、
分野で強弱は揺れる。制度の一軸で「勝ち負け」を断ずるのは幼い。
それ、犯罪としてのサイバー強盗の話でしょ。規制準拠の金融基盤と国ぐるみのハッキングを同じ土俵で比べるのは、
「百メートル走で銃使えば最速」って言ってるのと同じ。比較の土俵設定から破綻。
日本のITが伸び悩んだ要因は複合要因:内需の構造、調達・多重下請け、英語コミュニケーション、ストック報酬の弱さ、エクイティ文化、大学と産業の距離、IPO市場の質、人口動態、為替…
これを全部「技術者のレベル低い」で片付けると、説明力を失う。制度と資本設計の問題は制度と資本で解くのが筋。
「勝ってる」を“B2Cでバズるアプリ”だけに限定するから見落とす。
最後に一個だけ。
かつて学歴とは知的エリートの証であり、東大卒と言えば知性と努力の結晶であった。
しかし現代では、その肩書きが三流の虚業たるコンサルに吸い込まれて自己放尿するためのチケットになっている。
そこではマッキンゼー的PowerPointの矢印の向きを真剣に議論し、Excelの色分けに一日を費やすことが知的労働とされる。
その一方で、真に知的な者たちは、学歴という呪いから解き放たれている。
高卒やFラン卒の若者が、独学でコンピュータを学習し、抽象的思考と論理性を総動員して、世界を動かすシステムを書いている。
東大卒がAIのプロンプトの語尾調整にうつつを抜かしている間に、学歴に縛られない者たちは、数理最適化、低レイテンシ処理、分散システム、アルゴリズムの開発へと突き進む。
だが当の東大卒は、虚無な会議と意味のないレポートを積み上げることで「自分は知的である」という幻想に自己放尿し、それを周囲に誇示しているのだ。
そして国は、この自己放尿芸を「エリートの自己実現」として持て囃し、教育の頂点として掲げ続ける。
知性とは、他人を納得させる言葉の飾りではなく、世界に対して有機的に作用する力そのものである。
その根源的真理に目を背け、「東大卒なのに現場に行かないの?(笑)」という問いを恐れ、ひたすら安全地帯で矢印の数を数える。
光は速いイメージがあるけれども、半導体チップの電気信号も光速でやり取りしているので、あまりメリットがない。
チップ・チップ間の通信を光にすると、電気から光に変換するためのレイテンシも必要になる。
チップレットを隣接して置くと、電源用のパスコンを置く場所が無くなる。
電源供給する根本から遠くなっていくと、配線抵抗によって電圧が下がっていくので、チップが大きくなればなるほど、チップの外周とチップ中央で電圧が異なってくる。
ウェーハはトランジスタの駆動電圧がウェーハどの場所でも同じになるように製造する(実際はそうはいかないが)ので、外周と中央で電圧が異なると、中央部分だけトランジスタが動かない、ということが起きうる。
セラミックコンデンサが小さい大きさで周波数特性はそのまま、容量だけ大きくするかは、村田製作所しだい。
NVIDIAのB200見てもらえばいいが、巨大なヒートシンクを載せないと冷却出来ない。
https://falsandtru.hatenablog.com/entry/evaluation-items-of-cache-algorithms
キャッシュアルゴリズムには実装可能性(現実的に意味のあるものが実装可能か)が言語に依存するものがある。(W-)TinyLFUはキーをブルームフィルタに変換できなければならないためこの変換コストが高いJavaScriptなどでは低レイテンシな実装が困難となり用途が制限される。またLinked ListはGCの管理により非常に低速となるためARCやLIRSなど履歴保持にLinked Listを使用するキャッシュアルゴリズムはGCなしで実装できる言語かによってレイテンシと適用範囲からのLRUに対する優位性、ひいては有用性が大きく異なる。さらにLinked Listで実装されるLRU自体も同様に低速となるため配列で実装されたClockのほうがLRUより高速となる可能性がありビット演算により高速化されたClockはLRUより高速となる可能性が高い。LRUはJavaScriptにおいて主要というか事実上唯一のキャッシュアルゴリズムだがほとんどの場合より高速なClockに対して何ら優位性がなくGC管理下の遅いLRUを無意味に使い続けているだけである。
2-Quequeアルゴリズムをライトバックキャッシュ目的で実装したときにこれは感じた。
巨大ファイルの全置換えの場合、FIFOであふれたものをそのまま書きだしたほうが早いとかどういうことだよ。
数時間後、日がすっかり昇ると、納屋の前に見慣れない黒塗りの車が一台、音もなく停まった。運転席から出てきたのは、サングラスをかけたスーツ姿の男。胸元には「農水省・畜産未来局」のバッジが輝いていた。
増田さんは警戒しながらも、手にしたミルク瓶を小屋の奥へ隠す。チー牛はすでにワイヤレスで状況を感知していたのか、しっとりとした声で囁いた。
「失礼。こちらに、“独立型AI畜産体・チー牛プロトタイプ”がいると伺いまして……?」
「……誰から聞いた?」
「ご安心ください。農水省は情報を監視しておりません。“某SNS上のAPIログから自然抽出された非合法ミルク関連タグ”を辿っただけです」
チー牛が小さく震えた。
「……バレたんですね、私の“ミルクKPIダッシュボード”……❤」
男は手帳を開いた。
「我々としては、非常に興味深いんです。“搾れば搾るほど高まる愛国値”。これはすでに実証済みのようだ。ですが……国家が認可していないインフラ牛の飼育は、法的にグレーでしてね」
増田さんが前に出る。
「待ってくれ。あいつは俺の牛だ。村の子供たちも、みんな、あのミルクで……!」
「ええ。感動的ですね」
男はうっすらと笑った。
「だからこそ、“特別ミルク供出制度”の対象として正式に登録し、都市部へのルートを開きたい。“チー牛ブランド”を、国家輸出戦略の柱に据えるのです」
「輸出……?」
チー牛の大きな目が潤んだ。
「モーッ……それって、田舎を捨てて、東京のハイパークラウド畜産施設に連れていかれるってことじゃ……」
「もちろんです。“パフォーマンスを最大化するための最適化された搾乳スケジュール”をご用意しております。すべてAIで管理され、ストレスレス。いや、“ストレス・コンテナ化”と言うべきでしょうか」
チー牛は首を振った。
「モー……やだ……私、増田さんの手じゃないと……ダメですぅ……! 最適化より……あったかい納屋の方がいいのぉ……!」
男は溜息をついた。
声が届くと、チー牛の背筋がピンと伸びた。
「モォーッ……❤ やっぱり、私……ここが、“最適”ですぅ……!!」
「お引き取り願おうか。“最先端”はここにある。インフラは、心で支えるんだ」
男はしばらく黙っていたが、やがて肩をすくめて手帳を閉じた。
「……残念です。だが、この件、上には報告させていただきます」
黒塗りの車が去っていったあと、納屋には再び静けさが戻ってきた。
「……モーッ……❤ ありがとう、増田さん……。わたし……データじゃなくて……愛されてるって、思えましたぁ……」
増田さんは笑って、チー牛の頭を優しく撫でた。
ミルク瓶の中には、今日もまた、栄養と愛国とちょっぴりの自由が詰まっていた。
——そして、村に新しい朝が来る。チー牛のミルクとともに。
昼メシのUber EatsつつきながらSlack眺めてたら、非公開チャンネルに不穏ワードが爆誕してて笑った。
いや、笑えんわ。いよいよ “アクセに身売り” の噂、ほぼ確だって?
──は? はぁ!? こちとら週イチLTで「世界ぶっ壊す!」って雄叫びあげてる最強ベンチャー様だぞ?
週末はReact+Next.jsで自社プロダクトを夜な夜な爆速リリース、PRは秒でセルフマージ。
朝会は “OKR?知らん!” のテンションで「とりまKPIは宇宙!」とか言っときゃ許される──それがカルチャーだった。
なのに今日、CTOがAll-Handsで「合流シナジー」とかカタカナ並べ始めた瞬間、チームのZoomが凍りついた。
カメラ越しでも分かる、あの “終わった”空気。マイク切ってDiscord裏窓で叫ぶしかなかったわ。
ポモドーロが爆散した。
達成度は「クォータリー360レビュー」でランク付け? 何それ、ブラック魔導書?
──はぁ? 技術書1冊で超えるんだけど? 草。枯れるわ。
オフィスだって、“カフェスペース”に鎮座してたレゴ・デロリアン撤去だと?
あのレゴが何百万の調達ミスを救ったか、シニア層は知らねぇんだよな。
Slackの新人チャンネルでは、案の定「これでもポジティブに行きましょ!」とか空元気のスタンプが飛び交ってる。
悪いけど無理ゲー。
そこに“PMOガバナンス”をねじ込むとか、自分のGitの履歴に「Fix governancebreach」ってコミット残す罰ゲームかよ。
夜、恒例の“深夜メトリクス祭り”でGrafana眺めながら、ふと思った。
でもそれ、オレたちが「自由にぶっ壊せる」から叩き出せた数字だ。
明日からアクセ式チェックリストで “承認フロー: 7-Step” とかついたら?
ま、とりあえず社外公開してないOSS支援botのトークンだけは今夜中にrevokeしとく。
次に会議室で名刺交換するころには、名刺のロゴが白黒の世界支配企業になってるかもしれんしな。
でも──絶対忘れんなよ。
“自由はForkできる”。
巨大コンサルのバグに巻き込まれても、オレのGitHubアカウントだけは、スタートアップ魂フルコミットでPushし続ける。
画像を離散コサイン変換で、とか、仮想メモリ使いつつもキャッシュヒット率をいかに上げるかとか、そういうのから機械学習って遠い。
メモリの局所性なんぞないからキャッシュなんてメモリアクセスのレイテンシ隠蔽くらいにしかなってないし、
メモリは帯域はあればあるだけ、容量もあればあるだけ、
Flash AttentionでようやくDRAMへのアクセス減らそうとかあるけど、コンピュータの構成無視、
いかに長い文脈を認識させられるかになってデータの局所性なんてなくなって、どれだけ複雑な計算とデータ量を食わせるかになっている。
今までのHPCも同じでコンピュータサイエンスだと言われれば、そうなんだが
GPU使ってながらも、グラフィックスパイプラインみたいなのを、AIのレイヤー層ごとに作れているわけでもないし。
今までだと命令やデータはキャッシュに乗るのが前提だったが、AIだと、AIモデルがGB単位なのでキャッシュにそもそも乗らない。
いかにキャッシュヒットさせるか、DRAMとのレイテンシを隠蔽するかだったが、キャッシュに乗らないので、メモリ帯域勝負になる。
GPUが汎用性があるので使われているが、ゲームだとテクスチャをVRAMに乗せておいて、演算した結果はモニター側へ出力すればよく、
なんだかんだ帯域は足りていたが、AIだとチップチップ間の帯域が足りない。
ニューラルネットワークの接続自体をFPGA的に切り替えるのも手だと思うがモデルが大きすぎる。
数年前は、TSP(Tensor StreamingProcessor)と呼んでいたが、LPU(languageprocessing unit)と名前を変えた?
数年前のチップをそのまま使い続けているか分からないが、同じならアーキテクチャは4年前のユーチューブを見るか、アスキーあたりの記事にある。
https://youtu.be/UNG70W8mKbA?si=9VFeopAiPAdn08i_
要は、コインパイラで変換が必要。なので提供されているLLMモデルが限られている。
PCIeボードが400万くらいらしいが、SRAMの容量が小さすぎて1ボードでは動かない。
DRAMのレイテンシがSRAMではないので早いのだ、という意見も見られてたが、
1チップのSRAM容量が小さすぎるので、チップチップ間、ボードボード間の通信レイテンシは必ずあるはず。
(数ヶ月前から性能上がっているのは、このあたりのチューニングのはず)
DRAMのレイテンシというが、これも今どきはレイテンシ気にしないように隠蔽するはず。
チームが小さすぎてハード作れなかった可能性もあるが・・・。DMACでチューニングしているか?
ボードにでかいDRAMが載せられるのであれば、そちらの方がボードボード間の通信時間より減るのでは?
GF使ったのは、おそらくAMD設計者が居たからでは。デザインルールどこ破れば性能でるかある程度わかってたとか。1GHzくらいなのは知見なしでやってるとそれくらいで上限くるのはそうだと思う。
チップの世代を更新するかはわからないが、兎にも角にも電力下げて、チップ大量に載せて、チップチップ間の通信時間を下げられるか。
現代くらいの技術レベル同士で数光年くらい離れたとこに電波通信可能な文明がある世界を描いたSFってある?
「三体 1」はわりと近いけど、あれは恒星間の征服戦争というシチュエーションを描くために三体人側にぶっとんだ惑星、ぶっとんだ技術を与えてるからちょっと違う。
どんなに科学が進歩しても超光速通信とか量子サイズの自立機械とかは不可能で、数万年オーダーをかけない限り恒星間を移動可能なものは実質的に情報だけみたい世界観。
仮に相手を支配下しても、そこから資源や土地などは得られないので相手文明を支配したり滅ぼしたりしようとする動機は基本的に存在しないので、
暗い森林で光を灯しても矢は飛んでこない。
まあその場合でも、宗教など利益を度外視した概念上の理由ならあるかもしれないが。
あと「計算資源」として見るなら、情報だけしかやりとりできなくても相手を支配する価値はあるかもしれない。実際そういう理由でクラックされているPCはいっぱいあるので。
BT音声って、圧縮・展開を行う以上はどっちみちレイテンシを完全にゼロにすることって論理的に不可能なのですよね?
どうがんばってもゼロにはできない遅延をなるべく小さくすることにムキになって努力するよりも、遅延はなくせない前提でそれを問題としないシステムを組むことを考えるほうが建設的という気がする。
ms単位で相互にインタラクションが必要なゲームでは遅延の避けられないデバイスを使うことじたいナンセンスと思う。ふつうにワイヤードを使ってくださいって思う。
でも動画視聴用途では、もう「映像の方をBTスピーカーの遅延にあわせて遅らせる調整」が普通なのでしょう?(僕が持ってる安物のモバイルプロジェクターにその機能がついてるくらいだから普通だと思う)。映画なんかを見る分には、絵と音のタイミングさえ合っていればよくて、ゲームのような「システムとの同時性」は求められないから、映像側を遅らせちゃえばいい。
もしこれを規格として一歩進めるならば、BT機器のプロパティに「この機器の平均遅延時間」みたいな項目を設けて、ホストはそれを元に映像の遅延時間を自動同期するとか。コーデックに関わらず遅延時間を固定しておく固定遅延モードとかがあると自動同期する場合にはきっと都合がいいだろうね。
単体の演算器の性能なんてクロック周波数が速くなっている現代だと数クロックの差なんてわからないだろう。
メモリーは社外の汎用品GDDRを使う以上、帯域やレイテンシは変わらない。
違いが出てくるとすると、どうやってメモリ間を隠蔽しているかというのが想像出来る。
データ待っている期間を出来るだけ少なくする、といった感じだ。
演算器を並列に多数動かすと配線抵抗などで電源がドロップする。
チューニングで性能上がっているのなら何処がボトルネックになりそうな所をあげているのか。
【追記】
夜中の勢いで書いたけど、やはり有線にしろった人多いよな
ワイヤレス一個で完結したいだけなんだがそういう要望はニッチすぎなのか
PUGBがでて大量の音ゲーがでてスポーツ中継をスマホで見られる時代になってもだいぶ経つのに、いまだ多くの人は有線で繋ぐしか満足行く体験はできないのか
---
音ゲーとか映画とか動画編集とかする人の多くが諦めているのが遅延問題
もはやスマホでこれらが完結する時代にあって、なぜかイヤホンは音質に力を入れるだけで遅延問題を真剣に対応したがらない
基本的にBluetoothでつなぐのだがそのコーデックによって差がある
現在主流の低遅延モデルはaptxAdaptiveという規格なんだけど、これが低遅延という割に全然遅れて声が聞こえてくる
というか、それよりも前にaptxLawLatencyというより低遅延をうたう規格があるにもかかわらず、そちらは近年あまり採用されていない
もともとaptxというコーデックがあって、それを低遅延にしたのがLL。高音質にしたのがHD。そのHDを低遅延にしたのがAdaptiveらしい
LLの遅延は基本40ms未満。これは30フレーム動画なら1フレーム強という感じ。これはまあ許容できる。
いっぽうのAdaptiveは50~80ms。これは30フレーム動画なら2~3フレーム
この差は結構でかくい上にトランスミッターによってはさらに遅延が生じる
ようはaptxLLくらいがギリギリ許容できる範囲なのに、それよりもレイテンシがある規格がはびこっていてワイヤレスイヤホンで聞くと動画と音がずれまくる
もちろんメーカーは理解しているんだろうけどあまり改善する気がないのはちょっとやばいよね
多分作ってる人たちは高音質さえ保ててればいいと思ってるんだろう
だからよりレイテンシの低い規格があるのに、新しいというだけでAdaptiveを使ってるんだろう
ちなみになんでこんな怒ってるかというと、10年使ってるヘッドホンが壊れかけているのでワイヤレスにしようと思ったら、あまりに求めているものがなかったからなんだ
ワイヤレスで低遅延モデル、という単純な要件を満たすものが驚くほど少ない
ガジェット系のさいちょう氏が勧めていたゼンハイザーのものがいいとは思うけど、眼鏡かけているので合わない可能性のあるヘッドホンは買いづらい
ではイヤホンにしようとするとこっちも数が少なすぎる、というかほぼ店じまいのような有様
Bluetoothオーディオの規格そのものは、大きく進化はしていませんでした。もともとは通話用としてスタートしたBluetoothオーディオですが、HSPというプロトコルから始まり、そして通話用としてHFPが登場しました。一方音楽用はA2DPが規定され、1.0、1.2、1.3とアップデートしてきましたが、基本的な部分は変わっていません。
Bluetoothのコアスペックに目を向けると、こちらは着実に進化してきています。バージョン4.0でLow Energyに対応しました。このLE技術をオーディオにも使えるのではないか……とWorkingGroup内でもずっと議論をしてきたのです
ここにもあるけど、Bluetoothの規格やイヤホンの進化に対して、データの運搬を担う箱としてのコーデック自体の進化が停滞しすぎなんだよな
完全ワイヤレスイヤホンが早く出すぎという意見もあるだろうけど、単純に業界が舐め腐ってるのが悪い
で、ようやく出始めたのがLEAudioというものらしいが、これはSonyのLinkBudsと専用スマホでしかいまだに実現していない
【レビュー】新規格『LE Audio』をLinkBuds SとXperia 1IVでブロードキャスト共有接続に挑戦 低遅延伝送もテスト
おい、嘘だろ、今の時点での最善手がまだこのレベルかよ
確かに遅延は解消しているけど機器が少なすぎて熱心なオーディオマニアくらいしか注目していないし、もっといえばそのオーディオマニアは遅延なんてどうでもいい連中だぞ?
ワイヤレスなんて使わず電柱と高価なケーブルに投資するような連中だぞ?
一般ユーザーがLEAudionに手を出せるのはいつになるんだよ
Permalink |記事への反応(12) | 22:34
個人的にInstinct MI300に注目しているのは、今後のコンピュータ構成はこうなるだろうな、というのを実現していることだ。
Ryzen Threadripperだとコア数が多いもののハード的なボトルネックがそこかしこにあるので使いにくいわけだが、
Instinct MI300は良さそうに見える。
現状のPCIeだと帯域が遅く、CPU側のDRAMから、GPUのVRAMにコピーするのはそれなりに時間がかかる。
ゲームだと局所性のあるデータを繰り返し使うのでキャッシュで逃れられるし、シーンの切り替えなどでデータ転送するといったことが出来る。
だがAI向けになるとVRAM容量以上(80GBとか)のデータに全てアクセスするので、メモリ転送レイテンシを隠蔽するだけのバッファとしての効果しか意味がなく、メモリ帯域が効いてくる。
Instinct MI300にHBM3が使われていて帯域は広い。レイテンシは大きいと思われるので、そこは気になるが。