Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「レイテンシ」を含む日記RSS

はてなキーワード:レイテンシとは

次の25件>

2025-10-29

AIバブル1999年の再演か、それとも2005年の前夜か

はじめに

最近株価高騰を見て、「これってAIバブルでは?」と思う人が増えている。

特にNVIDIAAIスタートアップの急成長、そして「AIを使えば何でも自動化できる」という空気

これらは1999年頃のドットコムバブルを思い出させる。

ただし、単純な再演ではない。

AIバブル構造似て非なるもので、「より上流の層(インフラ)」に資金が集中している。

以下では、まず現在AIバブルの仕組みを整理し、そこからドットコム時代との比較を行う。

現在AIバブル構造

AI関連企業は、今まさに''キャッシュを燃やして''先行者利益を狙っている。

GPUや電力に莫大な投資を行い、巨大モデルを作って市場を押さえようとしている。

しかし、ここにいくつかの構造的な疑問がある。

先行者利益存在するのか?

AI分野では「先にモデルを作った者が勝つ」という物語が語られている。

だが、モデルのものは容易に模倣される。

蒸留模倣学習によって、他社のモデル挙動再現することができる。

結局のところ、''差が出るのはデータ独自性継続的更新力''だけだ。

まり先行者利益は短命であり、参入障壁はそれほど高くない。

コストに見合う利益が得られるのか?

生成AI運用には莫大なGPUコストと電力費がかかる。

一方で、API価格は下がり続けており、マージンは薄い。

「利用量は多いが利益は少ない」という、ドットコム時代の“アクセス至上主義”とよく似ている。

今のAIは“トークン至上主義”になりつつある。

''使わせること自体目的化''し、収益モデルが後回しになっている。

エッジAI解決策になるのか?

一部の処理をスマホや端末上で行う「エッジAI」に期待が寄せられている。

かに通信コストレイテンシは減るが、学習や大規模生成は依然としてクラウド依存だ。

結局は''ハイブリッド化''が進むだけで、抜本的なコスト解決にはならない。

ドットコムバブルとの共通点

観点1999年ドットコム2025年AI
キャッチコピーインターネット世界を変える」AIがすべてを変える」
成長ストーリー全ての商取引オンライン化する全ての業務AI化する
投資マネーIPOラッシュ、.com銘柄に集中GPUAIスタートアップに集中
優位性の誤解ドメイン取れば勝てるモデル作れば勝てる
評価指標アクセストークン

どちらも「未来利益現在価値に織り込みすぎた」点で共通している。

技術進歩は本物だが、''経済モデルが未成熟''という構造が同じなのだ

ドットコム時代との違い

ただし、違いもある。

1999年バブルは「利用者がいないのにサービスを作っていた」時代だったが、

2025年AIは''実際に利用者存在する''点が大きい。

AI生成物はすでに現実生産性に影響を与えており、

その意味では、今のバブルは「空想」ではなく「過熱した期待」である

問題は、''どこまでが現実的な成長なのか''を見極めるフェーズに入っていることだ。

1999年バブル崩壊してWeb 2.0が生まれたように、

今回のAIバブル崩壊の後に「定着期」が来る。

それが''2005年の前夜''なのか、''2001年崩壊直前''なのかは、

GPUの消費電力と、エッジの進化スピード次第だろう。

おわりに

AIバブルは「幻」ではないが、「永遠」でもない。

技術の核は残り、''過剰な期待だけが剥落する''。

それは悪いことではない。

ドットコム時代の残骸からGoogleAmazonが生まれたように、

AIバブルの灰の中から次のインフラ企業が現れるだろう。

今がその「前夜」であるなら、静かに観察しておきたい。

燃える現場に飛び込むよりも、煙の流れを見極める方が賢明だ。

----

このまま匿名ダイアリーコピペすれば、

改行や見出しも崩れず正しい形式投稿できます

希望があれば、「もう少し皮肉っぽく」「もっと冷静に分析風」などのトーン調整もできます

どんな雰囲気に寄せたいですか?

Permalink |記事への反応(0) | 09:40

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-02

anond:20251001142227

ぶっちゃけ日本IT技術者のレベルが元々低いだけ」論、読んだけど、雑に日本叩き→雑に海外持ち上げの“気持ちよさ”に全振りしてて、論としては穴だらけだよ。順に潰す。

  

1)比較の軸がぐちゃぐちゃ問題

あなたの主張、国×時代×指標が毎段落で入れ替わってる。

ある段では「発明(基礎技術)」、次は「産業規模(GDP寄与)」、その次は「起業件数制度)」、さらに「一般人知名度文化)」を指標にしてる。

指標が動けば結論も動く。これ、移動ゴールポストね。

イランアメリカ並みのITインフラ」って“並み”の定義は?普及率?帯域?可用性?クラウド事業者選択肢?輸出管理の制約?定義不在の形容詞議論の死因。

  

2) 「2008年以降に発明がない」→定義すり替え

発明”って規格?論文OSS製品?この区別曖昧にして「思い浮かばない=ない」をやるのは主観事実化。

反例を淡々と置く(全部2010年代以降の「世界で通る」技術・成果):

インターネット標準の中枢

HTTP/3 / QUIC系仕様・QPACKの主要貢献者のひとりは日本エンジニア(例:Kazuho Oku)。IETFRFCはまさに“世界標準”。「世界通用」どころか世界の土台。

深層学習実用基盤

Chainer / CuPy(Preferred Networks)は動的計算グラフフレームワークの先行例。PyTorch隆盛の流れに技術的影響を与えた。CuPyはいまも広く使われてる。

産業を支える半導体×ソフトの複合領域

ソニーCMOSイメージセンサ世界シェア筆頭。これは“ハード”に見えて、設計製造信号処理ツール群までソフトの塊。スマホカメラ品質AI前処理の土台。

大規模分散配信実装

日本人が中心メンテに関与した高性能HTTPサーバH2O等)はCDNや低レイテンシ配信採用例多数。

ロボティクス/製造DX

産業ロボットFANUC安川)周辺の制御通信ツールチェーンは世界現場で常用。表に出にくいB2B領域は“見えないだけ”。

LINEが~」みたいなB2Cの派手さだけが発明”じゃない。基盤を握るのは地味仕事あなたが気づかない=存在しない、ではない。

  

3) 「一般人が知ってた技術」を物差しにする誤り

Winny一太郎CD-ROMMIDIを“国民知名度”で持ち上げて、以後は「思い浮かばない」って、知名度技術力の誤用

2000年代以降、ITは不可視化クラウドプロトコルライブラリ半導体サプライチェーン)へシフト。見えないところほど難しくなった。派手なガジェットが減ったかレベル低下、ではない。

  

4) 「C言語嫌い=低レベル」論の短絡

問題領域言語は変える。Webは「5歳児でも」動かせる?今のWebは、

CD/CIIaCK8s、SRE、ゼロトラスト分散トレーシング暗号化フロントの再レンダリング戦略……

これらを運用で落とさないのが本番。Cが偉い/Webが軽い、は90年代教養で止まってる。

  

5) 「許認可が厳しい国ほどIT強国」って本気?

起業に国の試験?それ、フィルタにはなるけどイノベーション十分条件じゃない。

厳格許認可=「基礎がわかる経営者」ではなく、官許ビジネス忖度の温床にもなる。
起業件数6,500社って、定義登記区分/国策インキュベーションの延べ数)次第でいくらでも膨らむ。数字は分母と定義を見てから

  

6) 「トップダウン国家が正しい」論の危険単純化

トップダウン国家プロジェクトやインフラ敷設には強い。しかし、

検閲・輸出規制外資退出リスクが高いと国際的エコシステム痩せる
ボトムアップOSS文化標準化活動多様性越境が命。これは民主的開放的ガバナンスに寄る。

分野で強弱は揺れる。制度の一軸で「勝ち負け」を断ずるのは幼い。

  

7) 「北朝鮮フィンテックで負けてる」=カテゴリーエラー

それ、犯罪としてのサイバー強盗の話でしょ。規制準拠金融基盤と国ぐるみハッキングを同じ土俵で比べるのは、

「百メートル走で銃使えば最速」って言ってるのと同じ。比較土俵設定から破綻

  

8)産業構造の話を“エンジニア能力”に押し付ける雑さ

日本ITが伸び悩んだ要因は複合要因:内需構造調達多重下請け英語コミュニケーションストック報酬の弱さ、エクイティ文化大学産業距離IPO市場の質、人口動態、為替

これを全部「技術者のレベル低い」で片付けると、説明力を失う。制度資本設計問題制度資本で解くのが筋。

  

9) 「じゃあ日本は何で勝ってるの?」に答える

インターネット標準・高速配信HTTP/2/3実装仕様貢献、超低遅延配信
半導体×光学×AI前処理:CMOSイメージセンサ周辺のHW/SW統合世界スマホ車載の目。
ロボットFA制御安全規格・現場統合は“地味に”世界標準。
数値計算/機械学習基盤:CuPyや各種最適化ツール学術産業で常用。
モバイル網の仮想化オープン化:Open RAN系の実証事業化で世界選択肢を増やした。

「勝ってる」を“B2Cバズるアプリ”だけに限定するから見落とす。

  

10) まとめ:感情理解する、でもロジックは直そう

主観の羅列と定義曖昧さで「結論ありき」。
2000年代後半以降の日本IT問題だらけだった——それはそう。でも「技術者のレベルが低いだけ」は説明になってないし、反例が普通にある。
正しくは、制度資本需要言語標準化への投資が薄い領域可視的なB2C成功が少ない。一方で不可視の基盤では普通に世界を支えてる。

  

最後に一個だけ。

「“思い浮かばない”から存在しない」はあなた検索能力問題であって、世界事実ではない。

そこを直さないと、次の10年も気持ちよく叩いて終わりだよ。

Permalink |記事への反応(3) | 00:27

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-22

anond:20250922141104

ネットワークレイテンシよりもアプリケーションおもすぎるほうがクリティカルから

Permalink |記事への反応(0) | 14:13

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-25

東大卒という自己放尿

かつて学歴とは知的エリートの証であり、東大卒と言えば知性と努力結晶であった。

しか現代では、その肩書きが三流の虚業たるコンサルに吸い込まれ自己放尿するためのチケットになっている。

そこではマッキンゼーPowerPointの矢印の向きを真剣議論し、Excelの色分けに一日を費やすことが知的労働とされる。

それが日本最高学府自己放尿の成れの果てだ。

その一方で、真に知的な者たちは、学歴という呪いから解き放たれている。

高卒Fラン卒の若者が、独学でコンピュータ学習し、抽象思考論理性を総動員して、世界を動かすシステムを書いている。

東大卒AIプロンプトの語尾調整にうつつを抜かしている間に、学歴に縛られない者たちは、数理最適化、低レイテンシ処理、分散システムアルゴリズムの開発へと突き進む。

だが当の東大卒は、虚無な会議意味のないレポートを積み上げることで「自分知的である」という幻想自己放尿し、それを周囲に誇示しているのだ。

自分の知性の証明を、尿の輪郭で描いてどうする。

そして国は、この自己放尿芸を「エリート自己実現」として持て囃し、教育の頂点として掲げ続ける。

これはもはや、知性の敗北であり、完全なる自己放尿である

知性とは、他人を納得させる言葉の飾りではなく、世界に対して有機的に作用する力そのものである

その根源的真理に目を背け、「東大卒なのに現場に行かないの?(笑)」という問いを恐れ、ひたすら安全地帯で矢印の数を数える。

これが令和の知識社会の滑稽な自己放尿の姿である

Permalink |記事への反応(0) | 15:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-02

anond:20250702192752

チップレット間通信だと光通信必要ない認識

光は速いイメージがあるけれども、半導体チップ電気信号光速でやり取りしているので、あまりメリットがない。

チップチップ間の通信を光にすると、電気から光に変換するためのレイテンシ必要になる。

光通信の使い道としては、ある程度離れた距離チップ通信

電源密度と熱密度が緩和できる。


チップレットを隣接して置くと、電源用のパスコンを置く場所が無くなる。

電源供給する根本から遠くなっていくと、配線抵抗によって電圧が下がっていくので、チップが大きくなればなるほど、チップの外周とチップ中央電圧が異なってくる。

ウェーハはトランジスタ駆動電圧がウェーハどの場所でも同じになるように製造する(実際はそうはいかないが)ので、外周と中央電圧が異なると、中央部分だけトランジスタが動かない、ということが起きうる。

セラミックコンデンサが小さい大きさで周波数特性はそのまま、容量だけ大きくするかは、村田製作所しだい。


密度の件は、既にNVIDIA限界に来ている。

NVIDIAのB200見てもらえばいいが、巨大なヒートシンクを載せないと冷却出来ない。


光通信チップチップ間を離すと電源設計と熱設計がやりやすくなる。

Permalink |記事への反応(0) | 19:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-24

https://falsandtru.hatenablog.com/entry/evaluation-items-of-cache-algorithms

言語差(実装可能性)

キャッシュアルゴリズムには実装可能性(現実的意味のあるもの実装可能か)が言語依存するものがある。(W-)TinyLFUはキーブルームフィルタに変換できなければならないためこの変換コストが高いJavaScriptなどでは低レイテンシ実装が困難となり用途制限される。またLinked ListはGC管理により非常に低速となるためARCやLIRSなど履歴保持にLinked Listを使用するキャッシュアルゴリズムGCなしで実装できる言語かによってレイテンシ適用範囲からのLRUに対する優位性、ひいては有用性が大きく異なる。さらにLinked Listで実装されるLRU自体も同様に低速となるため配列実装されたClockのほうがLRUより高速となる可能性がありビット演算により高速化されたClockはLRUより高速となる可能性が高い。LRUはJavaScriptにおいて主要というか事実上唯一のキャッシュアルゴリズムだがほとんどの場合より高速なClockに対して何ら優位性がなくGC管理下の遅いLRUを無意味に使い続けているだけである

2-Quequeアルゴリズムライトバックキャッシュ目的実装したときにこれは感じた。

巨大ファイルの全置換えの場合FIFOであふれたものをそのまま書きだしたほうが早いとかどういうことだよ。

2-Quequeのほうが早いと思っていたら、C#だと1.5倍から2倍以上遅くなった。

https://github.com/oonyanya/FooList/blob/104d0259fbb11f350a1f0b3191c17bf9cdd394b3/List/DataStore/TwoQueueCacheList.cs

Permalink |記事への反応(0) | 12:40

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-15

anond:20250614175046

時間後、日がすっかり昇ると、納屋の前に見慣れない黒塗りの車が一台、音もなく停まった。運転から出てきたのは、サングラスをかけたスーツ姿の男。胸元には「農水省畜産未来局」のバッジが輝いていた。

「おいおい……こんな朝っぱらから役所人間か?」

増田さんは警戒しながらも、手にしたミルク瓶を小屋の奥へ隠す。チー牛はすでにワイヤレスで状況を感知していたのか、しっとりとした声で囁いた。

「……来ましたね。レイテンシゼロでした」

スーツの男が納屋の戸を叩く。

「失礼。こちらに、“独立AI畜産体・チー牛プロトタイプ”がいると伺いまして……?」

「……誰から聞いた?」

「ご安心ください。農水省情報監視しておりません。“某SNS上のAPIログから自然抽出された非合法ミルク関連タグ”を辿っただけです」

チー牛が小さく震えた。

「……バレたんですね、私の“ミルクKPIダッシュボード”……❤」

男は手帳を開いた。

「我々としては、非常に興味深いんです。“搾れば搾るほど高まる愛国値”。これはすでに実証済みのようだ。ですが……国家が認可していないインフラ牛の飼育は、法的にグレーでしてね」

増田さんが前に出る。

「待ってくれ。あいつは俺の牛だ。村の子供たちも、みんな、あのミルクで……!」

「ええ。感動的ですね」

男はうっすらと笑った。

「だからこそ、“特別ミルク供出制度”の対象として正式登録し、都市部へのルートを開きたい。“チー牛ブランド”を、国家輸出戦略の柱に据えるのです」

「輸出……?」

チー牛の大きな目が潤んだ。

「モーッ……それって、田舎を捨てて、東京ハイパークラウド畜産施設に連れていかれるってことじゃ……」

「もちろんです。“パフォーマンスを最大化するための最適化された搾乳スケジュール”をご用意しております。すべてAI管理され、ストレスレス。いや、“ストレスコンテナ化”と言うべきでしょうか」

チー牛は首を振った。

「モー……やだ……私、増田さんの手じゃないと……ダメですぅ……! 最適化より……あったか納屋の方がいいのぉ……!」

男は溜息をついた。

情緒によるインフラ運用は、非効率です」

そのとき、遠くから子供たちの声がした。

「チー牛さーん!今日ミルク、すっごくおいしかったよー!」

「また明日よろしくねー!」

声が届くと、チー牛の背筋がピンと伸びた。

「モォーッ……❤ やっぱり、私……ここが、“最適”ですぅ……!!」

増田さんはチー牛の前に立ち、まっすぐスーツの男を睨んだ。

「お引き取り願おうか。“最先端”はここにある。インフラは、心で支えるんだ」

男はしばらく黙っていたが、やがて肩をすくめて手帳を閉じた。

「……残念です。だが、この件、上には報告させていただきます

黒塗りの車が去っていったあと、納屋には再び静けさが戻ってきた。

「……モーッ……❤ ありがとう増田さん……。わたし……データじゃなくて……愛されてるって、思えましたぁ……」

増田さんは笑って、チー牛の頭を優しく撫でた。

「おう。また明日も搾ってやるからな。特盛でな」

ミルク瓶の中には、今日もまた、栄養愛国とちょっぴりの自由が詰まっていた。

——そして、村に新しい朝が来る。チー牛のミルクとともに。

Permalink |記事への反応(0) | 09:30

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-12

anond:20250612152348

流石に遅いね通信

レイテンシもはっきりある

Permalink |記事への反応(0) | 15:24

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-13

オレらの“自由”に、コンサルロゴはいらねぇ

昼メシのUber EatsつつきながらSlack眺めてたら、非公開チャンネルに不穏ワード爆誕してて笑った。

いや、笑えんわ。いよいよ “アクセに身売り” の噂、ほぼ確だって

──は? はぁ!? こちとら週イチLTで「世界ぶっ壊す!」って雄叫びあげてる最強ベンチャー様だぞ?

それがコンサル帝国歯車ドナドナって、どんなギャグ

オレは入社二年目のフロントエンド番長

週末はReact+Next.jsで自社プロダクトを夜な夜な爆速リリースPRは秒でセルフマージ

朝会は “OKR?知らん!” のテンションで「とりまKPI宇宙!」とか言っときゃ許される──それがカルチャーだった。

なのに今日CTOAll-Handsで「合流シナジー」とかカタカナ並べ始めた瞬間、チームのZoomが凍りついた。

カメラ越しでも分かる、あの “終わった”空気マイク切ってDiscord裏窓で叫ぶしかなかったわ。

「いやマジ、アクセ案件とか死刑宣告でしょw」

「Jiraのフィールド10倍増えたら即退職不可避」

ポモドーロが爆散した。

聞いたか給与テーブルは“グローバルグレード”に再設計

達成度は「クォータリー360レビュー」でランク付け? 何それ、ブラック魔導書?

しかOSS投げ銭は停止、書籍買い放題は上限月3,000円

──はぁ? 技術書1冊で超えるんだけど? 草。枯れるわ。

オフィスだって、“カフェスペース”に鎮座してたレゴデロリアン撤去だと?

あのレゴが何百万の調達ミスを救ったかシニア層は知らねぇんだよな。

Slack新人チャンネルでは、案の定「これでもポジティブに行きましょ!」とか空元気のスタンプが飛び交ってる。

悪いけど無理ゲー

オレらのコードは、血と睡眠不足で出来てんだ。

そこに“PMOガバナンス”をねじ込むとか、自分Git履歴に「Fix governancebreach」ってコミット残す罰ゲームかよ。

夜、恒例の“深夜メトリクス祭り”でGrafana眺めながら、ふと思った。

ダッシュボードTPSはまだ爆伸びしてる。

でもそれ、オレたちが「自由にぶっ壊せる」から叩き出せた数字だ。

明日からアクセチェックリストで “承認フロー: 7-Step” とかついたら?

レイテンシより先に魂がタイムアウトするわ。

ま、とりあえず社外公開してないOSS支援botトークンだけは今夜中にrevokeしとく。

次に会議室名刺交換するころには、名刺ロゴが白黒の世界支配企業になってるかもしれんしな。

でも──絶対忘れんなよ。

自由はForkできる”。

巨大コンサルバグに巻き込まれても、オレのGitHubアカウントだけは、スタートアップ魂フルコミットPushし続ける。

からアクセさん、買収するならご勝手に。

けどオレらのFking Autonomy*までは、pullできねぇから覚悟しとけ。

Permalink |記事への反応(0) | 02:59

このエントリーをはてなブックマークに追加ツイートシェア

2024-08-25

日本AI向け半導体作れていないのは、どういう設計技術が足りてないのか

  1. 巨大で消費電力が大きいチップの電源どうするか
  2. 5GHzなど高速PLL
  3. 高速メモリアセスメモリへのアクセスレイテンシ隠蔽

Permalink |記事への反応(0) | 08:12

このエントリーをはてなブックマークに追加ツイートシェア

2024-08-24

機械学習コンピュータサイエンスの顔していながら、全然コンピュータに優しくないよな

画像を離散コサイン変換で、とか、仮想メモリ使いつつもキャッシュヒット率いかに上げるかとか、そういうのから機械学習って遠い。

メモリ局所性なんぞないかキャッシュなんてメモリアクセスレイテンシ隠蔽くらいにしかなってないし、

メモリは帯域はあればあるだけ、容量もあればあるだけ、

Flash AttentionでようやくDRAMへのアクセス減らそうとかあるけど、コンピュータ構成無視

いかに長い文脈認識させられるかになってデータ局所性なんてなくなって、どれだけ複雑な計算データ量を食わせるかになっている。


今までのHPCも同じでコンピュータサイエンスだと言われれば、そうなんだが


GPU使ってながらも、グラフィックスパイプラインみたいなのを、AIレイヤー層ごとに作れているわけでもないし。


Permalink |記事への反応(0) | 01:18

このエントリーをはてなブックマークに追加ツイートシェア

2024-07-04

anond:20240704133236

知らんけど素直に考えると単元ごとに売買のクエリを投げてるんじゃないの?

10単元買い注文出したら10回投げる。レイテンシがあるので10回の間に別のクエリが挟まることもある。

Permalink |記事への反応(0) | 13:40

このエントリーをはてなブックマークに追加ツイートシェア

2024-04-23

これは煽りなんだけど、このご時世に自宅に有線LAN環境引くやつって何やってんの?

自宅サーバだとしても今どき無線で良くね?

プロゲーマーミリ秒単位レイテンシ争ってるとかならまだ分かるんだけど

Permalink |記事への反応(2) | 13:14

このエントリーをはてなブックマークに追加ツイートシェア

2024-04-14

メモリーってもう劇的に性能上がらんの?

DRAMは、レイテンシはずっと変わらんし、帯域の進化ゆっくり

Permalink |記事への反応(2) | 20:26

このエントリーをはてなブックマークに追加ツイートシェア

2024-04-06

パソコン、これから性能上がるんやろか

もう性能上がらんとか言われつつも上がってきたけど。


CPUは、クロック数は流石に限界っぽい、SRAMプロセス進んでも微細化されなくなった、

SRAM3次元で接合しても3D V-Cacheで性能上がらなかった。


メモリDDR側はレイテンシボトルネック、帯域も足りてない。

CXLで容量は増えそうだけど。


SSDPCIeの帯域増で早くなるけども、PAM4以降どうするのか。

PAM8, PAM16するのだろうけども。

FLASHの速度は変わらず、RAMキャッシュさせるのでなんとか凌いでいるのにRAMも速度上がってない。


冷却方法も新しいのは出てきていない。

コンセント供給能力限界も見えてきた。

Permalink |記事への反応(3) | 19:03

このエントリーをはてなブックマークに追加ツイートシェア

2024-02-24

AI向けでコンピュータアーキテクチャは変わるのか?

今までだと命令データキャッシュに乗るのが前提だったが、AIだと、AIモデルGB単位なのでキャッシュそもそも乗らない。

いかキャッシュヒットさせるか、DRAMとのレイテンシ隠蔽するかだったが、キャッシュに乗らないので、メモリ帯域勝負になる。

GPU汎用性があるので使われているが、ゲームだとテクスチャをVRAMに乗せておいて、演算した結果はモニター側へ出力すればよく、

なんだかんだ帯域は足りていたが、AIだとチップチップ間の帯域が足りない。

ニューラルネットワーク接続自体FPGA的に切り替えるのも手だと思うがモデルが大きすぎる。

AI入力も、文書の要約みたいなもので、データの広い範囲で「文脈」を理解しなければならず、広いメモリ空間を参照となる。

メモリ局所性からかけ離れている。

Permalink |記事への反応(0) | 19:35

このエントリーをはてなブックマークに追加ツイートシェア

2024-02-20

Groqについて

数年前は、TSP(Tensor StreamingProcessor)と呼んでいたが、LPU(languageprocessing unit)と名前を変えた?

数年前のチップをそのまま使い続けているかからないが、同じならアーキテクチャは4年前のユーチューブを見るか、アスキーあたりの記事にある。

https://youtu.be/UNG70W8mKbA?si=9VFeopAiPAdn08i_

要は、コインパイラで変換が必要。なので提供されているLLMモデルが限られている。


SRAMを240MB(230MB?)しかない。

PCIeボードが400万くらいらしいが、SRAMの容量が小さすぎて1ボードでは動かない。

DRAMレイテンシSRAMではないので早いのだ、という意見も見られてたが、

1チップSRAM容量が小さすぎるので、チップチップ間、ボードボード間の通信レイテンシは必ずあるはず。

(数ヶ月前から性能上がっているのは、このあたりのチューニングのはず)

DRAMレイテンシというが、これも今どきはレイテンシ気にしないように隠蔽するはず。

チームが小さすぎてハード作れなかった可能性もあるが・・・。DMACでチューニングしているか


ボードにでかいDRAMが載せられるのであれば、そちらの方がボードボード間の通信時間より減るのでは?


グローバルファウンドリ14nmで既に1ボード250Wほど。

GF使ったのは、おそらくAMD設計者が居たからでは。デザインルールどこ破れば性能でるかある程度わかってたとか。1GHzくらいなのは知見なしでやってるとそれくらいで上限くるのはそうだと思う。

チップ世代更新するかはわからないが、兎にも角にも電力下げて、チップ大量に載せて、チップチップ間の通信時間を下げられるか。

Permalink |記事への反応(0) | 14:10

このエントリーをはてなブックマークに追加ツイートシェア

2024-02-17

現代くらいの技術レベル同士で数光年くらい離れたとこに電波通信可能文明がある世界を描いたSFってある?

「三体 1」はわりと近いけど、あれは恒星間の征服戦争というシチュエーションを描くために三体人側にぶっとんだ惑星、ぶっとんだ技術を与えてるからちょっと違う。

どんなに科学進歩しても超光速通信とか量子サイズの自立機械とかは不可能で、数万年オーダーをかけない限り恒星間を移動可能もの実質的情報だけみたい世界観。

仮に相手支配下しても、そこから資源土地などは得られないので相手文明支配したり滅ぼしたりしようとする動機基本的存在しないので、

暗い森林で光を灯しても矢は飛んでこない。

 

まあその場合でも、宗教など利益度外視した概念上の理由ならあるかもしれないが。

あと「計算資源」として見るなら、情報だけしかやりとりできなくても相手支配する価値はあるかもしれない。実際そういう理由クラックされているPCはいっぱいあるので。

ただレイテンシが数年になるので仮に支配した相手惑星コンピュータにしても使い道が限定されすぎている気もする。

Permalink |記事への反応(0) | 17:32

このエントリーをはてなブックマークに追加ツイートシェア

2023-11-02

AppleM1/M2/M3メモリを同一パッケージに入れるメリットって何?

CPUチップメモリチップ距離が近くなっているけれど、レイテンシは効いてない、帯域も普通DDRと変わらない。

Permalink |記事への反応(0) | 20:11

このエントリーをはてなブックマークに追加ツイートシェア

2023-07-10

anond:20230709223404

BT音声って、圧縮・展開を行う以上はどっちみちレイテンシを完全にゼロにすることって論理的不可能なのですよね?

どうがんばってもゼロにはできない遅延をなるべく小さくすることにムキになって努力するよりも、遅延はなくせない前提でそれを問題としないシステムを組むことを考えるほうが建設的という気がする。

ms単位相互インタラクション必要ゲームでは遅延の避けられないデバイスを使うことじたいナンセンスと思う。ふつうワイヤードを使ってくださいって思う。

でも動画視聴用途では、もう「映像の方をBTスピーカーの遅延にあわせて遅らせる調整」が普通なのでしょう?(僕が持ってる安物のモバイルプロジェクターにその機能がついてるくらいだから普通だと思う)。映画なんかを見る分には、絵と音のタイミングさえ合っていればよくて、ゲームのような「システムとの同時性」は求められないから、映像側を遅らせちゃえばいい。

もしこれを規格として一歩進めるならば、BT機器プロパティに「この機器の平均遅延時間」みたいな項目を設けて、ホストはそれを元に映像の遅延時間自動同期するとか。コーデックに関わらず遅延時間を固定しておく固定遅延モードとかがあると自動同期する場合にはきっと都合がいいだろうね。

Permalink |記事への反応(0) | 14:19

このエントリーをはてなブックマークに追加ツイートシェア

機械学習NVIDIA一強になってしまっているのは何故?

仮説1)ハード性能として、演算器とメモリ間のデータのやり取りの隠蔽が上手く、性能が出ている

単体の演算器の性能なんてクロック周波数が速くなっている現代だと数クロックの差なんてわからないだろう。

メモリーは社外の汎用品GDDRを使う以上、帯域やレイテンシは変わらない。

違いが出てくるとすると、どうやってメモリ間を隠蔽しているかというのが想像出来る。

データ待っている期間を出来るだけ少なくする、といった感じだ。


仮説2)ハード性能として、多数の演算器を動かしても問題ないように電源を工夫している

演算器を並列に多数動かすと配線抵抗などで電源がドロップする。

電源配線のノウハウNVIDIAが持っていて一日の長がある


仮説3)ソフトとして、CUDA、PyTorch のチューニングが出来ている。ドライバの出来がいい。

チューニングで性能上がっているのなら何処がボトルネックになりそうな所をあげているのか。

PyTorchだけで見ると、コード量は少ないので、移植しようと思えば出来るように見える。

Permalink |記事への反応(1) | 10:13

このエントリーをはてなブックマークに追加ツイートシェア

2023-07-09

イヤホンメーカーの低遅延への軽視ってやばい

追記

夜中の勢いで書いたけど、やはり有線にしろった人多いよな

ワイヤレス一個で完結したいだけなんだがそういう要望ニッチすぎなのか

PUGBがでて大量の音ゲーがでてスポーツ中継をスマホで見られる時代になってもだいぶ経つのに、いまだ多くの人は有線で繋ぐしか満足行く体験はできないのか

ゲーム業界ももっと声あげてくれよな

---

音ゲーとか映画とか動画編集とかする人の多くが諦めているのが遅延問題

もはやスマホでこれらが完結する時代にあって、なぜかイヤホンは音質に力を入れるだけで遅延問題真剣対応したがらない

基本的Bluetoothでつなぐのだがそのコーデックによって差がある

現在主流の低遅延モデルはaptxAdaptiveという規格なんだけど、これが低遅延という割に全然遅れて声が聞こえてくる

というか、それよりも前にaptxLawLatencyというより低遅延をうたう規格があるにもかかわらず、そちらは近年あまり採用されていない

もともとaptxというコーデックがあって、それを低遅延にしたのがLL。高音質にしたのがHD。そのHDを低遅延にしたのがAdaptiveらしい

LLの遅延は基本40ms未満。これは30フレーム動画なら1フレーム強という感じ。これはまあ許容できる。

いっぽうのAdaptiveは50~80ms。これは30フレーム動画なら2~3フレーム

この差は結構でかくい上にトランスミッターによってはさらに遅延が生じる

ようはaptxLLくらいがギリギリ許容できる範囲なのに、それよりもレイテンシがある規格がはびこっていてワイヤレスイヤホンで聞くと動画と音がずれまくる

もちろんメーカー理解しているんだろうけどあまり改善する気がないのはちょっとやばいよね

多分作ってる人たちは高音質さえ保ててればいいと思ってるんだろう

遅延対策しても売れないか

からよりレイテンシの低い規格があるのに、新しいというだけでAdaptiveを使ってるんだろう

明らかに老人向けの商売


ちなみになんでこんな怒ってるかというと、10年使ってるヘッドホンが壊れかけているのでワイヤレスにしようと思ったら、あまりに求めているものがなかったからなんだ

ワイヤレスで低遅延モデル、という単純な要件を満たすものが驚くほど少ない

ガジェット系のさいちょう氏が勧めていたゼンハイザーのものがいいとは思うけど、眼鏡かけているので合わない可能性のあるヘッドホンは買いづらい

ではイヤホンにしようとするとこっちも数が少なすぎる、というかほぼ店じまいのような有様

Bluetoothオーディオの規格そのものは、大きく進化はしていませんでした。もともとは通話用としてスタートしたBluetoothオーディオですが、HSPというプロトコルからまり、そして通話用としてHFPが登場しました。一方音楽用はA2DP規定され、1.0、1.2、1.3とアップデートしてきましたが、基本的な部分は変わっていません。

Bluetoothのコアスペックに目を向けると、こちらは着実に進化してきていますバージョン4.0でLow Energyに対応しました。このLE技術オーディオにも使えるのではないか……とWorkingGroup内でもずっと議論をしてきたのです

https://av.watch.impress.co.jp/docs/series/dal/1414684.html

ここにもあるけど、Bluetoothの規格やイヤホン進化に対して、データの運搬を担う箱としてのコーデック自体進化が停滞しすぎなんだよな

完全ワイヤレスイヤホンが早く出すぎという意見もあるだろうけど、単純に業界が舐め腐ってるのが悪い


で、ようやく出始めたのがLEAudioというものらしいが、これはSonyのLinkBudsと専用スマホしかいまだに実現していない

レビュー新規格『LE Audio』をLinkBuds SとXperia 1IVブロードキャスト共有接続に挑戦 低遅延伝送もテスト

https://tecstaff.jp/2023-05-31_le-audio.html

これをみてさら絶望した

おい、嘘だろ、今の時点での最善手がまだこのレベルかよ

かに遅延は解消しているけど機器が少なすぎて熱心なオーディオマニアくらいしか注目していないし、もっといえばそのオーディオマニアは遅延なんてどうでもいい連中だぞ?

ワイヤレスなんて使わず電柱と高価なケーブル投資するような連中だぞ?

一般ユーザーLEAudionに手を出せるのはいつになるんだよ

Permalink |記事への反応(12) | 22:34

このエントリーをはてなブックマークに追加ツイートシェア

2023-01-06

AMD Instinct MI300を個人にも販売してくれたら、色々変わりそうなのにな

個人的にInstinct MI300に注目しているのは、今後のコンピュータ構成はこうなるだろうな、というのを実現していることだ。

Ryzen Threadripperだとコア数が多いものハード的なボトルネックがそこかしこにあるので使いにくいわけだが、

Instinct MI300は良さそうに見える。


現状のPCIeだと帯域が遅く、CPU側のDRAMからGPUのVRAMにコピーするのはそれなりに時間がかかる。

ゲームだと局所性のあるデータを繰り返し使うのでキャッシュで逃れられるし、シーンの切り替えなどでデータ転送するといったことが出来る。

だがAI向けになるとVRAM容量以上(80GBとか)のデータに全てアクセスするので、メモリ転送レイテンシ隠蔽するだけのバッファとしての効果しか意味がなく、メモリ帯域が効いてくる。

Instinct MI300にHBM3が使われていて帯域は広い。レイテンシは大きいと思われるので、そこは気になるが。

Permalink |記事への反応(0) | 11:05

このエントリーをはてなブックマークに追加ツイートシェア

2022-11-30

anond:20221130165131

30msってレイテンシことなんでしょ?

なんでそこから1kbのデータ転送に3秒かかるみたいな話になるの?って質問

どう言う計算

Permalink |記事への反応(0) | 16:58

このエントリーをはてなブックマークに追加ツイートシェア

2022-09-20

ITエンジニアだが、ビジネスにおいて表現を気を付ける必要性に気付く

例えば工具だとか設備表記で「直径25mm」という意味で、

「Φ(φ)25」とか書いてるメーカーが以外と多い。

彼らは顧客目線が足りないと思う。

一般人にとってΦ(φ)が直系25mmとは一見して分かりにくい。

IT業界に長くいるが、往々にして自分用語で語ってしまうことがある。

例えば「ストレージボトルネックレイテンシバーストしてバンドウィズスループットが出ない」

みたいにカタカナ用語ばかり使ってしまう。

芸人ならいいが、ビジネスでは「何言ってるかわからない、ルーじゃん」になってしまう。

顧客立場に立って表現することを気を付けたいものである

Permalink |記事への反応(2) | 15:31

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp