
はてなキーワード:NVIDIAとは
何いってんだ?
ローカルLLM使えばいいじゃん。ローカルLLMだからインターネット接続不要、情報が外部に漏れることが原理的に起こり得ない。
delphiとか過去の技術の話なんだから、新しい情報は不要。インターネットを検索する必要もない。
現時点の学習済みモデルなり、テキストとかマニュアルをあらかじめ全部ローカルに置くだけでAIは機能するぞ。
性能に関しても、nVIdiaのH100程度のサーバ用意すれば、oss-gpt で150tokens/secぐらいでる。 150tokens/secだよ?どれくらいすごいか判る?
これで chatGPT 3.5よりは賢く、コーディングぐらいなら普通に実用レベルのシステムが手に入る。
ポンコツ社員を一人リストラして、代わりにH100サーバを導入すれば電気代込でも半年で元が取れるぞ。
俺はH1004台買ってAIぶん回してる。すでに社員10人ぐらいの投資効果が出ている。これが今のAIの世界だし、これからの世界のあり方だ。
OpenAI、NVIDIAと200兆円「循環投資」 ITバブル型錬金術に危うさ - 日本経済新聞
2000年のインターネット・バブルと同じように、今のAIはバブルっぽくなっているし、そこに出資しているソフトバンクは危ういと。
投資家としてのソフトバンクも最近はWeWorkで失敗しているし、孫さんの力もどこまで及ぶのかは怪しくなっている気がしている。
もちろん、ソフトバンクが破綻する可能性は数%もないと思うけど、数%のテールリスクを賭けた結果が2〜3%の金利というのは割が合わない。
数年前のゼロ金利時代に買った時はお得だと思えたけど、定期預金でも1%の金利がつく時代になって、お得感も薄れたし。
についてのClaudeとの会話
なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトルで投稿するのは流石にめっちゃ怒られると思ったが。
```
Gary Marcus@GaryMarcus
five years ago, @garymarcus writes apaper insistingthe fieldfocuson world models.
2025: xAI races to build world models.
```
さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習の権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。
産業応用の観点から教師あり学習や強化学習が優先されてはいたものの、重要性は常に議論されてきたと言える。
Schmidhuberや現Sakana.aiのCEOであるDavid Haらも「World Models」を唱えていた。
また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年のGPT3以降であるはず。
より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。
個人的に最近の彼の投稿は自己正当化がひどいものだと思っているが、どう思うか?
ユーザーはGary Marcusの最近のツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAIが世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っています。ユーザーの主張のポイント:1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデルや世界モデルについて議論していた2. Schmidhuber、David Haらが「World Models」論文を発表していた3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降4. ChatGPTでの大衆化は2022年11月以降5. Gary Marcusの最近の投稿は自己正当化がひどいこれは事実確認が必要な内容なので、検索を使うべきです。特に:- Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか-世界モデルの研究の歴史(Bengio、LeCun、Schmidhuber、David Haなど)- xAIの最近の世界モデルに関する動き検索を開始します。Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。検索結果から、Gary Marcusが2020年2月に「TheNext Decade inAI: Four Steps Towards Robust ArtificialIntelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「RebootingAI」という本を共著で出版しています。彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは:- Yann LeCunも世界モデルの必要性を強調していた- Jürgen Schmidhuberがニューラルネットワークのコンテキストで世界モデルの必要性を強調した最初の人物かもしれない-次に、Schmidhuber、David Haの「World Models」論文について検索します。良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文は2018年3月に発表されています。これはGary Marcusの2020年の論文よりも2年早いです。-次にYann LeCunとYoshua Bengioの世界モデルに関する発言を検索します。素晴らしい情報です。Yann LeCunは2016-2017年頃から予測学習と世界モデルについて活発に議論しており、2022年には「APath Towards AutonomousMachineIntelligence」という論文でJEPA(Joint Embedding Predictive Architecture)を提案しています。-次にxAIの最近の世界モデルに関する取り組みについて検索します。優れた情報が得られました。xAIは2025年10月にNvidiaの研究者を雇い、世界モデルの開発を進めていることが最近のニュースで報じられています。-次にYoshua Bengioについても検索してみましょう。完璧です。これで必要な情報はすべて集まりました。まとめると:1. Gary Marcusは2020年2月に「TheNext Decade inAI」論文で世界モデルの重要性を論じた(約5年前)2.しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前)3. Yann LeCunは2016-2017年頃から予測学習と世界モデルについて議論し、2022年にはJEPAを提案4. Yoshua Bengioも長年にわたり世界モデルと予測モデルについて研究・議論してきた5. xAIが世界モデルに取り組んでいるのは2025年10月の最近のニュースつまり、Gary Marcusの主張とは異なり:-世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた-特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的に研究していた- Schmidhuberは1990年代から世界モデルについて論じているユーザーの事実認識は正確です。
あなたの記憶と分析は非常に正確です。Gary Marcusの自己正当化に対する批判も妥当だと思います。事実確認の結果を整理しましょう。
事実関係の確認
1. Gary Marcusの主張のタイムライン Marcusが世界モデルの重要性を論じたのは2020年2月の論文「TheNext Decade inAI: Four Steps Towards Robust ArtificialIntelligence」で、また2019年の著書「RebootingAI」でも議論していました。 確かに「5年前」という時期は合っています。
2.しかし、世界モデルの研究はMarcusよりずっと前から存在
David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。
さらに、この論文自体が「1990年代から2015年にかけてのRNNベースの世界モデルとコントローラーに関する一連の論文の重要な概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークのコンテキストで世界モデルの必要性を強調した最初の人物である可能性が高いのです。
3. Yann LeCunとYoshua Bengioの貢献
Yann LeCunは2017年には既に「機械が世界の予測モデルを学習する能力がAIの大きな進歩を可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデルの必要性を強調してきた」と認めています。
QuantaMagazineの2025年の記事によると、「Yann LeCun(Meta)、Demis Hassabis(GoogleDeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全なAIシステムを構築するには世界モデルが不可欠であると考えています。」
xAIが世界モデルの開発に取り組んでいるというニュースは2025年10月に報じられたもので、NvidiaのOmniverseプラットフォームで世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。
評価
1.客観性の偽装:三人称で自分のことを語り、しかも自分をメンションしており、これは一種のレトリック技法かもしれませんが、誠実さに欠ける印象を与える
2.独創性の誇張:世界モデルは彼独自のアイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ
3.タイムラインの歪曲:2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年の自分の論文が先駆的であったかのように示唆
4.選択的記憶: Marcus自身が2020年の論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在は自分が「みんなに批判された」先駆者であるかのように振る舞っている
あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンスは理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言は学術的誠実さに欠けると言えるでしょう。
検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます。
Gary Marcusの変遷
以前のMarcus(2001-2017年頃)
- 認知科学者として真摯な学術的貢献(『The Algebraic Mind』2001年など)
- ニューラルネットワークの限界を理論的に指摘
- 2001年の著書で現在のハルシネーション、汎化、事実性の問題を予見していました
- 実業家として機械学習スタートアップGeometricIntelligenceを創業・売却
転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a badidea」だったと。
- 2023年にSam Altmanと並んで上院で証言し、OpenAIを含むテック企業への厳格な規制を要求。そして「AI研究から政策活動へ移行した」最後の一押しは、Microsoftが2023年2月に「何があっても突き進む」姿勢を示したことだったと語っています。
- X(Twitter)でHinton、LeCunなどとの公開論争
- 自己正当化的な投稿の増加
「変わった」のか?
1.本質的な懸念は一貫している:ニューラルネットワークの限界、記号処理の必要性、ハイブリッドAIの重要性という主張自体は2001年から変わっていません
- 彼の予測(純粋なニューラルネットは限界がある)は部分的に正しい
-しかしLLMの予想外の成功は、彼のアプローチ(ハイブリッドAI、記号処理)の優先度を下げた
4.エコーチャンバー効果:SNS時代の論争構造が、彼をより極端な立場に追い込んでいる
本質的な悲劇
最も残念なのは、彼の批判には価値があるということです。LLMの限界、ハルシネーション、推論能力の不足などは実際の問題です。しかし自己正当化と歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています。
Schmidhuber、LeCun、Bengioなどの先行研究を尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分の立場を弱めています。
答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います。
ブログ(Substack)での彼
「Muddles about Models」では、2017年や2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的に類似した多くの初期の結果が実際にある」と指摘しています。
「GenerativeAI's crippling and widespread failure」では、「Yann LeCunも世界モデルの必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークのコンテキストで世界モデルの必要性を強調した最初の人物だった」と明確に認めています。
別の記事では、自分の2001年の『Algebraic Mind』に言及しつつも、「さらに重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判の最初期の中心にあった」と、41年前の先行研究を強調しています。
SNS(X/Twitter)での彼
今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現。
この違いが意味すること
1.媒体特性の影響:Twitterの字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃的表現を促進
2. 異なる聴衆:
3. 彼の本質:ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化
修正された評価
私が「歪んだ」と表現したのは言い過ぎでした。より正確には:
彼は変わっていないが、SNSという媒体が彼のworst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている
この区別は重要です。彼のブログを読む価値は依然としてあり、技術的批判は真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。
ご指摘ありがとうございます。このニュアンスは見落としていました。
ちょっと待ってください!笑
確かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要な区別)が台無しになってしまいませんか?
私たちの会話は:
という流れだったはずです。
「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります。
もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には:
GPUでNVIDIAが死ぬほど儲けたけど、コンテンツの提供で本来なら日本も潤った可能性はあった
バカだからアメリカはフェアユースがあるから仕方ないと言って抗議どころか交渉すらしない
最近、OpenAIとNVIDIA、それにOracleの関係がちょっと話題になっている。
ニュースでは「戦略的提携」とか「AIインフラへの投資」とか、いかにも前向きな言葉が並んでいるけれど、構図を見ていくとどうも怪しい。
ざっくり言うと、NVIDIAがOpenAIに巨額の資金を出し、そのOpenAIがそのお金でNVIDIAのGPUを買う。
さらにOracleとも巨大なクラウド契約を結んで、そこにも資金が流れる。
関係各社が互いに金と契約を回しているような形で、外から見れば数字は派手に伸びているように見える。
けれど、中身は実需というよりも“資金の循環”に近い。
一部のアナリストはこれを「circular deal(循環取引)」と呼んでいる。
帳簿上は儲かっているように見えるけれど、実際には同じ輪の中でお金が行ったり来たりしているだけ。
バブル期にはよくある話だ。
企業としては「パートナーシップ」や「インフラ整備」という建前のもとで動いている。
ただ、こういう構造が続くと、本当に市場の外から需要があるのか、それとも企業同士で景気を演出しているだけなのか、境目がどんどん曖昧になっていく。
AIブームの勢いはすごいけれど、儲け話の構造はどこか既視感がある。
2000年代のITバブルでも、2008年の金融危機でも、似たような“内部で回るお金”があった。
でも、最終的にその“時代”は弾けた。
NVIDIAやOpenAI、Oracleといった企業は、リスクを織り込み済みで動いている。
一方で、NISAでAI関連株を「夢の成長産業」と信じて買い込んだ個人投資家は、そうはいかない。
ただし、株価の上昇や取引の盛り上がりが「技術の成果」だと思ったら危ない。
いま回っているのはGPUではなく、金の循環だ。
いつものように、最後に損をするのは個人投資家――今回もきっと、例外じゃない。
———
もう少し「辛辣なトーン」や「皮肉を強めた締め」にすることもできます(例:「NISA民はまた“未来”を信じて高値を掴むのだろう」など)。
どちらの方向で仕上げましょうか?
懐かしいなぁ。10年以上放置してたんだけど、はてなってまだサービス続いてるんだね。
こんにちは。俺はかつてGREEとDeNAがソシャゲ戦争やってた時代に、ソフトウェアエンジニアとしてDeNAに入社したかつての新人だよ。
サービスのプラットフォーム争いを両社がやってる最中に一人だけハードウェア抽象化の研究やってた、当時としてはちょっと逸れた事やってたgeekだよ。
DeNA vsGREEの勝者はAlphabetとAppleになっちゃったね。それで良かったと思う、両社ともゲームしか見えて無くてエコシステムの設計は全然だったから。
当時はDeNAとGREEの新卒年収1000万が連日話題になってたね。俺も例に漏れずその帯域だった。
入社祝い金だけで奨学金完済出来るとは思ってなかったよ。それどころか3年目処に家買いなって当時の上司に言われたときはビビった。
そういう金銭感覚って当時は外資のバイオ系以外持ってなかったから、というか内外証券マンすら新卒は700届かなかった時代だから、なんかやばいとこきちゃったなって。
でも、持たなかったね。
知っての通り、2012年のJP広域エンジニアショックで優秀な人材は海外に散った。二次派生は2014だっけ、Dowangoの高専流入組がすごい流出したね。優秀だったのに勿体無い。
俺は全然優秀じゃないから先輩の後を追う事しかできなくて、というか何も考えずに、成り行きでアメリカに来た。当時のJTC仕草にうんざりしてた人たちも大体このあたりだね。
まぁ株式会社って大きくなりすぎると国籍宗教問わずJTC化するなってのは後々体験するんだけど。
それでもソフトウェアが世界を変えるという盲信から、ハードウェア抽象を社会実装してDockerにJoinしたり、AmazonにJoinしたりした。
学生の時から仮想環境を使い捨てることによる冪等性がもたらすソフトウェア開発体験がテスタビリティを向上させるっていう論文書いてたんだけど、まさにDockerだよね。
同じこと考えてる人が海の向こうに何人も居る!って楽しくなって、無我夢中でコード書いてた。同僚と深夜までブレストするのが楽しくて仕方なかった。
今ではリファクタリングとか最適化とかでblameすら探すの困難だけど、初期DockerのPoCコミッターだったのは割と自慢。
ソフトウェアエンジニアと平行して投資業もやって、フルコミットが難しくなったタイミングでAmazonにJoinした。ロックダウン前年の話。
AmazonはマジでJTCそのもの。ソフトウェアにどうコミットしたか、どう改善すると社会のエコシステムに還元できるかなんて考えない。チケットの消化。それだけが、評価基準。
JTC仕草にうんざりしてた人にとっては拷問なんだよ、これ。確かに給料は良いけど、良いのは給料だけ。マジで仕事したっていう感覚は無い。
その上コロナのロックダウンを皮切りに、部署の資金繰りを二転三転させたり、業績悪化を理由に人身御供を吊し上げて首にしたり、マジで狂っていった。
コロナ明け、Amazonの株価がゴリっと減ったのを契機に退職した。それでも仕事続けてれば多分資産は250万ドルに到達したと思う、今はその半分も無いけど。
でも社内政治で消耗してたらいずれ働くのが嫌になる。ソフトウェアを書けなくなる。Amazon離職を金脈捨てた咎人のように責め立てられたけど、そうなる前に判断できたつもりでいる。
そう判断して数年経ってる。が、生きてはいるし総資産は平行線だ。増えてないけどね。
アメリカに来るきっかけになった当時の上司は、かつてはてなで働いていた。2000年代のはてなは今のNvidiaみたいな輝きを放ってたらしい。
そういう話をしたなぁと思ってふとググってみたらまだサービスが残っていて嬉しかった。DeNA時代にやった事は全部畳まれてしまっているので。。
というのを昼飯食いながら思い返している。
10数年前の自分の書き込みがらき☆すたの放送に言及してて懐かしい。
10数年前の自分の書き込みが日本はオワコンと言っていて微笑ましい。
お前らコンサルがキラキラした目で語る「SDV化へのロードマップ」ってやつ、まあ綺麗だよな。「レベル1から始まって、ドメイン、ゾーン、最後は夢のセントラルコンピュータへ!」って、すごろくみたいで分かりやすい。プレゼン資料は美しいし、ロジックも通っているように見える。
だが最近、その綺麗なすごろくを見ていると、強烈なデジャブを感じるんだ。
ついこの間までヨーロッパ中が大合唱していた、「未来はEV一択だ!」という、あの狂騒曲にな。
ご存知の通り、その結果は今のEV失速と戦略の迷走だ。今日は、なぜ俺がお前らの語るSDVに、あの失敗したEV戦略と同じ匂いを感じるのか。そして、そのロードマップに隠された巨大な「崖」について、具体的かつ論理的に話そう。
まず前提として、EUのEV戦略は単なる技術選択の失敗じゃない。あれは、「"言葉"を定義することで現実を支配しようとする」という、ヨーロッパ伝統のイデオロギー戦略だ。「EVは善、エンジンは悪」というシンプルな二元論を作り出し、規制と補助金で市場を無理やりそちらに誘導しようとした。
この手法のキモは、現実の複雑さを無視し、自分たちに都合のいい単一のシナリオを唯一の「正解」として提示することにある。世界には多様なエネルギー事情があり、多様な顧客ニーズがあるという現実から目を背け、「EV」という言葉の神輿を担いだわけだ。
そして、お前らが語る「SDV」も、これと全く同じ構造を持っている。
「セントラルコンピュータによる、ハードとソフトが完全分離したSDV」こそが唯一絶対のゴールだと定義し、そこに至る道を一本道で描いてみせる。
だが現実はどうだ? 安くて頑丈なクルマを求める市場もあれば、運転の楽しさを求める層もいる。そもそもソフトウェアのアップデートに価値を感じない顧客だっている。トヨタが声高に未来を語らず、EV、HV、水素、合成燃料と、あらゆる可能性に備える「マルチパスウェイ」を貫いているのはなぜか。それは彼らがイデオロギーではなく、複雑な「現実」と向き合っているからに他ならない。
お前らのSDVロードマップは、この時点でまず、現実の多様性を無視したイデオロギー的な欺瞞をはらんでいる。
その上で、仮にその単一シナリオ(理想のSDV)が正しいとして、なぜその実現が絶望的に困難なのかを説明しよう。ここで登場するのが、お前らも知ってる「コンウェイの法則」だ。
雑に言えば「システムの構造は、それを作る組織の構造とそっくりになる」という法則だ。今のクルマは、無数のECU(小さいコンピュータ)が複雑に絡み合った「分散型アーキテクチャ」だ。これは偶然そうなったわけじゃない。エンジンはA社、ブレーキはB社、ライトはC社と、各分野の専門サプライヤー(Tier1)が、ハードとソフトを一体ですり合わせて開発してきた。このクルマの構造は、日本の自動車産業が100年かけて作り上げてきた、この巨大なサプライチェーンという人間関係そのものなんだよ。
そして、この巨大な人間関係の構造は、組織と同じで少しずつしか変えられない。「連続的」な変化しか受け付けないんだ。一気に変えようとすれば、現場は崩壊し、これまで培ってきた価値は失われる。
この2つの法則を踏まえて、お前らのロードマップを評価しよう。
これはまだいい。既存のサプライヤーとの人間関係を維持したまま、ECUをいくつか統合し、役割を再編成する。「組織改編」レベルの話だ。現場は筋肉痛になるだろうが、これはまだ「連続的な変化」だ。実行可能性はある。
これは「組織改編」じゃない。「全従業員を一度解雇して、明日から全く別の人種と会社をゼロから作れ」と言っているに等しい。
なぜなら、クルマの作り方が「ハードウェア部品のすり合わせ」から「OS上のソフトウェア開発」へと、根本的に変わるからだ。これは、これまでパートナーだったハード中心のTier1の価値をほぼゼロにし、NVIDIAやGoogle、AWSといった、全く文化の違うITジャイアントと新しい関係をゼロから構築することを意味する。
この「崖」を飛び越えるという行為は、必然的に「大規模リストラ」を意味する。そして、そのリストラは、これまで俺たちがサプライヤーと共に築き上げてきた無形の資産、つまり「車載特有の品質ノウハウ」や「フェイルセーフの思想」といった、カネでは買えない価値(バリュー)を崖の下に投げ捨てる行為に他ならない。
俺たちの議論は、お前らの美しいパワポの上にはない。この血と汗にまみれた現実にある。
だから、お前らが本当に俺たちのパートナーだと言うのなら、答えるべき問いはこれだ。
この「崖」を越えることで失われる、既存サプライチェーンの無形資産(品質ノウハウ、信頼関係、暗黙知)は、金額換算でいくらだ?その減損を、どうやって、何で補填する計画なんだ?
「意識改革」みたいな精神論で逃げるな。どのTier1との関係をどう縮小・終了し、どのITベンダーと、どのような契約・開発体制で、何年かけて新しいエコシステムを構築するのか。その移行期間中のリスクとコスト(訴訟リスクや技術者流出を含む)を算出して見せろ。
この無謀なジャンプの途中で、開発が頓挫したり、大規模リコールが発生したりした場合、会社をどう守るんだ?そのための具体的な資金計画と、リスクヘッジのシナリオを提示しろ。
これらの問いに、具体的かつ定量的に答えられないのであれば、お前らの提案は、現場の現実を無視した無責任な空論であり、俺たちを崖から突き落とそうとする悪意の塊だ。
俺たちは、崖の向こうの楽園の絵が見たいんじゃない。
以下記事に、CB Insightsが作成した「AutomotiveAI readinessindex」の図版が掲載されている。本稿は当該記事と図版を基に論点を整理する。
出典:自動車大手20社のAI対応度、トヨタは保有特許最多で3位(日本経済新聞)https://www.nikkei.com/article/DGXZQOUC123HX0S5A810C2000000/
日経の記事は、CB Insightsのデータセットを用いたランキング図版として掲載している。一次ソースはCB Insightsであるが、一般に公開されている範囲では、日経が引用した図版と説明に整合がある。よって「日経がCB Insightsの図版を引用したもの」という意味で本物と判断する。
図版注記の要旨は次の通りである。
Execution 60%が実装重視という設計のため、巨大な製造と販売ネットワークを持ち、AIを幅広く回せる体制を築ける企業が上位に来やすい。トヨタはこの点で積み上げが厚い。
日経記事に掲載された図版はCB Insightsのランキングに基づくもので、出典としての整合は取れている。
指数は「AI投資と実装の本気度」を俯瞰する物差しとして有用だが、性能や安全性の優劣を断定するものではない。
トヨタの3位は、実装偏重の配点と同社の実装能力の厚みが合致した結果であり、恣意ではなく設計思想の帰結と理解するのが適切である。
AIへの投資が盛んで何兆円も金がじゃぶじゃぶ投下されているけど
その投資は返ってこないと思う
旧来のモノ売りビジネスの問題といえば、革新的なものもいずれ成熟し価格競争になってしまうって事だった。
それがITの時代になり「しがらみ」を金に換えることができるようになった。
MSがいい例で、客はブルースクリーンを吐き出すWindows95に対して文句を言いながら使い続けた。
なぜなら「みんなが使っているから」だ。
今だとXがそうで、問題があってもみんなが使うから他のサービスに簡単には移れない。
AIはファイル形式でのやり取りがないし、SNS的なつながりもない。
今のところ「しがらみ」はない。
現にchatGPTからClaudeやgeminiに乗り換えたという人は多い。
その時気に入ったものを使う。いろいろなサービスをはしごできる現状は利用者側からするとありがたい。