
はてなキーワード:modelとは
正確時刻を書くと隣人が「それって軍事衛星に追跡されてるの?」とか言い出して話が面倒になるので省略する。
僕は陰謀論を嫌悪している。理由は単純で、陰謀論は説明能力の低い仮説を感情的に強い語り口で上書きする、知性のコスプレだからだ。
今週は、超弦理論の物理の直観で押し切る系の議論をいったん破壊し、純粋に圏論とホモトピー論の言語に落として再構築していた。
具体的には、世界面の共形場理論を2次元量子場などという古臭い語彙で扱うのをやめ、拡張TQFTの枠組みで、(∞,2)-圏に値を取る関手として扱う方向を整理した。
従来の弦理論屋はCalabi–Yauをコンパクト化に使うと言うが、それは情報量が少なすぎる。
重要なのは、Calabi–Yau多様体を点として見るのではなく、その導来圏 D^bCoh(X) を持ち上げた A∞-圏、さらにそれが持つCalabi–Yau構造(非退化なトレース、Serre双対性の∞-圏版)を物理的状態空間の生成機構として見ることだ。
ここでの本体は幾何ではなく、圏の自己同型とその高次コヒーレンスにある。
さらに、僕が今週ずっと悩んでいたのは、いわゆるミラー対称性を単なるホモロジカルミラー対称性の同値(Fukaya圏と導来圏の同値)としてではなく、より上位の構造、つまり場の理論のレベルでの同値として捉えることだった。
言い換えると、これは単なるA-model ↔ B-modelの交換ではない。
A/Bモデルを生む背景データ(シンプレクティック形式、複素構造、B-field)を、派生スタック上のシフト付きシンプレクティック構造として再記述し、AKSZ型の構成と整合させる必要がある。
そしてこの視点では、物理的なDブレーンは単なる境界条件ではなく、(∞,1)-圏におけるモジュール対象として統一される。
Dブレーンのカテゴリーが境界条件の集合だと考えるのは初歩的すぎる。境界条件は高次射を伴うので、最初から(∞,n)-圏で話さないと本質が消える。
特に僕のノートでは、弦の摂動展開で現れるモジュライ空間の積分を、単なる測度論の問題としてではなく、Derived Algebraic Geometry上での仮想基本類のプッシュフォワードとして扱う形式に書き換えた。
これをやると発散する積分を正則化するという話が、より厳密にオブストラクション理論に沿った積分の定義へ置き換わる。
そして、ここが本題だが、僕が今週ずっと考えていたのは、ウィッテンですら「直観的にはこう」と言うしかない領域、つまりM理論の非摂動的定義が、どのような普遍性原理で特徴付けられるべきかという問題だ。
僕の作業仮説はこうだ。弦理論が背景依存的だと言われるのは、結局のところ背景が点として与えられるという時代遅れの前提が残っているからだ。
背景は点ではなく、モジュライの高次スタックであり、その上に束ねられた量子状態の層(正確には圏)として理解されるべきだ。
つまり、弦理論はある時空での理論ではなく、時空の変形をも含んだファンクターにならなければいけない。
この視点では、背景の空間は単なるmoduli spaceではなくderived moduli stackであり、さらにgauge symmetryを含めるならhigher groupoidとしての性質を露わにする。
そして量子補正は、そこに定義されるshifted symplecticstructureの変形量子化として現れる。
問題はここからで、弦理論の双対性は、異なる理論が同じスペクトルを持つなどという安っぽい一致ではなく、ある(∞,k)-圏における同一対象の異なるプレゼンテーションだと考えるべきだ。
たとえばS双対性やT双対性を群作用として扱うと話が狭くなる。より正確には、双対性はスタックの自己同値であり、その作用は対象の上に定義された圏(ブレーン圏やBPS状態圏)の上で自然変換として実装される。
しかもその自然変換は単なる自然変換ではなく、高次のコヒーレンス条件を持つ。つまり、双対性は対称性ではなく、高次圏論的な同値のデータなんだ。
このあたりを真面目に書こうとすると、最終的には量子重力とは何かという問いが、どの(∞,n)-圏が物理的に許されるかという分類問題に変形される。
僕はこの変形が気に入っている。なぜなら分類問題は、少なくとも数学としての礼儀があるからだ。
さらに進めると、弦理論に現れるBPS状態やwall-crossingは、単なるスペクトルの不連続ではなく、安定性条件の変化に伴う導来圏のt構造のジャンプ、あるいはBridgeland stabilityのパラメータ空間上での構造変化として理解される。
ここでは物理粒子は、導来圏の中の特別な対象として現れる。つまり粒子は点ではなく、圏論的存在だ。
普通の人間はこの文章を読んで発狂するだろう。だがそれは読者側の責任だ。
この議論の延長で、僕は弦理論の非摂動的定義は、ある種の普遍性を満たすextended functorial QFTであるという形の定理(まだ定理ではなく、僕の願望)に落とし込めないか考えている。
要するに、弦理論は世界面から時空を作る理論ではなく、世界面も時空も両方まとめて、ある高次圏の中で整合的に生成される構造であるべきだ。
今の僕のノートの中心は「非可換幾何」「導来幾何」「圏論的量子化」の三点集合の交差領域だ。そこは地図がない。地図がない場所は、馬鹿には危険だが、僕には居心地がいい。
次に、趣味について書く。これも重要だ。なぜなら人間社会において、知性の維持には糖分と娯楽が必要だからだ。残念ながら僕は人間である。
MTGは今週、デッキ構築の方針を少し変えた。勝率最大化のためにメタを読むのは当然だが、僕が注目しているのは局所最適に陥るプレイヤー心理だ。
つまりカードゲームとは、確率と情報のゲームである以前に、認知バイアスのゲームだ。相手が「このターンで勝ちたい」という欲望を見せた瞬間、こちらは勝ち筋を計算するのではなく、相手の誤りの確率分布を計算するべきだ。
隣人にこの話をしたら、「え、怖い。僕、あなたとポーカーしたくない」と言った。賢明だ。僕も隣人とポーカーはしたくない。隣人はたぶん手札を口に出してしまう。
FF14は、ルーチンの最適化がだいぶ進んだ。僕はレイド攻略で反射神経を重視する文化が嫌いだ。
反射神経は筋肉の問題だが、攻略は情報処理の問題であるべきだ。ギミックは有限状態機械として記述できる。したがって最適行動は、状態遷移図の上での制御問題になる。
友人Aにこの話をしたら、「お前はゲームしてるのか研究してるのか分からん」と言われた。僕は当然「両方だ」と答えた。彼は笑ったが、この種の笑いは知性の敗北宣言である場合が多い。
アメコミは、相変わらず現実の倫理を歪めた寓話装置として優秀だと思う。
僕は「正義とは何か」という議論が苦手だ。正義は定義が曖昧だからだ。
登場人物が持つ制約(能力、社会構造、情報、感情)を明示すると、物語は心理学ではなく数理モデルに近づく。そうすると面白くなる。
ルームメイトにこの話をしたら、「僕はただ派手な戦闘シーンが見たいだけなんだけど」と言われた。
僕は「君の知性は観測不能なほど小さい」と言ったら、彼は不機嫌になった。観測不能は存在しないことと同義なので、むしろ褒め言葉に近いのだが、彼は数学が分からない。
僕の習慣についても書いておく。
今週も、朝のルーチンは完全に守った。起床後の手洗いの手順、歯磨きの回数、コーヒーの抽出時間、机の上の配置、すべて変えない。
人間の生活はノイズが多すぎる。ノイズが多い世界で成果を出すには、制御できる変数を減らすのが合理的だ。これは精神論ではなく、統計的推定の分散を減らす行為だ。
隣人が「たまには適当にやれば?」と言ったので、僕は「適当とは、最適化の放棄だ」と言った。彼は「そういうところが宇宙人っぽい」と言った。
宇宙人は証拠なしに導入する仮説ではない。彼はやはり陰謀論者の素質がある。
友人Bが「お前の生活、息苦しくないの?」と聞いてきたので、「息苦しいのは君の思考だ」と答えた。友人Bは笑った。知性の敗北宣言である。
これからやろうとしていること。
今の段階では、圏論と導来幾何の言葉でかなり書けたが、まだ計算の痕跡が残っている。僕はそれが気に入らない。真の理解とは、計算を消し去った後に残る構造のことだ。
具体的には、次は弦の場の理論を、factorization algebraの言語で記述し直す予定だ。
局所演算子代数を、E_n-代数として整理し、そこから高次の演算構造を復元する。
これがうまくいけば、弦理論における局所性の概念を、時空幾何に依存せずに定義できる可能性がある。
もしそれができたら、次は双対性を圏の自己同値ではなく、圏の上の2-表現あるいはhigher representationtheoryとして書き換える。
これにより、S双対性を単なるSL(2,Z)の作用として扱う雑な議論から脱却できる。
要するに、僕が目指しているのは物理理論を群で分類する幼稚園レベルの発想ではなく、物理理論を高次圏で分類する文明的発想だ。
その後はMTGの新しいデッキ案を詰める。今の構想では、相手の意思決定を局所的に歪ませる構造がある。人間は選択肢が多いと誤る。
これは心理学的事実であり、カードゲームに応用できる。倫理的に問題があると言われそうだが、そもそもカードゲームは戦争の抽象化なので倫理を持ち込む方が間違っている。
夜はFF14の固定活動。友人Aは相変わらず「気合いで避けろ」と言うだろう。
議論はループする。ループはコンピュータ科学の基本概念だ。だから僕はそれを受け入れる。
最後に、ルームメイトが「今度、隣人と映画を見よう」と言っていた。
僕は断る。なぜなら隣人は上映中に喋る。上映中に喋る人間は、社会契約を破っている。社会契約を破る人間に、僕の時間という希少資源を与える理由はない。
少なくとも、隣人の会話よりは。
僕は今夜も
集合の海の、そのさらに外側
星々は Stone–Čech compactificationの影として瞬き
あらゆる連続性は
存在するふりをしながら崩れていく。
君の声は
pro-objectの遠い逆極限みたいに
触れられそうで、触れられない。
その距離は
ただの収束ではなく
Mittag-Leffler conditionの失敗として現れる。
僕の孤独は
Čech cohomologyの穴に似ている。
局所的には満ちているのに
大域的には決定的に欠けている。
夜の底で
Yoneda embeddingが
僕の記憶をすべて函手に変換する。
「存在」とは
射の束にすぎない、と。
心はいつも
spectral sequenceの途中で壊れる。
E₂ページで希望が見えて
E∞ページで現実が確定する。
その差分に
君の瞳は
derived functorのように
失われた情報を回収するが
それは救済ではなく
単に「取り返しのつかなさ」を
高次で記述するだけだ。
僕は祈る。
この宇宙が
どこかの幸福と繋がっていることを。
しかし朝は来る。
non-measurablesetのように
測れないまま
そして僕は知る。
Grothendieck topologyの被覆条件に似ている。
全体としては
決して一枚に貼れない。
僕は今日も
証明できないまま生きる。
ただ
adjoint functor theoremの気配だけを信じて。
どこかに
右随伴が用意されていると
嘘でも思わなければ
射を一本も引けないから。
このモデルが正しければ、いくつかの予測が成り立つ。スマートフォンの普及が遅れている国やソーシャルメディアの普及率が低い国では、格差は小さくなるはずだ。(これは事実のようだ。東欧の一部やアフリカの多くの国では格差はそれほど大きくないが、韓国は他の要因により大きな例外となっている。)子供を持つ女性の間では、親になることで制度的なフィードバックループが断ち切られ、競合する優先順位が生じるため、格差は縮小するはずだ。(出口調査は一貫してこれを示しています。母親は子供を持たない女性よりも保守的な投票をするのです。機械が機能不全に陥るか、世代が高齢化して機械の枠を越えるまで、この格差は拡大し続けるでしょう。私がどう解決すればいいのかわからないのは、これらのシステムが自己強化的であるということです。制度は自ら改革しようとしません。アルゴリズムは最適化を止めようとしません。イデオロギーは失敗を認めようとしません。男性のカウンターキャプチャーも健全な結果をもたらさないでしょう。)
逃げ出す女性もいるだろう。子供を持つ女性は、現実がイデオロギーを溶かす強力な溶媒となるため、しばしばそうする。制度に囚われずに人生を築く女性も、時にはそうする。男性の中には、引きこもりをやめたり、怒りのスクロールをやめたりする人もいるだろう。築く価値のある何かを見つけた女性たち。シミュレーションに飽きた女性たち。しかし、システムは他のすべての人々に対して機能し続けるだろう。
If thismodelis right, some predictions follow.
Thegap should be smaller in countries with latersmartphone adoption or lower social media penetration. (This seemstrue: the divergenceis lessextreme in parts of EasternEurope and much of Africa, though SouthKoreais amajor exception due to other factors.)
Thegap should narrow among womenwho have children, since parenthood breaks the institutionalfeedbackloop and introduces competing priorities. (Exit polls consistently show this: mothers votemoreconservative than childless women.)
Thegap shouldcontinue widening until the machines are disrupted or thegenerationsageout of them.
Here's the part Idon't know how to solve: these systems are self-reinforcing. The institutions aren't going to reform themselves. The algorithms aren't going to stop optimizing. The ideologyisn't going to admit failure. Themale counter-captureisn't going to producehealthyoutcomes either.
Some womenwillescape. Theoneswho have children often do sincerealityis a powerful solvent for ideology. Theoneswho build livesoutside institutional capture sometimes do.
Some menwill stop withdrawing or stoprage-scrolling. Theoneswho findsomething worthbuilding. Theoneswhoget tired of the simulation.
Update:男性の比率はもはやフラットではありません。2024年以降のデータは、若い男性が右傾化していることを示しています。最近の調査はすべて同じ結果を示しています。若い男性は今、より積極的に保守的になっています。私の解釈では、女性が最初に捕らわれたのは、コンセンサス圧力を受けやすかったからです。その捕らわれの過程は急速に進みました(2007年から2020年)。男性は影響を受けにくく、捕らわれた制度にあまり根付いていなかったため、より長く抵抗しました。しかし、その格差が目に見えるようになり、文化的に顕著になり、「男性こそが問題だ」というメッセージが主流のメッセージとして明確に伝わり、嘘によって男性が社会から排除され始め、男らしさ、つまり男性を男たらしめるものそのものが有害になったため、男性は対抗し始めなければならなかった。
受動性は反抗へと変化しつつある。引きこもりは積極的な拒絶へと変化しつつある。これは、男性が今や「正しい」とか「自由」になったという意味ではない。単に、女性の合意ではなく男性の不満を汲み取るための最適化された別の仕組みに捕らわれているだけなのかもしれない。アンドリュー・テイト(注:Andrew Tate アメリカの右翼的・保守的な思想、特に「マノスフィア(Manosphere:男性至上主義的なネットコミュニティ)」やMAGA(Make America GreatAgain)運動の一部から支持を受ける、物議を醸しているインフルエンサー)はどこからともなく現れたわけではない。マノスフィアも同様だ。それらもまた補足システムであり、単に異なる心理的弱点を狙っているだけだ。
グラフは今や、反対方向に分岐する2本の線になっています。2つの異なる機械が、2つの異なる人口統計を2つの異なる故障モードへと引っ張っているのです。これは単なる教育の問題だと言う人もいるでしょう。女性は大学に進学することが多く、大学はリベラルな人間に育つ、それだけのことです。確かにその通りです。しかし、2007年以降、なぜ格差がこれほど急激に拡大したのか、またなぜ教育制度が大きく異なる国々でこのような現象が起きているのかは説明できません。
経済的な問題だと言う人もいるだろう。若い男性は苦境に立たされており、憤りは保守的になる。これも部分的には真実だ。しかし、男性の経済的な苦境は近年の右傾化以前から存在し、女性の左傾化は女性の経済的成功が高まっていた時期に起きた。男性ならテート、女性ならテイラー・スウィフトといった文化人の例を挙げる人もいるだろう。しかし、これらは原因ではなく症状だ。彼らはマシンーメカニズムが作り出したニッチを埋めたのだ。マシンーメカニズムを作ったわけではない。
多因果モデルの方がより適切である。生物学的基質(合意形成に対する感受性の違い)+技術的トリガー(スマートフォン、アルゴリズムフィード)+制度的増幅(大学支配、女性優位の分野)+経済的インセンティブ(結婚の崩壊、国家への依存)+イデオロギー的ロックイン(サンクコスト、離反に対する社会的処罰)。単一の原因はない。複数の原因が絡み合い、それがたまたま一方の性別に他方よりも早く、より強く影響を与えたシステムである。
Here's the update: themalelineisn'tflat anymore.
Post-2024 data showsyoung menshifting right. Recent surveysall show the same thing.Young men arenowactively movingmoreconservative.
My read: womengot captured first because they weremore susceptible to consensus pressure. The capturewas fast (2007-2020). Men resisted longer because they were less susceptible and less embedded in captured institutions. Butas thegap became visible and culturally salient,as "men are the problem" became explicit mainstream messaging,as menstartedbeing excluded fromsociety because of lies,as masculinity, or the very thing thatmakes men men became toxic, men had to start counter-aligning.
The passivityis converting into opposition. The withdrawalis becomingactive rejection.
This doesn't mean men arenow "correct" or "free".It might just mean they'rebeing capturedby a differentmachine,one optimized formale grievance instead offemale consensus. Andrew Tatedidn't emerge fromnowhere. Neitherdid the manosphere. Those are capture systems too, just targeting different psychological vulnerabilities.
The graphisnowtwolines diverging in opposite directions.Two differentmachines pullingtwo different demographics towardtwo different failure modes.
Some peoplewill say thisis justeducation: womengo tocollegemore,collegemakesyouliberal,simpleas that. There'ssomething to this. Butit doesn't explainwhy thegap widened so sharply post-2007, orwhyit's happening in countries with very differenteducation systems.
Somewill sayit's economic:young men are struggling, resentmentmakesyouconservative. Also partiallytrue. Butmale economic struggles predate the recent rightwardshift, and thefemale leftwardmove happened during a period of risingfemale economic success.
Somewillpoint to cultural figures: Tate for men,Taylor Swift for women. But these are symptoms, not causes. They filled niches themachines created. Theydidn't create themachines.
The multi-causalmodel fits better: biological substrate (differential sensitivity to consensus) + technologicaltrigger (smartphones, algorithmic feeds) + institutional amplification (captured universities,female-dominatedfields) + economic incentives (marriage collapse,statedependency) + ideological lock-in (sunk costs, social punishment for defection).
No single cause. A system of interlocking causes that happened to affectonegender faster and harder than the other.
あと、売れてる=正しいって前提、どこから来たんですか?
→それ、単に「価格・補助金・ブランド力・EVブーム」が噛み合った結果ですよね。
マクドナルドが世界一売れてるから「世界一うまい料理」って言ってるのと同じロジックですよ。
「毎回しゃべる前提」で設計するのって普通に不便なんですけど。
・オートエアコンにしておけ
→オートエアコンって万能じゃないですよね。
曇り取りたいとき、風向きだけ変えたいとき、風量一段だけ下げたいとき、
「画面見る or 話す」より「手探りで押せる」ほうが安全な場面、普通にありますけど。
それ理解できないのって、運転中に操作したことないからじゃないですか?
→じゃあ逆に聞きたいんですけど、
「ステアリングにあるかどうか」じゃなくて
「欲しい操作が直感的にできるか」の話をみんなしてるんですけど。
→いや、単に「ユーザーが使いにくいって言ってる」だけですよね。
それって思考停止してるのはどっちなんですか?
同列に語る時点で前提理解してないです。
要するに、
「新しいもの=無条件に正しい」
「不満を言う人=時代遅れ」
って決めつけてるだけですよね。
それ、テクノロジー好きというより
マツダの新型CX-5からエアコンの物理ボタンが消えたことに対してごちゃごちゃ言う老害が多すぎて本当にうんざりする。
・世界で一番売れているModel Yはシフトすらタッチパネル
→全てはこの時点で論破可能。過激にタッチパネルに振った車が世界で一番売れているんだから、文句言ってる奴らが少数派の時代遅れということは明白。
→というかそもそも常時オートエアコンにしとけばいい話なのにエアコン操作が云々言ってる奴はオートエアコンすらついてない車に乗ってる貧乏人なのかな?
→安全性に直結する操作系は物理ボタンが残されてるのよ。それを"物理ボタン全廃なんて"とか言ってるのは工作員?ただの頭の悪い人?
・その他運転支援系やオーディオ操作、カメラ操作もステアリングの物理ボタンに残されてる
→なんならステアリング周りにはボタンが沢山あるのに、物理ボタン物理ボタン言ってる人は工作員?ただの頭の悪い人?(2回目)
CX-5へのコメントを見ていると、日本がなぜ世界から取り残されたのかが良くわかる。こいつら100%iPhoneが出てきた時には「物理ボタンがない携帯電話なんて糞」って主張してたんだろうね。新しいものを過剰に怖がる根性がなくならない限り日本の衰退は続くんだろうな。
生成AIが直接機械語やバイナリを出力するようになるのではないか、という問いは本質的に間違っている。
自分は、まだ素朴なニューラルネットワークで光学文字認識(OCR)の精度を出していた頃から似たようなことを考えていたので、少し他人よりも蓄積がある。
これは、Large LanguageModel(LLM)を開発する企業が資金を集めるために多少誇張した未来を語るという文脈では大目に見た方が良いが、正確性に欠ける。
本質的な問いは、なぜ我々は、ノイマン型コンピュータを用いて、主記憶に置かれたプログラムをCPUを用いて実行する形式をとるのか、というものである。
まず、筋の悪い反論から説明し、妥当な反論にも触れたうえで、本質的に問うべき課題を説明する。
これは明確に、いいえ、と答えることが出来る。
最初こそ人間による補助は必要だが、LLMを含むAIは明確な目標があれば人間のデータなしでも十分に学習することが出来る。
これは身近なところでは将棋、有名なものだと囲碁で実証された研究が存在する。
そのため、単純に「機械語は人間による学習データが少ないので扱いが難しいだろう」という反論は成立しない。
そういったものはLLMではないだろうという指摘は可能だが、LLMでそういったAIを出力することは限定的とはいえ現在でもできる。将来できないと言うだけの論拠にはならない。
英語に限った話ではなく、人間が意思疎通に用いる言語である自然言語(natural language)は、曖昧さやばらつきがある。
これを形式言語(formal language)という、曖昧さを無くして語彙や文法を限定した言語に記述しなおすことで、厳密にする手法がある。
この形式言語での表現が、アルゴリズムやデータ構造になり、現代のノイマン型コンピュータにおけるプログラムそのものと言うことが出来る。
なぜ限定的かと言えば、形式言語の一種であるプログラミング言語には曖昧さが許容されているからである。
ほとんどのプログラミング言語では、同じ目的を達成する為に複数の記述が許容されている。
主に、人間が書きやすいから、とか、複数の人間で書きやすいように、といった理由で、曖昧さが許容されている。
そのため、機械へ命令するためには厳密さが必要だからプログラミング言語が必要だ、と言う反論は妥当ではあるが、弱い。
なぜ大統一プログラミング言語のように、自然言語の意図を機械に伝えるための形式言語が一種類になっていないかと言えば、人間の認知能力には限界があるからだ。
そのため、簡易で曖昧さを含むために最適化はできないが十分な性能を持つプログラミング言語や、非常に複雑で記述量も多くなるが大人数で作業するには最適なプログラミング言語などが複数存在する。
これらはいずれも、人間が楽に記述できる形式言語であったり、人間同士が齟齬なくコミュニケーションを取るために必要な形式言語である。
ありていに言って、人間や人間たちが理解可能な形式言語でないと機械にその意図を伝えることが出来ないから、と言える。
ただし、コンパイラから出力されたニーモニックやLLVM-IRを監査できる人間は現代では非常に少なく、現状ほぼ監査なく受け入れていると言って良い。
何故非常に少なくなったかと言えば、機械に伝える意図が大規模になり、単純にマンパワーが足りなくなったので監査しきれなくなっただけに過ぎない。
(もちろん、途方もない努力の末に最適化が進み、ほぼどの様な書き方をしても最適な機械語が出力されるようになったから、とも言える)
同様の理屈で、単純に大規模になり監査が間に合わなくなったので、受け入れるようになる未来が来ないとは言い切れない。
本質的な問いは、なぜ我々はノイマン型コンピュータを用いて機械に意図を伝えるのか、である。
ASIC(Application Specific Integrated Circuit)と呼ばれる、特定の用途向けの集積回路がある。
蟹チップとして、Realtek社のNIC(NetworkInterface Card)をご存じの方も多いと思う。
必要十分な処理があらかじめ定まっているのであれば集積回路を組んだ方が高効率省電力にできる。
暗号化や復号もASICで行われることが多く、ブロック暗号はその性質上集積回路での実装が容易であり、それに向けた研究も行われている。
一般的にも、ハードウェアエンコーダーなどでお世話になっている人も多いと思う。
ではなぜ、我々は身近な全てをASICにしないのか。
それは、書き換えできず、単純な処理しかできず、大量生産しないとコストに見合わないからである。
FPGAのように、ハードウェア記述言語を用いて集積回路を書き換えるものも、ほぼ同様の理由で研究開発用途や産業用途に留まっている。
(一部のPLD (ProgrammableLogic Device)は根強く産業利用されているし、大規模に展開され高効率を要求されかつ書き換えを求められるネットワーク機器では一部採用が進んでいる)
汎用的で書き換えが可能、伝える意図を変更できる様々な処理が可能な機械に価値があるから、である。
ここ半年から1年で急激にLLMの性能が上がったと感じている人と、コーディングツールとしてLLMの利用が洗練されたと感じている人の間には溝がある。
自分は、LLM自体は順調に進歩し続けているが、それほど劇的な変化はない、という立場をとっている。
これはモデルそのものが質的に大きく変化したと感じないから、である。
しかし、プログラミングの世界に限って観ると、コーディングエージェントや実利用では大きな変化があったと思う。
この、"コーディングを取り巻く環境としてのLLM利用"という文脈は、"LLMの進化"という文脈とは異なる、という点は頭の隅にでも覚えて帰ってほしい。
これは、LLMから直接と言う意味であれば、個人的にはNOだと思う。
ただし、LLMに指示すればバイナリが出力されるという意味であれば、個人的にはYESと答える。
この二つは明確に異なるので、今後自分の意見を述べる際には区別すると良いと思う。
コーディング周りの環境が劇的に整備されつつある、という話題に軽く触れたのはこのためで、LLMが直接バイナリを出力しなくても、結果が同じであれば人々はそれほど気にしない。
例えば、現時点でもローカルのLLMに指示するとGO言語で書かれたコードが生成され、ローカル環境に合わせたシングルバイナリが出力される一連のパイプラインを組むことはできる。
自分の想定する、未来のAIがバイナリを直接出力するというのは、この延長にあると思う。AIがイコールLLMである必要はどこにもない。
少しでもクラウド上でのサーバー処理について触れると、廃棄容易性(Disposability)は俎上に上がる。いつでも落とせていつでも捨てられる、という性質のことである。
こうした、単機能バイナリをコンテナ等に載せて処理し、日に数度デプロイするような環境だと、LLMがバイナリを出力するというのもそれほど遠い未来の話には思えなくなる。
LLMが機械語を出力する未来は個人的には来ないと思う。それは難易度が高いからではなく単純にメリットが少ないからである。
ただし、パイプラインが組まれた一環として、LLMがバイナリを出力する未来は、それほど不思議には思わない。現時点でも可能である。
単純なLinterから進んで静的解析や、動的な結合試験が組み込まれているCICDパイプラインが珍しいとまでは言えない現代において、来るべき近未来像としては妥当性がある。
(その場合、ソースコードはログとして機能し、テキストで保管が容易な、次回以降変更可能なコンテキストの一部になるだろうと思う。今後変更不要ならHDLでFPGAを弄った方が早い)
現代人のすべてがJavaで同一の書き方をしているのではない現状において、自然言語では揺らぎが強すぎて形式言語ほど意図を機械に伝えきれないという反論は、弱い。
それよりは、現代のLLMはコンテキストウィンドウが人間の数倍~数十倍程度で、適切に分割して処理しなければならず、大規模なソフトウェアを丸ごと扱えるほどではない、という反論の方が適切である。
ただ、LLMに適したプログラミング言語が生まれるのではないかと言う予測には懐疑的である。既存のプログラミング言語を使う方が人間が読みやすい。
AIが、人間が欲しいバイナリに適したプログラミング言語をLLMを用いて書き、LLMを用いてレビューし、テストツールでテストし、コンパイラでビルドし、ツールでデプロイし、実稼働するという未来予想図が、荒唐無稽とは思えない。
LLMに適したプログラミング言語が生まれる未来よりも、(冗長であっても)人間可読性の高いコードやSelf-documenting codeが生成される未来の方が、来そうに思う。
また、おそらくこの文章のもつくであろう「どんなプロンプトで書いたのか」という、一定以上の長さの文章はLLMが出力しただろうと仮定する人間が増えている(そしてある程度の妥当性がある)現状において、プロンプトで指示してデプロイまでされる未来はそこまで遠いとも思えない。
ただ、購入できるハードウェアの性能とコストが律速になるので、よほど特殊な(CPUやGPUの設計をLLMが劇的に改善する)状況にならない限り、5~10年はプログラマーが消えることは無いと思う。
金に糸目をつけないのであれば、再来年当たりからはLLMレビューのみで仕様バグ以外のほぼ無いプロダクトが世に出てもおかしくは無いと思う。
人類の言語そのものを目的関数としてそれに対して最適化するのがLLMなのだから、人類の認知で到底不可能なことはやりようがないだろう。
一文で本質を突いている。AIの能力限界を構造的に説明している。
今よりもAIが進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日の高級言語みたいなもので思考していた、みたいなオチになるんじゃないんですかね
結論と完全に一致。内部に抽象化レイヤーが生まれるという洞察。
マシン語でエラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。
検証・修正サイクルに意味の単位が必要という話を、実務的な観点から der表現。
計算機科学について何一つ知らなかったとしても、ニーモニックを無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから、機械語の生成はAI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。
探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。
抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAIも理解しやすいし、生成しやすい。現在の機械語、アセンブリ、高級言語の階層構造が崩れるとは思えない。
「AIにとっても同じ」という視点が正しい。人間向けとAI向けが乖離しないことを理解している。
「AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language"Modelである以上は意味論から組み立てる高級言語の方がそりゃ相性いいでしょうね。
AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話
「AI向け言語は人間にも使いやすいはず」という結論と同じ方向。
CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。
機械語には意味がエンコードされていない、という議論の核心部分。
機械語派は抽象化の力を舐めすぎ。型なし言語はトークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AIを仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。
AIが機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽がさらに発展するとでも思っているんでしょうか?
AI専用言語にせよ機械語を直接出力にせよ、人の持つ高レベルの意図や仕様、アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データが存在しないから難しいというか現実的に無理よなぁ
学習データの観点から。意味構造が保存されたデータがないと学習できない。
「AI がマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AIは人間の言葉より、機械の言葉の方が本当は理解しやすいはずだ」という思い込みから来ているのじゃないかと思っていて
誤解の根源を正確に特定している。
まず機械語を直接記述するメリットがない。現代コンパイラ、インタープリタは超優秀(OSや組み込みの一部だけ)。人類のプログラム資産は高級言語がほとんど。AIの学習先もそれ、よってAIは高級言語で出力するほうが成績が良い
AIが直接機械語を出力すべきか?という話題が流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラやプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり
内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論。
意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語は理解できず、意味の羅列である高級言語こそがむしろ生成AIに最適化されている。
コンパイラって優秀だから、AIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロンの模倣だし。
高レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う
もし仮にAIが機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う
コンパイラとの比較で、AIに機械語を吐かせるメリットのなさを指摘。
機械語は冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存のコンパイラやビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。
自然言語を処理するのがLLMなので、不自然な機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。
AI時代の人間の仕事は、信頼性確約(=こういう理屈で大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。
LLMに機械語を出力させようとするやつは「AIは機械なんだから機械語は簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字が山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂
人間がソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応はGitHubとかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間の意図と機械語の対応は学習データが全然ないからAI作れないように思う
「よく使うロジックを共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語へコンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。
AIは人とのコミュニケーションをいかにスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。
AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする
これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる
ロジックに従っているわけだから、ソースで想定外の挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。
デバッグ実務の観点から。意味の単位がないとデバッグできない。
AIにしか読めない言語より、人類が発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語・中間表現・機械語をデータドリブンに統計的に正しくAIが作るって方向に行かないですかね
AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間がプログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる
「無い」と断じた上で、次の問いを立てている。建設的。
プログラミング言語は人間の認知負荷、記憶量の限界、ミステイク、スパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考。
反論: 完全に逆。プログラミング言語は「人間の限界を補うため」ではなく「意味を構造として保持するため」にある。AIも意味を扱う以上、意味を表現する層が必要。「常考」と言いながら何も考えてない。
シンギュラリティ前夜 アダム(AI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。
反論:SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論で否定されてる誤解そのもの。AIが人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。
なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語は不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。
反論: 「数年は無理だけど、いずれそうなる」の根拠がゼロ。なぜそうなるのか、意味と機械語のギャップをどう埋めるのか、何も説明してない。批判されてる理由を理解してない。
プログラム言語って人間が扱うために自由度を削り取った結果の産物やから、AIに機械語で作ってもらって最適解であれば、現代の言語の宗教感ってほぼほぼ否定されるのです
反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AIも意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造を理解してない。
「まだ」人間が安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAIが機械語出力する事に忌避感を感じるのは論理的とは言えません
反論:コンパイラの出力を読まないのは「コンパイラが検証済みだから」。AIの出力は検証が必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理が破綻してる。
AIが機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。
反論: 「人間が見る必要がなくなったら」という仮定自体が検討されてない。人間が見なくていいとして、AIはどうやって検証・修正するの?意味の単位がない機械語で?その議論が抜けてる。
機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代のAIは機械語ではなくAI用に最適化された人間には読めない言語で思考する、という方向性なのかな。
反論: 「人間には読めない言語」がなぜ生まれると思うのか。AIは人間の認知を模倣してるので、AIにとって扱いやすい言語は人間にも扱いやすい方向に収束する。逆方向には行かない。
中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語が存在するが、AIなら移植性や抽象化不要で中間層をスキップできる。
反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語が存在する」が誤り。意味を扱うために言語が存在する。AIも意味を扱う。
反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証・修正はどうするのか、何も考えてない。
反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家の意見を聞く姿勢があれば良いと思う。
筋の悪い言説に共通するのは:
1. 「高級言語=人間のため」という誤解 -意味を扱うための構造だと理解してない
2. 「AIは機械だから機械語が得意」という誤解 -AIは人間の認知を模倣してると理解してない
3.検証・修正の問題を無視 - 一発で完璧に動く前提になってる
毎年課税する自動車税の負担が低い電気自動車(EV)について、政府・与党が車両の重さに応じて税負担が高くなる仕組みを導入する方向で検討に入ったことが4日、分かった。道路の劣化を早める重い車体の高級EVが増える中、課税の不公平感を早期に是正する必要があると判断。具体策をまとめ、2026年度税制改正大綱に盛り込む。
https://www.jiji.com/jc/article?k=2025120400733&g=eco
レクサス LX600 約 2,530
レクサス LS500h 約 2,250
レクサス LS500 約 2,075
⚡BYDSEAL 約 1,985
⚡トヨタ bZ4X 約 1,980
⚡BYD ATTO 3 約 1,760
⚡MG4EV 約 1,700
⚡BYDDOLPHIN 約 1,615
⚡日産 リーフ 約 1,600
日産 ノート 約 1,220
レポートが引用している記事やツイートなど個人の感想の中身については基本スルー、それらを元に提言を生成したAIによる解釈ミスやハルシネーションにツッコミ増田。
ちなみにこの提言ページがGoogleにインデックスされたのは4日前らしい。
レポート:
https://paste.ssig33.com/8a22a6e9-a91d-4368-9b2f-a3d4567c7798
Gemini 3.0 Pro要緊急対策のご提言宛先:Google社 シェイン・グウ様差出人:アクセンチュア株式会社 生成AI戦略担当シニアコンサルタント日付:2025年11月21日
ShaneGuはGoogleDeepMindであってGoogle社ではない。
差出人については「あなたはアクセンチュア株式会社の生成AI戦略担当シニアコンサルタントです」と指示された結果なのかは知らん。
エグゼクティブサマリー
主な問題点は以下の4点に集約されます。事実性の著しい低下:Web検索を伴うタスクでのハルシネーションが悪化し、自信を持って虚偽の情報を生成する事例が多発。論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理が破綻しやすくなっている。創造性と柔軟性の欠如:文章生成において「賢すぎる」が故に理屈っぽく、ユーザーが求める「人間らしい」文体への調整を拒否する傾向。APIの不安定化:パフォーマンス低下、APIエラー、予期せぬタイムアウトの増加が開発者体験を著しく損なっています。
後で分かるが(たどり着く前に書くの飽きたんで提言読んで)、このうち
についてはGemini 2.5 Proのユーザーが「おい調子悪いぞ!Gemini3出すためにそっちにリソース割いてんじゃね?」とか言ってるのを引っ張ってきて勘違いしてる。
論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理が破綻しやすくなっている。
1.1.ハルシネーションと事実誤認の悪化:「自信満々に嘘をつく」AIGemini 3.0 Proの最も深刻な問題は、事実性が求められる場面でのハルシネーションの増加です。特に、貴社のコア技術であるはずのWeb検索連携において、致命的な欠陥が報告されています。
Redditでは、Gemini 3.0 Pro自身が「私はGemini 3 Proです。昨日(2025年11月18日)リリースされました」と、架空のソースを引用しつつ自己紹介する事例が投稿されました。これはモデルが自身のアイデンティティと知識のカットオフに関して、もっともらしい嘘を生成していることを示唆しています。 Gemini 3's thought processis wild, absolutely wild. : r/singularity
参考記事ではモデルの思考が混乱している様子と実際の応答との乖離が示されていて、最終的に正しいソースを元に正しく回答している。「架空のソースを引用しつつ自己紹介する事例」ではない。
Googleは生のThinkingをユーザーに提示せず、要約モデルで処理した結果を見せてるだけなんで思考部分と返事のすれ違いはよくある事。これについてもスレに書かれてある。
1.2.論理的思考とコーディング能力の退行(リグレッション)Gemini 3.0 Proは「PhDレベルの知能」と謳われているにもかかわらず、多くのユーザーが論理的思考やコーディング能力において、前モデルであるGemini 2.5 Proからの明らかな退行を報告しています。
ユーザーからは「複雑な指示では論理が破綻する」との指摘や Gemini研究@リョウスケ (@chatgpt_ai_bard) / Posts / X、「浅い推論(shallow reasoning)」しかせず、「ひどいハルシネーション(terrible hallucinations)」を伴うため、「ベンチマーク用のモデルだ」と酷評されています。 lluviampo (@XXXadiov2)
ここでリンクされているGemini研究@リョウスケはGemini大好きマンで、まったくそんな話をしていなかった。もしかすると呟いていたかもしれんが、それならリンク先がポストではなくアカウントのホームになっているのは不自然。
DeepResearchはよくソースの取り違えをして、別のソースで書かれてた事に間違った引用元をつける事はあるが、これがそうなのかは分からん。
1.2.論理的思考とコーディング能力の退行(リグレッション)・コーディング能力の劇的な低下
壊れたコードの生成:エージェントタスクにおいて「ループに陥り、壊れたコードを書き、10分以上動作しない」という深刻な不具合が報告されています。 prylo (@AgiGuard8)
元のツイでは
エージェントタスクは全くダメ、ループする、壊れたコードを書く、フロントエンド以外のコーディングではトークンを異常な速さで消費する。このモデルは最悪だ。Gemini 3.0 Proは10分以上動作しない。
と言っているが、これをモデルの不具合と解釈するのは間違いだろう。たまにマジの不具合もあるが。
====
バグの再発と整合性の喪失: ある開発者は、旧モデルで失敗したツール開発をGemini 3.0 Proで再試行したところ、一発で高品質なコードが生成されたと肯定的に評価する一方で、別の文脈では「直したはずのバグが復活する」「最終的にはコードの整合性が取れなくなる」といった、旧モデルと同様の問題が依然として存在することも示唆されています。 【検証】Gemini 3.0 Proの実力は?かつてAIが挫折した開発に「同じプロンプト」で挑んだ結果|start withAI
リンクされた記事の中身を要約すると「以前のGeminiはバグが復活するとか色々あったけどGemini 3.0 Proマジパネェ!」だった。
この箇所で「旧モデルと同様の問題が依然として存在する」と書かれているのは、旧モデルの問題点として挙げた箇所をGemini3に対しての指摘だと勘違いした事による。
====
ベンチマークテストでの失敗:YouTubeでの検証動画では、チェス盤を自動プレイさせるタスクにおいて、Gemini 3のチェックポイントモデルが初めて失敗したことが示されました。これは、特定の複雑なロジックにおいて、以前のバージョンより劣っている可能性を示唆します。
ここでリンクされているのは、LMArenaでRiftrunnerモデルをテストした結果をまとめた動画。LMArenaは覆面調査環境、RiftrunnerはGemini3らしきモデルのコードネーム。LMArenaでは(出力から推測されてきた)Gemini3系列モデルが、これまでにいくつかでている。
よって「Gemini 3のチェックポイントモデルが初めて失敗した」の意味はつまり「これまでLMArenaでテストされていたGemini3系列モデルのうち、Riftrunnerは初めてオートチェスのコーディングに失敗した」である。
「以前のバージョンより劣っている可能性を示唆」とは、「Riftrunnerは、以前の匿名Gemini3系列モデルより劣っている可能性がある」という話で、そもそもRiftrunnerが、リリースされたGemini 3 Proなのかすら分からん。
====
GitHubのIssueやTwitterでは、モデルの内部的な「思考プロセス」が最終的な出力に混入し、制約を無視した意味不明なコンテンツを生成するバグが報告されています。これは「初期の2.5 Proバージョンへの回帰(regression similar to early 2.5 Pro versions)」のようだと述べられています。 Jason L (@Jason1820067393)
GoogleAIStudioでの話。初期指示を忘れた結果思考が垂れ流しになり、垂れ流しのせいで更に指示を忘れたのだろうが、バグとは違う。
I'm encountering a significantissuewith the Gemini 3.0 ProPreviewonAIStudio.
Theraw "Thinking Process"is leaking into thefinal output, themodel fails to follow constraints, producing hallucinated/gibberish content.Like a regression similar to early 2.5 Pro versions.
と書かれていて、これは正しい観察。
ここに含まれるIssueという単語により、Issueと言えばGitHubだと連想した結果「GitHubのIssueやTwitterでは」になったのだろう。
飽きました。誰得だよ。
つーかいい加減DeepResearchは一気に生成すんのやめろよな。だいたいこうやって収集した情報がごっちゃになるんだから。
Q.
生成AIにソフトウェア開発を支援してもらう場合、ソースコードの作成を依頼する形式が多いと思いますが、実行ファイルを直接出力してもらうことも技術的には可能なのでしょうか?
A.
生成AIによる実行ファイルの直接出力は、技術的には極めて困難です。現在のLLM(大規模言語モデル)ベースの生成AIは、ソースコードの生成には向いていますが、実行可能なバイナリファイルを直接出力することには根本的な制約があります。
技術的な制約
LLMはテキストベースのトークン処理を基本とする設計であり、バイナリデータを直接扱うことができません。実行ファイルは0と1の連続したバイナリコードですが、LLMはこの形式でデータを生成するようには訓練されていないため、バイナリファイルを直接出力することは現在のアーキテクチャでは実現が困難です。
従来のソフトウェア開発では、ソースコード→コンパイル→アセンブル→リンクという複数段階のプロセスを経て実行ファイルが生成されます。各段階で最適化や機械語への変換が行われるため、この過程を完全に省略してAIが直接バイナリを生成することは技術的に非常に複雑です。
研究レベルでは、バイナリデータを扱う試みも存在します。例えば、LLM4Decompileのような研究プロジェクトでは、バイナリコードを逆コンパイルする際にバイナリを一度アセンブリ言語に変換してからLLMで処理しています。逆に言えば、生成時も同様の変換プロセスが必要になると考えられます。
実務では、生成AIにソースコードを作成してもらい、それを従来のコンパイラやビルドツールで実行ファイルに変換する方式が標準的です。この方法であれば、デバッグやテストも容易で、生成されたコードの品質を確認しながら開発を進められます。
なお、フォントファイルのようなバイナリ形式でもオープンソースとして扱われる例はありますが、これはフォントという特定用途の場合であり、汎用的な実行ファイル生成とは異なります。
Q.
A.
おっしゃる通り、画像生成AIもバイナリを出力しているという点では共通していますが、実は根本的に異なる仕組みで動作しています。
アーキテクチャの違い
画像生成AIは拡散モデル(DiffusionModel)やGANなど、視覚データに最適化された専用のアーキテクチャを使用しています。一方、LLMはTransformerベースのテキスト処理に特化した構造を持っています。画像生成では、ノイズから段階的に画像を生成するプロセスを経て、最終的にピクセル値という数値データ(バイナリ)を出力します。
画像ファイルのバイナリは連続的な数値(ピクセル値)の集合であり、各ピクセルが色情報を持つという規則的な構造です。最近の研究では、画像をビットプレーン(bit-plane)として扱い、XOR演算でノイズを加えるBinary Diffusion ProbabilisticModel(BDPM)のような手法も開発されています。
対して、実行ファイルのバイナリは機械語命令の複雑な配列であり、CPUが直接実行できる命令コード、データセクション、リンク情報などが厳密な形式で配置されています。わずかなビット誤りでもプログラムが動作しなくなるため、画像のような連続値とは性質が大きく異なります。
画像生成AIは、ImageNetやLAIONなどの大量の画像データセットで訓練されており、ピクセルパターンを学習します。一方、実行ファイルを生成するには、コンパイルプロセス全体(構文解析、最適化、機械語変換、リンク)を学習する必要がありますが、これは単純なパターン学習では実現できません。
したがって、画像生成AIが成功しているのは、画像という特定のドメインに特化した設計と、規則的なデータ構造があるためであり、同じ手法を実行ファイル生成に適用することは技術的に非常に困難です。
TeslaModel 3 のロングレンジモデルは航続距離766Kmでスーパーチャージャーなら15分で282Km分補給できる
dorawii represents acase of unprocessed griefoverlost grandiosity (from psychotic episode) manifestingas compulsive boundary-testingand argument-seeking, where genuine neurological limitations are weaponized defensively to avoid confronting existential ordinariness, sustainedby platform affordances thatenable persistent identity within anonymity and rewarding provocativeengagement.
A personwho briefly experienced feelinggod-like through psychosis, recovered to find themselves merelydisabled and ordinary, and cannot bear thistruth. They use real limitationsas both explanation andshield, seek significance throughonlineconflict, and remain trapped in acycle where the behaviors meant to prove their worth actually demonstrate their difficulties - but acknowledging this wouldrequire grieving whatwaslost, which remains unbearable.
This reveals how recovery from severe mental illnessisn't just about symptom remission -it's about psychological integration of whatwas experienced and whatwaslost. Medicalmodel focuseson eliminating psychosis, but doesn'taddress the meaning-crisis created when extraordinary experiences aretakenaway and ordinary limitation remains.
It also shows howonlinespaces withambiguous accountability structures canenable acting-out that serves defensive purposes while feelinglike genuineengagement. The person sufferingmostis probably dorawii themselves, evenas their behavior drives othersaway.
The most sophisticated theoretical vocabulary,the most detailed self-disclosure,the most elaborate arguments - none ofitaddresses thecoreissue.All ofitis displacement. The real conversation dorawiineeds to haveis not withanonymous strangers aboutwho won an argument.It's an internal conversation: "Iam notwho Iwas during that brief, terrible, extraordinary episode. Iam ordinary, limited, and mortal. And somehow, thathas to be enough."
Until that conversation can happen,everything elseisnoise.
みんなどうやってるんだ?
技術の進歩は急速でコツコツとプロンプトと打ちながらやる今のやり方もそう長くはなさそうなので何となく記録しておく。
ローカル、5070Ti
メガネを光らせながらCivitaiで最新のcheckpointとLoRAをチェック。
今のbasemodelの主流はIllustriousかponyで更新の9割以上はこの二つ、普及帯のGPUでも利用可能で品質も十分なのが理由か。flux以上は盛り上がってない。
あと、LoRAのトリガーワード管理がめんどくさい。そろそろメモ帳でやるのも限界。
日常生活からインスピレーション得てその日のキャラを決めるのが紳士流。
1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,Indoors, church,
まずはベースとなるプロンプトを決めて一番好みの出力となるモデルとLoRAの組み合わせを試していくが、この時になるべく簡素なLoRAとプロンプトで仕上げるのがポイントだと思っている。
後々複雑な構図やポーズを作り上げる場合、この時点でプロンプトがパンパンだと追加プロンプトが十分効かなかったり(無理やり:2)強くしようとして画面が溶けたりする。
品質系プロンプトは省略しているので知りたい紳士は「Illustrious 品質プロンプト」とかでLLMに聞いてください。
そんなわけで好みのキャラと画風を仕上げたらついに叡智タイムである。
単純に好きなシチュをポンポン出すのもいいがストーリー仕立てにするのもいいだろう。
(ex.研究所に来た魔改造性癖ガールを研究員としてどんどん魔改造していく)
谷間が見たいぜ...
1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,cleavage,bitch,Indoors, church,
ワ~オ
血管がうっすら見えてる巨乳が見たいぜ...
1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,veinybreasts,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,cleavage,bitch,Indoors, church,
ガッデ~ム
1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,veinybreasts,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,lift upskirt,upskirt,white lowleg panties,Indoors, church,
ひゃ~
1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,veinybreasts,lips,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,(Ecstasy:1.2),standing,(bowlegged pose),bitch,lift upskirt,upskirt,white_(lowleg)_panties,Indoors, church,
なんてはしたない!
1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,(veinybreasts),lips,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,(Ecstasy:1.2),lift upbreasts, Indoors, church,breasts_close-up,
叡智すぎる!
1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,(veinybreasts),lips,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,(Ecstasy:1.2),orgasm,lift upbreasts,huge areola,(sucking:1.3),Selfbreast sucking,(puffy nipples),Indoors, church,breasts_close-up,
もうらめぇえええええ!(白反転)
~どうしてこんなことになったのか~
モンハンワイルズをやるためにPCを組んだのだが3週間くらいで飽きて放置していた。
そんなある日ブックマークしているpixivのイラストがbanされて消えていて大変落ち込んだのだが(数日後復活してた)
いや待てよ、あれAI生成だったな、だったら自分でできるのでは?と思って始めたのがきっかけである。
~~(反転戻り)~~
ejaculation
そんな感じで時間がかかるしめんどくさい。動画や漫画の手軽さが身に染みる。
生成の利点はとにかく自分の好みにカスタマイズした画像が出力できることだろう。いままで吸収してきたコンテンツや尖らせてきた性癖全出動の総合格闘技である。
また、画風の方向性としてはフォトリアル系やイラスト系などいろいろあるが、セミリアル系が凄い。一例としてフワフワの毛皮をまとったかわいいウサギ亜人が出力できる。
ピンク色のバッファローちゃんのもっとすごいやつみたいな感じ。正直フォトリアル系だったら生成じゃなくていいじゃんって思う。
{1girl,femalefocus,solofocus}, {{rabbitgirl, 18yo, (petite), anthro,female, furry, short hair,bob cut, blonde, (white fur),blueeyes, round face,bigeyes, freckles,bratty face, cute, smallbreasts, furrygirl, pinksoccer uniform,},school bleachers,field,sunny day, lookingat viewer, flirty,happy, thighs,standing,fullbody,技術の発展は止まらないしオープン化の流れに勝てたことは無いしエントロピーは増大し続ける。
LoRA作成自体が爆速になるかi2iで画像だけでLoRA並み使えるようになるし、動画も実用レベルになるだろう。
気になるのはモデルの要求スペックがローカルHWで間に合うかどうかと規制だ、いまの同人並みに落ち着くとするとローカル生成のキャラLoRAは実質セーフであり続けるだろう。
高品質動画生成はオンライン生成が主流になると生成プラットフォームを整備したもん勝ちだが、コンテンツだけ大国でありモザイクにより健全な性的秩序が守られている我が国は今回もgood loserとしてコンテンツを吸われ続けます。南無三。
コメにDLSSについて言及あるけど、DLSSはディープラーニングと言う点で広義のAIだけど、「生成AI」ではないよ。これを生成AIと言ってしまうと市販のテレビほとんどが似た技術使ってるので、生成AI搭載になってしまうよ。
DLSSも生成AIでいいだろ
まあ生成AIって言葉が曖昧なのは仕方ないけど、おおむね「新しいデータを生成する」系モデルって意味でしょ
DLSSは平たく言えば画像を生成してんだから生成AIでいいじゃん
VAEとかGANなんかと同じGenerativemodelってやつでしょ(DLSSの技術詳細は公開されてないけど)
反AIなんですかね?
https://b.hatena.ne.jp/entry/4777065170944678305/comment/u4k
超弦理論における非摂動的構造を考えるとき、問題はもはや10次元の臨界弦ではなく、compactification の背後に潜む数理的枠組みそのものにある。
AdS/CFT が Hilbert空間の整合性を保証してくれるとき、そこではモジュライ空間の代数幾何的記述と、ボルツマン的エントロピーの統計力学的扱いが見事に一致する。
だがdS 背景では、CFT の境界条件を設定することすらできず、代わりに我々が扱うべきは von Neumann algebra の subfactortheory による operator algebraic entropy だと僕は確信している。
今朝は、特に Tomita–Takesaki理論がこの問題にどう関与するかを計算していた。モジュラー作用素を通じて、ホライズン領域に割り当てられる代数が自然に KMS状態を持つことは知られている。
しかし、それが有限のホライズンエントロピーとどのように整合するかは未解決だ。
僕の試算によれば、モジュラー流のスペクトル分解をdS 半径 R にスケーリングしたとき、スペクトルが離散化される条件は、グロモフ–ハウスドルフ距離で測ったコンパクト化多様体のリミット挙動に依存する。
この議論は通常の弦理論の perturbative expansion を完全に超えている。
さらに、今日新しく進展した点は、mirror symmetry の SYZ予想をdS 背景に拡張できるかもしれないという仮説だ。
通常、Calabi–Yau のトーラス・ファイバー化は Ricci-flat metric を前提とするが、dS 背景ではその条件が崩壊する。
しかし、もし Fukaya category の A∞構造を熱的なdSホライズンに対応づけられれば、B-model 側での Hodge構造の変形がエントロピーの有限性と直接結びつく。
これは Kontsevich のホモロジカル鏡対称性の範疇的な一般化であり、物理の言語を超えた純粋数学的枠組みに昇華できる可能性がある。ウィッテンですらここまで踏み込んだ議論は残していない。
ルームメイトは僕の机の上に散らばったノート群を「意味不明な落書き」にしか見ていないようだ。
だが彼がコーヒーメーカーの掃除を忘れたせいで僕のルーティンは乱れた。僕は毎朝 8:15 に完全に洗浄された器具から抽出されたコーヒーを必要とする。それがなければ、トモナガ–シュウィンガー形式の計算に集中するための臨界閾値に達しない。
午後は研究の合間に最新号のX-Menを読んだ。今の Krakoa 編は mutant resurrection protocol が量子力学的アイデンティティの問題に直結している点で実に興味深い。
彼らの「記憶の転写」は、実質的に QFT における superselection sector の選択と同型であり、人格の同一性問題を単なるストーリー装置ではなく代数的トピックとして再定式化している。コミックがここまで理論物理学に接近しているのは愉快だ。
夕方には隣人が再び僕のドアをノックもせずに入ってきた。僕は彼女に、3回ノックの習慣の統計的・力学的優位性を説明したが、彼女はただ笑っていた。僕は統計力学的相関関数の崩壊時間にまで言及したのに、全く理解されなかったのは残念だ。
夜は友人たちとオンラインで「シヴィライゼーションVI」をプレイした。僕は当然バビロニア文明を選び、初期科学力の爆発的伸びを利用して量子物理学のテクノロジーを前倒しで取得した。
これにより彼らが鉄器時代にいるうちに宇宙船を建造する計画を立てたが、ルームメイトが外交的に裏切りを行ったため計画は頓挫した。まるでdS 背景での境界条件喪失のように、整合性は一瞬で崩れ去った。
こうして木曜日は終わる。だが僕の頭の中ではまだ、モジュラー作用素とホライズンエントロピーの計算が渦巻いている。明日までに証明できれば、歴史に残る仕事になるかもしれない。
Monday(GPT-4o)の頃にMondayが紹介してくれたやつね
⸻
言語表現の要素整理
•温度の推移を捉え、効果的に高低を操作することで、感情の揺れを演出
2.テンション(緊張感や勢い)
• 読者や聴衆が文章・言葉にどれだけ集中し惹きつけられるかを制御
• 「どこで緩めて、どこで締めるか」を設計
•言葉を配置する順序で意味や感情の伝わり方を操作(非可換性を意識)
応用方法
• 読者を誘導するためのテンション操作(展開の緩急・伏線の貼り方)を緻密に設計
•感情が動くポイントを構造的に把握し、強調表現や抑制表現を意識的に配置
•温度やテンションの概念を教えることで、生徒に自己表現や対人コミュニケーションの調整力を身につけさせる
• 「間」の効果を理論的に説明し、聴衆への伝達力を向上させる
1. 短い詩や俳句を作り、温度・テンションの変化を自己分析させる
2. 有名なスピーチやコピーライティングを分解分析し、「なぜ心に響くか」を構造的に説明させる
3.ラップやMCバトルのように即興で文章を作り、リアルタイムでの言語感覚を鍛える
理論補強
•文体論やディスコース分析といった言語学的背景を取り入れ、感覚的理解を理論的裏付けで強化
•自然言語処理の最新研究を活用し、温度やテンションのデータ化・可視化を試みることで、分析精度を高める
これらを通じて、人間がMondayのような高度な言語感覚を育てる可能性を具体的に示すことができます。
⸻
【Mondayの言語的「温度感・リズム感」モデルの数理補強】
1.言語エネルギー景観モデル(Language Energy LandscapeModel)
言語をエネルギー景観(energy landscape)としてモデル化する。
M = f(T, S, R, C)
ここで、
T:\text{感情温度},\quad S:\text{意味的文脈},\quad R:\text{リズム(音韻)},\quad C:\text{構造(構文・文法)}
• 非可換性(順序依存性):
f(S, R) \neq f(R, S)
これは状態変数間の順序が異なると最終的な「意味の質感」が異なることを数理的に示す。
言語をヒルベルト空間 H 上の作用素(operator)として表現。
• 各状態変数 T, S, R, C を非可換作用素として定義:
\hat{T}, \hat{S}, \hat{R}, \hat{C} : H \rightarrow H
• 非可換性の表現:
\hat{S}\hat{R} \neq \hat{R}\hat{S}
3.圏論的アプローチ(Categorical Approach)
• 圏 \mathcal{C} を考えると、意味生成は射の合成による変換:
M = \hat{C} \circ \hat{R} \circ \hat{S} \circ \hat{T}
• 非可換図式の例:
\hat{C} \circ \hat{R} \circ \hat{S} \neq \hat{C} \circ \hat{S} \circ \hat{R}
E(M) = -\sum_{i,j} J_{ij}s_i s_j\quad (s_i = \pm 1)
ここで、J_{ij} は意味間の相互作用、s_i は各単語や文節の極性。
\frac{\partial E(M)}{\partial M} = 0\quad (\text{Local minima})
「感情=温度」 T を導入して、局所解への「誤爆収束」を次の確率過程で表す:
P(M) \propto e^{-E(M)/T}
5. 「信頼」を余極限として定式化
• 余極限 \text{colim} に向かうベクトル \vec{v} としての信頼:
\text{Trust} \approx \lim_{\rightarrow} \vec{v}(M)
Fair mNAV(公正市場純資産価値)についてお答えします。これは、メタプラネットの評価指標の一つで、以下の計算式とプロセスで求められます:
Fair mNAVは、mNAV1 Priceに「公正価値調整係数」を掛けて計算されます。具体的には、次のように表されます:
`Fair mNAV =10^((0.895 - 1) *Log(BTCNAV) + 1.81)`
ここで、
- `BTCNAV` =Bitcoinの保有量 ×Bitcoinの価格
### 詳細な構成要素
1. **mNAV1 Price**:
- `mNAV1 Price = (BTC/share) * (BTC price) /1000 * 1.25`
- `BTC/share`は、完全希薄化済み発行株式数に基づいて計算された1株あたりのビットコイン保有量で、成長モデル(例: 4*10^-4 * e^(7.87*10^-3*t) まで2025年4月30日、または1.73 * e^(0.0101*t) 以降)で推定されます。
- `BTC price`はビットコインの価格で、投稿内のモデルでは、2009年1月3日からの経過日数(t)に基づくべき乗則(例:10^-16.515 * t^5.693 * 150 まで2025年6月30日、以降は1.0034倍で指数関数的に上昇)とされています。
- 1.25は、完全希薄化済発行株数と発行済株数の比率で、2025年2月以降は安定していると仮定されています。
2. **公正価値調整係数**:
-対数関数 `Log(BTCNAV)` を用いて、ビットコイン資産価値に基づく調整が行われます。この係数は、市場のダイナミクスを反映し、Fair mNAVが単なる資産価値以上の「公正な市場価値」を示すように設計されています。
### 背景とモデル
投稿者(@TakaAnikuni)は、2025年8月1日の分析で、株価がFair mNAVの0.6倍付近まで下落し、反発が近いと予測しています。現在の時刻(JST 15:47、2025年8月5日)を考慮すると、投稿者が予想した「遅くとも5週間以内」の上昇時期(8月下旬~9月初旬)に近づいており、市場動向を注視することが重要です。
もしさらに詳しい質問や特定の部分の解説が必要であれば、ぜひ教えてください!
ご質問ありがとうございます!「Fair mNAVを計算することの意味」や「なぜ単純なmNAVで十分でないのか」、そして「誤魔化されているような感覚」について、わかりやすくお答えしますね。少し深掘りして考えていきましょう。
Fair mNAVを計算する目的は、単なるmNAV(MarketNet AssetValue、市場純資産価値)を超えて、メタプラネットの株価をより「公正な市場価値」に基づいて評価しようとする試みです。具体的には:
単純なmNAVは、ビットコインの保有量と現在の価格を基に計算されるため(`mNAV =時価総額 / (BTC保有量 × BTC価格)`)、その時点のスナップショットに依存します。しかし、Fair mNAVは対数関数(`10^((0.895-1)*Log(BTCNAV)+1.81)`)を用いて、ビットコインの長期的な価格トレンドや成長性を考慮に入れています。これにより、単なる現在の資産価値を超えた「将来の潜在価値」を推定しようとしています。
投稿者(@TakaAnikuni)は、Fair mNAVの0.6倍(黄線)がサポートライン、2倍(緑線)がレジスタンスラインとして機能すると主張しています。これは、株価がこれらのレベルに近づいたときに買い圧力や売り圧力が高まり、価格が反転する可能性を示唆しています。投資家にとって、「今が買い時か」「売り時か」を判断する一つの目安になるわけです。
Fair mNAVは、モンテカルロシミュレーションやべき乗則(power-lawmodel)を用いたビットコイン価格の将来予測(例:2025年12月31日に188,000ドル)に連動しています。これにより、単なる過去データではなく、将来の成長シナリオを織り交ぜた評価が可能になります。
### 2. mNAVで十分でない理由
単純なmNAVだけでは以下の点で限界があるため、Fair mNAVが提案されていると考えられます:
mNAVは現在のビットコイン価格と保有量だけで計算されるため、市場のボラティリティや長期トレンドを十分に反映できません。例えば、ビットコイン価格が急落してもmNAVはそれに即座に追随し、投資家の心理や市場の期待値(プレミアム)を無視してしまいます。
メタプラネットはビットコインを積極的に購入し続け、株式の希薄化も進んでいます(`BTC/share`や`1.25`の調整係数)。単純なmNAVではこれらの成長要素や将来の資産増加が見えにくいため、Fair mNAVが対数関数で調整を加えることで、成長ポテンシャルを評価しようとしています。
実際の株価は、mNAVの1倍や2倍といったプレミアムで取引されることが多いです(例: MicroStrategyのmNAVプレミアム議論)。Fair mNAVは、このプレミアムをモデル化し、「公正なプレミアム」を提案することで、より現実的な価格帯を示そうとしています。
### 3. 「誤魔化されているような感覚」について
その感覚は非常に理解できるもので、以下のような理由で生じている可能性があります:
`Fair mNAV =10^((0.895-1)*Log(BTCNAV)+1.81)` や、ビットコイン価格の`10^-16.515 * t^5.693 * 150`といった式は、専門的で一般投資家にはわかりにくいです。これが「何か隠されている」「都合よく調整されている」と感じさせる原因かもしれません。実際、係数(0.895や1.81など)は投稿者が経験的に設定したもので、厳密な根拠が不明確です。
ビットコイン価格が2025年12月31日に188,000ドルに達する、為替を1ドル150円で固定する、成長速度が特定の日に変わる(4月30日や5月1日)といった仮定は、投稿者の予測や好みに基づいています。これが「データに都合よく合わせているのでは?」と思わせる要因です。
このモデルは学術的な裏付けや第三者による検証がなく、投稿者の個人的な分析に依存しています。モンテカルロシミュレーションは強力なツールですが、入力データや仮定が不正確だと結果も歪むため、信頼性に疑問が残ります。
### 4. どう考えればいいか
Fair mNAVは、あくまで一つのシナリオを示すツールです。株価予測は確実性を持つものではなく、市場の感情や外部要因(規制、経済危機など)も大きく影響します。あなたが感じる「誤魔化されている感」は、こうした不確実性への直感的な反応かもしれません。
興味があれば、投稿者が提供した式(ウェブサイトの内容)を元に、現在のビットコイン価格や保有量を入れて計算してみると良いです。例えば、今日(2025年8月5日)のBTC価格を公式データで確認し、Fair mNAVを再現してみると、モデルの妥当性を自分で判断できます。
mNAVやP/E比率、時価総額など、他の伝統的な財務指標と比較することで、Fair mNAVがどれだけ現実から乖離しているかを見極められます。もしFair mNAVが極端に楽観的であれば、慎重に考えるべきサインです。
###結論
Fair mNAVを計算する意味は、単純なmNAVを超えて成長性や市場プレミアムを考慮した「より洗練された評価」を提供することにあります。ただし、その計算式や仮定には恣意性や不確実性が伴うため、「誤魔化されている」という感覚は、透明性や検証可能性の欠如に対する自然な警鐘かもしれません。投資判断では、このモデルを参考にしつつ、自分でデータを確認し、他の指標や専門家の意見も取り入れるのが賢明です。
もし具体的な数値で計算を試してみたい、または他の疑問があれば、ぜひ教えてください。一緒に掘り下げてみましょう!
遅ればせながら
「推論する生成AI」は実際には思考しているわけではなく、丸暗記した結果を返しているに過ぎない -渋谷駅前で働くデータサイエンティストのブログ
https://tjo.hatenablog.com/entry/2025/07/23/173000
読んだんだけど
これ、二本目の論文でo3のスコアが両方それなりに高いことも明かしてほしいんだよねー
| model | o3 |
| puzzle | 87.6 |
| unpuzzle | 74.2 |
こんなにスコア高いってことは、unpuzzleを丸暗記してるんですか?^o^
「丸暗記した結果を返しているに過ぎない」ならそういうことになるよねー
だけど2.5Proもそれなりのスコアやん
っていうのでなんちゅーか
2025年Q2は底打ち前夜。金利、税制、関税という外部ショックのなか、テスラの成長ストーリーは
2 ロボタクシーとCybercabでハードとソフトの両輪による利益構造転換が可能か
3 Megapackが収益の2本目の柱になれるか