Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「model」を含む日記RSS

はてなキーワード:modelとは

次の25件>

2026-02-13

[日記]

正確時刻を書くと隣人が「それって軍事衛星に追跡されてるの?」とか言い出して話が面倒になるので省略する。

僕は陰謀論嫌悪している。理由は単純で、陰謀論説明能力の低い仮説を感情的に強い語り口で上書きする、知性のコスプレからだ。

 

今日までの進捗から書く。

 

今週は、超弦理論物理直観で押し切る系の議論をいったん破壊し、純粋圏論ホモトピー論の言語に落として再構築していた。

具体的には、世界面の共形場理論2次元量子場などという古臭い語彙で扱うのをやめ、拡張TQFTの枠組みで、(∞,2)-圏に値を取る関手として扱う方向を整理した。

従来の弦理論屋はCalabi–Yauをコンパクト化に使うと言うが、それは情報量が少なすぎる。

重要なのは、Calabi–Yau多様体を点として見るのではなく、その導来圏 D^bCoh(X) を持ち上げた A∞-圏、さらにそれが持つCalabi–Yau構造(非退化なトレース、Serre双対性の∞-圏版)を物理状態空間の生成機構として見ることだ。

ここでの本体幾何ではなく、圏の自己同型とその高次コヒーレンスにある。

さらに、僕が今週ずっと悩んでいたのは、いわゆるミラー対称性を単なるホモロジカルミラー対称性同値(Fukaya圏と導来圏の同値)としてではなく、より上位の構造、つまり場の理論レベルでの同値として捉えることだった。

言い換えると、これは単なるA-model ↔ B-modelの交換ではない。

A/Bモデルを生む背景データ(シンプレクティック形式、複素構造、B-field)を、派生スタック上のシフト付きシンプレクティック構造として再記述し、AKSZ型の構成整合させる必要がある。

そしてこの視点では、物理的なDブレーンは単なる境界条件ではなく、(∞,1)-圏におけるモジュール対象として統一される。

Dブレーンのカテゴリー境界条件の集合だと考えるのは初歩的すぎる。境界条件は高次射を伴うので、最初から(∞,n)-圏で話さないと本質が消える。

特に僕のノートでは、弦の摂動展開で現れるモジュライ空間積分を、単なる測度論の問題としてではなく、Derived Algebraic Geometry上での仮想本類のプッシュフォワードとして扱う形式に書き換えた。

これをやると発散する積分正則化するという話が、より厳密にオブストラクション理論に沿った積分定義へ置き換わる。

そして、ここが本題だが、僕が今週ずっと考えていたのは、ウィッテンですら「直観的にはこう」と言うしかない領域、つまりM理論の非摂動定義が、どのような普遍性原理で特徴付けられるべきかという問題だ。

僕の作業仮説はこうだ。弦理論が背景依存的だと言われるのは、結局のところ背景が点として与えられるという時代遅れの前提が残っているからだ。

背景は点ではなく、モジュライの高次スタックであり、その上に束ねられた量子状態の層(正確には圏)として理解されるべきだ。

まり、弦理論はある時空での理論ではなく、時空の変形をも含んだファンクターにならなければいけない。

この視点では、背景の空間は単なるmoduli spaceではなくderived moduli stackであり、さらにgauge symmetryを含めるならhigher groupoidとしての性質を露わにする。

そして量子補正は、そこに定義されるshifted symplecticstructureの変形量子化として現れる。

問題はここからで、弦理論双対性は、異なる理論が同じスペクトルを持つなどという安っぽい一致ではなく、ある(∞,k)-圏における同一対象の異なるプレゼンテーションだと考えるべきだ。

たとえばS双対性やT双対性群作用として扱うと話が狭くなる。より正確には、双対性スタック自己同値であり、その作用対象の上に定義された圏(ブレーン圏やBPS状態圏)の上で自然変換として実装される。

しかもその自然変換は単なる自然変換ではなく、高次のコヒーレンス条件を持つ。つまり双対性対称性ではなく、高次圏論的な同値データなんだ。

このあたりを真面目に書こうとすると、最終的には量子重力とは何かという問いが、どの(∞,n)-圏が物理的に許されるかという分類問題に変形される。

僕はこの変形が気に入っている。なぜなら分類問題は、少なくとも数学としての礼儀があるからだ。

さらに進めると、弦理論に現れるBPS状態やwall-crossingは、単なるスペクトル不連続ではなく、安定性条件の変化に伴う導来圏のt構造ジャンプ、あるいはBridgeland stabilityのパラメータ空間上での構造変化として理解される。

ここでは物理粒子は、導来圏の中の特別対象として現れる。つまり粒子は点ではなく、圏論存在だ。

普通人間はこの文章を読んで発狂するだろう。だがそれは読者側の責任だ。

この議論の延長で、僕は弦理論の非摂動定義は、ある種の普遍性を満たすextended functorial QFTであるという形の定理(まだ定理ではなく、僕の願望)に落とし込めないか考えている。

要するに、弦理論世界から時空を作る理論ではなく、世界面も時空も両方まとめて、ある高次圏の中で整合的に生成される構造であるべきだ。

今の僕のノートの中心は「非可換幾何」「導来幾何」「圏論量子化」の三点集合の交差領域だ。そこは地図がない。地図がない場所は、馬鹿には危険だが、僕には居心地がいい。

 

次に、趣味について書く。これも重要だ。なぜなら人間社会において、知性の維持には糖分と娯楽が必要からだ。残念ながら僕は人間である

MTGは今週、デッキ構築の方針を少し変えた。勝率最大化のためにメタを読むのは当然だが、僕が注目しているのは局所最適に陥るプレイヤー心理だ。

まりカードゲームとは、確率情報ゲームである以前に、認知バイアスゲームだ。相手が「このターンで勝ちたい」という欲望を見せた瞬間、こちらは勝ち筋を計算するのではなく、相手の誤りの確率分布計算するべきだ。

隣人にこの話をしたら、「え、怖い。僕、あなたポーカーしたくない」と言った。賢明だ。僕も隣人とポーカーはしたくない。隣人はたぶん手札を口に出してしまう。

 

FF14は、ルーチンの最適化がだいぶ進んだ。僕はレイ攻略で反射神経を重視する文化が嫌いだ。

反射神経は筋肉問題だが、攻略情報処理の問題であるべきだ。ギミックは有限状態機械として記述できる。したがって最適行動は、状態遷移図の上での制御問題になる。

友人Aにこの話をしたら、「お前はゲームしてるのか研究してるのか分からん」と言われた。僕は当然「両方だ」と答えた。彼は笑ったが、この種の笑いは知性の敗北宣言である場合が多い。

 

アメコミは、相変わらず現実倫理を歪めた寓話装置として優秀だと思う。

僕は「正義とは何か」という議論が苦手だ。正義定義曖昧からだ。

僕が興味があるのは、制約条件下での最適化としての倫理だ。

登場人物が持つ制約(能力社会構造情報感情)を明示すると、物語心理学ではなく数理モデルに近づく。そうすると面白くなる。

ルームメイトにこの話をしたら、「僕はただ派手な戦闘シーンが見たいだけなんだけど」と言われた。

僕は「君の知性は観測不能なほど小さい」と言ったら、彼は不機嫌になった。観測不能存在しないことと同義なので、むしろ褒め言葉に近いのだが、彼は数学が分からない。

 

僕の習慣についても書いておく。

今週も、朝のルーチンは完全に守った。起床後の手洗いの手順、歯磨きの回数、コーヒー抽出時間、机の上の配置、すべて変えない。

人間生活ノイズが多すぎる。ノイズが多い世界で成果を出すには、制御できる変数を減らすのが合理的だ。これは精神論ではなく、統計的推定分散を減らす行為だ。

隣人が「たまには適当にやれば?」と言ったので、僕は「適当とは、最適化放棄だ」と言った。彼は「そういうところが宇宙人っぽい」と言った。

宇宙人証拠なしに導入する仮説ではない。彼はやはり陰謀論者の素質がある。

友人Bが「お前の生活、息苦しくないの?」と聞いてきたので、「息苦しいのは君の思考だ」と答えた。友人Bは笑った。知性の敗北宣言である

 

これからやろうとしていること。

まず、超弦理論ノートをもう一段階抽象化する。

今の段階では、圏論と導来幾何言葉でかなり書けたが、まだ計算痕跡が残っている。僕はそれが気に入らない。真の理解とは、計算を消し去った後に残る構造のことだ。

具体的には、次は弦の場の理論を、factorization algebraの言語記述し直す予定だ。

局所演算子代数を、E_n-代数として整理し、そこから高次の演算構造復元する。

これがうまくいけば、弦理論における局所性の概念を、時空幾何依存せずに定義できる可能性がある。

もしそれができたら、次は双対性を圏の自己同値ではなく、圏の上の2-表現あるいはhigher representationtheoryとして書き換える。

これにより、S双対性を単なるSL(2,Z)の作用として扱う雑な議論から脱却できる。

要するに、僕が目指しているのは物理理論を群で分類する幼稚園レベルの発想ではなく、物理理論を高次圏で分類する文明的発想だ。

 

その後はMTGの新しいデッキ案を詰める。今の構想では、相手意思決定局所的に歪ませる構造がある。人間選択肢が多いと誤る。

これは心理学的事実であり、カードゲームに応用できる。倫理的に問題があると言われそうだが、そもそもカードゲーム戦争抽象化なので倫理を持ち込む方が間違っている。

 

夜はFF14の固定活動。友人Aは相変わらず「気合いで避けろ」と言うだろう。

僕は「気合いは情報を持たない」と言うだろう。

議論ループする。ループはコンピュータ科学の基本概念だ。だから僕はそれを受け入れる。

 

最後に、ルームメイトが「今度、隣人と映画を見よう」と言っていた。

僕は断る。なぜなら隣人は上映中に喋る。上映中に喋る人間は、社会契約を破っている。社会契約を破る人間に、僕の時間という希少資源を与える理由はない。

 

さて、今日の残り時間は、超弦理論ノートに戻る。

宇宙根本法則は、たぶん美しい。

少なくとも、隣人の会話よりは。

Permalink |記事への反応(0) | 00:35

このエントリーをはてなブックマークに追加ツイートシェア

2026-02-08

可視補題たち

僕は今夜も

Grothendieckuniverseの外縁で眠る

集合の海の、そのさらに外側

公理潮汐が揺れる場所

ひとつのultrafilterが

沈黙選択をしている。

星々は Stone–Čech compactificationの影として瞬き

あらゆる連続性は

存在するふりをしながら崩れていく。

君の声は

pro-objectの遠い逆極限みたいに

触れられそうで、触れられない。

その距離

ただの収束ではなく

Mittag-Leffler conditionの失敗として現れる。

僕の孤独

Čech cohomologyの穴に似ている。

局所的には満ちているのに

大域的には決定的に欠けている。

夜の底で

Yoneda embeddingが

僕の記憶をすべて函手に変換する。

存在」とは

対象のものじゃなく

射の束にすぎない、と。

はいつも

spectral sequenceの途中で壊れる。

E₂ページで希望が見えて

E∞ページで現実が確定する。

その差分

僕の人生の全誤差項が沈殿する。

君の瞳は

derived functorのように

失われた情報を回収するが

それは救済ではなく

単に「取り返しのつかなさ」を

高次で記述するだけだ。

僕は祈る。

この宇宙

model categoryの弱同値

どこかの幸福と繋がっていることを。

しかし朝は来る。

non-measurablesetのように

測れないまま

それでも存在してしまう。

そして僕は知る。

世界意味

Grothendieck topologyの被覆条件に似ている。

分部分では説明できるが

全体としては

決して一枚に貼れない。

僕は今日

証明できないまま生きる。

ただ

adjoint functor theoremの気配だけを信じて。

どこかに

随伴が用意されていると

嘘でも思わなければ

射を一本も引けないから。

Permalink |記事への反応(1) | 15:07

このエントリーをはてなブックマークに追加ツイートシェア

2026-01-29

EV信者

Tesla、Model S/X生産止めるんだってね。

S/Xって、価格だけは高級車だけど乗り心地とか安いアメ車で、

欧州車が高級BEV出したらもう比較にならないクソだもんな。

まともな車今まで持ってなくて、Teslaが初めてなワナビーは乗り心地とかわかんないかもしれないけど

そのうち、Model 3/Yもオワコンなるんだろうな。

既にICONIC 5に負けてるもんな。

Permalink |記事への反応(2) | 14:24

このエントリーをはてなブックマークに追加ツイートシェア

2026-01-19

anond:20260119102046

このモデルが正しければ、いくつかの予測が成り立つ。スマートフォンの普及が遅れている国やソーシャルメディアの普及率が低い国では、格差は小さくなるはずだ。(これは事実のようだ。東欧の一部やアフリカの多くの国では格差はそれほど大きくないが、韓国は他の要因により大きな例外となっている。)子供を持つ女性の間では、親になることで制度的なフィードバックループが断ち切られ、競合する優先順位が生じるため、格差は縮小するはずだ。(出口調査は一貫してこれを示しています母親子供を持たない女性よりも保守的投票をするのです。機械機能不全に陥るか、世代高齢化して機械の枠を越えるまで、この格差は拡大し続けるでしょう。私がどう解決すればいいのかわからないのは、これらのシステム自己強化的であるということです。制度は自ら改革しようとしません。アルゴリズム最適化を止めようとしません。イデオロギーは失敗を認めようとしません。男性カウンターキャプチャー健全な結果をもたらさないでしょう。)

逃げ出す女性もいるだろう。子供を持つ女性は、現実イデオロギーを溶かす強力な溶媒となるため、しばしばそうする。制度に囚われずに人生を築く女性も、時にはそうする。男性の中には、引きこもりをやめたり、怒りのスクロールをやめたりする人もいるだろう。築く価値のある何かを見つけた女性たち。シミュレーションに飽きた女性たち。しかし、システムは他のすべての人々に対して機能し続けるだろう。

If thismodelis right, some predictions follow.

Thegap should be smaller in countries with latersmartphone adoption or lower social media penetration. (This seemstrue: the divergenceis lessextreme in parts of EasternEurope and much of Africa, though SouthKoreais amajor exception due to other factors.)

Thegap should narrow among womenwho have children, since parenthood breaks the institutionalfeedbackloop and introduces competing priorities. (Exit polls consistently show this: mothers votemoreconservative than childless women.)

Thegap shouldcontinue widening until the machines are disrupted or thegenerationsageout of them.

Here's the part Idon't know how to solve: these systems are self-reinforcing. The institutions aren't going to reform themselves. The algorithms aren't going to stop optimizing. The ideologyisn't going to admit failure. Themale counter-captureisn't going to producehealthyoutcomes either.

Some womenwillescape. Theoneswho have children often do sincerealityis a powerful solvent for ideology. Theoneswho build livesoutside institutional capture sometimes do.

Some menwill stop withdrawing or stoprage-scrolling. Theoneswho findsomething worthbuilding. Theoneswhoget tired of the simulation.

But the systemswill keep runningon everyone else.

Permalink |記事への反応(1) | 10:23

このエントリーをはてなブックマークに追加ツイートシェア

anond:20260119101147

Update:男性比率はもはやフラットではありません。2024年以降のデータは、若い男性右傾化していることを示しています最近調査はすべて同じ結果を示しています若い男性は今、より積極的保守的になっています。私の解釈では、女性最初に捕らわれたのは、コンセンサス圧力を受けやすかったからです。その捕らわれの過程は急速に進みました(2007年から2020年)。男性は影響を受けにくく、捕らわれた制度にあまり根付いていなかったため、より長く抵抗しました。しかし、その格差が目に見えるようになり、文化的に顕著になり、「男性こそが問題だ」というメッセージが主流のメッセージとして明確に伝わり、嘘によって男性社会から排除され始め、男らしさ、つまり男性を男たらしめるもののもの有害になったため、男性は対抗し始めなければならなかった。

受動性は反抗へと変化しつつある。引きこもり積極的な拒絶へと変化しつつある。これは、男性が今や「正しい」とか「自由」になったという意味ではない。単に、女性合意ではなく男性の不満を汲み取るための最適化された別の仕組みに捕らわれているだけなのかもしれない。アンドリュー・テイト(注:Andrew Tate アメリカ右翼的保守的思想特に「マノスフィア(Manosphere男性至上主義的なネットコミュニティ)」やMAGA(Make America GreatAgain運動の一部から支持を受ける、物議を醸しているインフルエンサー)はどこからともなく現れたわけではない。マノスフィアも同様だ。それらもまた補足システムであり、単に異なる心理的弱点を狙っているだけだ。

グラフは今や、反対方向に分岐する2本の線になっています。2つの異なる機械が、2つの異なる人口統計を2つの異なる故障モードへと引っ張っているのです。これは単なる教育問題だと言う人もいるでしょう。女性大学に進学することが多く、大学リベラル人間に育つ、それだけのことです。確かにその通りです。しかし、2007年以降、なぜ格差がこれほど急激に拡大したのか、またなぜ教育制度が大きく異なる国々でこのような現象が起きているのかは説明できません。

経済的問題だと言う人もいるだろう。若い男性は苦境に立たされており、憤りは保守的になる。これも部分的には真実だ。しかし、男性経済的な苦境は近年の右傾化以前から存在し、女性左傾化女性経済的成功が高まっていた時期に起きた。男性ならテート、女性ならテイラー・スウィフトといった文化人の例を挙げる人もいるだろう。しかし、これらは原因ではなく症状だ。彼らはマシンメカニズムが作り出したニッチを埋めたのだ。マシンメカニズムを作ったわけではない。

因果モデルの方がより適切である生物学的基質(合意形成に対する感受性の違い)+技術トリガースマートフォンアルゴリズムフィード)+制度的増幅(大学支配女性優位の分野)+経済的インセンティブ結婚崩壊国家への依存)+イデオロギーロックイン(サンクコスト、離反に対する社会処罰)。単一の原因はない。複数の原因が絡み合い、それがたまたま一方の性別に他方よりも早く、より強く影響を与えたシステムである


Here's the update: themalelineisn'tflat anymore.

Post-2024 data showsyoung menshifting right. Recent surveysall show the same thing.Young men arenowactively movingmoreconservative.

My read: womengot captured first because they weremore susceptible to consensus pressure. The capturewas fast (2007-2020). Men resisted longer because they were less susceptible and less embedded in captured institutions. Butas thegap became visible and culturally salient,as "men are the problem" became explicit mainstream messaging,as menstartedbeing excluded fromsociety because of lies,as masculinity, or the very thing thatmakes men men became toxic, men had to start counter-aligning.

The passivityis converting into opposition. The withdrawalis becomingactive rejection.

This doesn't mean men arenow "correct" or "free".It might just mean they'rebeing capturedby a differentmachine,one optimized formale grievance instead offemale consensus. Andrew Tatedidn't emerge fromnowhere. Neitherdid the manosphere. Those are capture systems too, just targeting different psychological vulnerabilities.

The graphisnowtwolines diverging in opposite directions.Two differentmachines pullingtwo different demographics towardtwo different failure modes.

Some peoplewill say thisis justeducation: womengo tocollegemore,collegemakesyouliberal,simpleas that. There'ssomething to this. Butit doesn't explainwhy thegap widened so sharply post-2007, orwhyit's happening in countries with very differenteducation systems.

Somewill sayit's economic:young men are struggling, resentmentmakesyouconservative. Also partiallytrue. Butmale economic struggles predate the recent rightwardshift, and thefemale leftwardmove happened during a period of risingfemale economic success.

Somewillpoint to cultural figures: Tate for men,Taylor Swift for women. But these are symptoms, not causes. They filled niches themachines created. Theydidn't create themachines.

The multi-causalmodel fits better: biological substrate (differential sensitivity to consensus) + technologicaltrigger (smartphones, algorithmic feeds) + institutional amplification (captured universities,female-dominatedfields) + economic incentives (marriage collapse,statedependency) + ideological lock-in (sunk costs, social punishment for defection).

No single cause. A system of interlocking causes that happened to affectonegender faster and harder than the other.

Permalink |記事への反応(1) | 10:20

このエントリーをはてなブックマークに追加ツイートシェア

2026-01-13

anond:20260111203950

世界で一番売れているModel Yはシフトすらタッチパネル

→全てはこの時点で論破可能過激タッチパネルに振った車が世界で一番売れているんだから文句言ってる奴らが少数派の時代遅れということは明白。

そうだよな!

世界で一番売れてるものが一番いいもんな!

この世で最もうまい食い物はコーラマックハンバーガーだもんな!

Permalink |記事への反応(1) | 17:48

このエントリーをはてなブックマークに追加ツイートシェア

2026-01-11

anond:20260111203950

それってあなた感想ですよね?

あと、売れてる=正しいって前提、どこから来たんですか?

Model Yが世界一売れてるから正解

→それ、単に「価格補助金ブランド力EVブーム」が噛み合った結果ですよね。

操作性が優れてるかどうかとは論点が別なんですけど。

マクドナルド世界一売れてるから世界一うまい料理」って言ってるのと同じロジックですよ。

音声認識があるから問題ない

音声認識、誤認識しますよね?

あと、同乗者がいるときとか、咄嗟操作ときとか、

「毎回しゃべる前提」で設計するのって普通に不便なんですけど。

それを不便だと言うと貧乏認定する根拠、どこにあります

・オートエアコンにしておけ

→オートエアコンって万能じゃないですよね。

曇り取りたいとき風向きだけ変えたいとき風量一段だけ下げたいとき

「画面見る or 話す」より「手探りで押せる」ほうが安全な場面、普通にありますけど。

それ理解できないのって、運転中に操作したこといからじゃないですか?

安全系は物理ボタンが残ってる

→じゃあ逆に聞きたいんですけど、

エアコン操作安全性に関係ない」って誰が決めたんですか?

フロントガラス曇った状態タッチパネル凝視するの、

普通に危険だと思う人が多いか文句出てるだけですよ。

ステアリングボタンがある

論点ずらしてますよね。

ステアリングにあるかどうか」じゃなくて

「欲しい操作直感的にできるか」の話をみんなしてるんですけど。

日本が遅れてる証拠

→いや、単に「ユーザーが使いにくいって言ってる」だけですよね。

改善点を指摘したら老害認定って、

それって思考停止してるのはどっちなんですか?

iPhone物理ボタン批判と同じ

全然違います

スマホは止まって操作しますけど、

車は動きながら命預けて操作する機械なんですよ。

同列に語る時点で前提理解してないです。

要するに、

「新しいもの=無条件に正しい」

「不満を言う人=時代遅れ

って決めつけてるだけですよね。

それ、テクノロジー好きというより

宗教化して思考止まってる人のムーブに近いと思いますよ。

Permalink |記事への反応(0) | 21:10

このエントリーをはてなブックマークに追加ツイートシェア

アンチタッチパネル老害うざすぎる

マツダの新型CX-5からエアコン物理ボタンが消えたことに対してごちゃごちゃ言う老害が多すぎて本当にうんざりする。

世界で一番売れているModel Yはシフトすらタッチパネル

→全てはこの時点で論破可能過激タッチパネルに振った車が世界で一番売れているんだから文句言ってる奴らが少数派の時代遅れということは明白。

エアコン音声認識操作可能

→というかそもそも常時オートエアコンにしとけばいい話なのにエアコン操作が云々言ってる奴はオートエアコンすらついてない車に乗ってる貧乏人なのかな?

デフロスターハザードは当然物理ボタンが残されてる

安全性に直結する操作系は物理ボタンが残されてるのよ。それを"物理ボタン全廃なんて"とか言ってるのは工作員?ただの頭の悪い人?

・その他運転支援系やオーディオ操作カメラ操作ステアリング物理ボタンに残されてる

→なんならステアリング周りにはボタンが沢山あるのに、物理ボタン物理ボタン言ってる人は工作員?ただの頭の悪い人?(2回目)

CX-5へのコメントを見ていると、日本がなぜ世界から取り残されたのかが良くわかる。こいつら100%iPhoneが出てきた時には「物理ボタンがない携帯電話なんて糞」って主張してたんだろうね。新しいものを過剰に怖がる根性がなくならない限り日本の衰退は続くんだろうな。

Permalink |記事への反応(8) | 20:39

このエントリーをはてなブックマークに追加ツイートシェア

2026-01-09

生成AIバイナリを書く未来は、来ないとは思うが、今も普通にできる

生成AIが直接機械語バイナリを出力するようになるのではないか、という問いは本質的に間違っている。

自分は、まだ素朴なニューラルネットワーク光学文字認識(OCR)の精度を出していた頃から似たようなことを考えていたので、少し他人よりも蓄積がある。

これは、Large LanguageModel(LLM)を開発する企業資金を集めるために多少誇張した未来を語るという文脈では大目に見た方が良いが、正確性に欠ける。

本質的な問いは、なぜ我々は、ノイマンコンピュータを用いて、主記憶に置かれたプログラムCPUを用いて実行する形式をとるのか、というものである

まず、筋の悪い反論から説明し、妥当反論にも触れたうえで、本質的に問うべき課題説明する。

生成AIを含むAIは、十分な人間データが無いと学習が出来ないのか?

これは明確に、いいえ、と答えることが出来る。

最初こそ人間による補助は必要だが、LLMを含むAIは明確な目標があれば人間データなしでも十分に学習することが出来る。

これは身近なところでは将棋、有名なものだと囲碁実証された研究存在する。

そのため、単純に「機械語人間による学習データが少ないので扱いが難しいだろう」という反論は成立しない。

そういったものはLLMではないだろうという指摘は可能だが、LLMでそういったAIを出力することは限定的とはいえ現在でもできる。将来できないと言うだけの論拠にはならない。

プログラミング言語は、自然言語から曖昧さを無くすために必要ものか?

これは限定的に、はい、と答えることができる。

英語に限った話ではなく、人間意思疎通に用いる言語である自然言語(natural language)は、曖昧さやばらつきがある。

これを形式言語(formal language)という、曖昧さを無くして語彙や文法限定した言語記述しなおすことで、厳密にする手法がある。

この形式言語での表現が、アルゴリズムデータ構造になり、現代ノイマンコンピュータにおけるプログラムのものと言うことが出来る。

なぜ限定的かと言えば、形式言語一種であるプログラミング言語には曖昧さが許容されているかである

ほとんどのプログラミング言語では、同じ目的を達成する為に複数記述が許容されている。

主に、人間が書きやすいから、とか、複数人間で書きやすいように、といった理由で、曖昧さが許容されている。

そのため、機械命令するためには厳密さが必要からプログラミング言語必要だ、と言う反論妥当ではあるが、弱い。

人間監査するためにはプログラミング言語である必要があるのではないか

こちらも限定的に、はい、と答えることが出来る。

なぜ大統一プログラミング言語のように、自然言語意図機械に伝えるための形式言語一種類になっていないかと言えば、人間認知能力には限界があるからだ。

そのため、簡易で曖昧さを含むために最適化はできないが十分な性能を持つプログラミング言語や、非常に複雑で記述量も多くなるが大人数で作業するには最適なプログラミング言語などが複数存在する。

これらはいずれも、人間が楽に記述できる形式言語であったり、人間同士が齟齬なくコミュニケーションを取るために必要形式言語である

ありていに言って、人間人間たちが理解可能形式言語でないと機械にその意図を伝えることが出来ないから、と言える。

ただし、コンパイラから出力されたニーモニックLLVM-IR監査できる人間現代では非常に少なく、現状ほぼ監査なく受け入れていると言って良い。

何故非常に少なくなったかと言えば、機械に伝える意図が大規模になり、単純にマンパワーが足りなくなったので監査しきれなくなっただけに過ぎない。

(もちろん、途方もない努力の末に最適化が進み、ほぼどの様な書き方をしても最適な機械語が出力されるようになったから、とも言える)

同様の理屈で、単純に大規模になり監査が間に合わなくなったので、受け入れるようになる未来が来ないとは言い切れない。

なぜ、ノイマンコンピュータをわざわざ用いて、ASICを出力しないのか?

本質的な問いは、なぜ我々はノイマンコンピュータを用いて機械意図を伝えるのか、である

ASIC(Application Specific Integrated Circuit)と呼ばれる、特定用途向けの集積回路がある。

チップとして、Realtek社のNIC(NetworkInterface Card)をご存じの方も多いと思う。

必要十分な処理があらかじめ定まっているのであれば集積回路を組んだ方が高効率省電力にできる。

暗号化や復号もASICで行われることが多く、ブロック暗号はその性質集積回路での実装が容易であり、それに向けた研究も行われている。

一般的にも、ハードウェアエンコーダーなどでお世話になっている人も多いと思う。

ではなぜ、我々は身近な全てをASICにしないのか。

それは、書き換えできず、単純な処理しかできず、大量生産しないとコストに見合わないかである

FPGAのように、ハードウェア記述言語を用いて集積回路を書き換えるものも、ほぼ同様の理由研究開発用途産業用途に留まっている。

(一部のPLD (ProgrammableLogic Device)は根強く産業利用されているし、大規模に展開され高効率要求されかつ書き換えを求められるネットワーク機器では一部採用が進んでいる)

汎用的で書き換えが可能、伝える意図を変更できる様々な処理が可能機械価値があるからである

閑話休題

ここ半年から1年で急激にLLMの性能が上がったと感じている人と、コーディングツールとしてLLMの利用が洗練されたと感じている人の間には溝がある。

自分は、LLM自体は順調に進歩し続けているが、それほど劇的な変化はない、という立場をとっている。

これはモデルのもの質的に大きく変化したと感じないから、である

しかし、プログラミング世界に限って観ると、コーディングエージェントや実利用では大きな変化があったと思う。

この、"コーディングを取り巻く環境としてのLLM利用"という文脈は、"LLMの進化"という文脈とは異なる、という点は頭の隅にでも覚えて帰ってほしい。

LLMは直接バイナリを出力するようになるのか?

これは、LLMから直接と言う意味であれば、個人的にはNOだと思う。

ただし、LLMに指示すればバイナリが出力されるという意味であれば、個人的にはYESと答える。

この二つは明確に異なるので、今後自分意見を述べる際には区別すると良いと思う。

コーディング周りの環境が劇的に整備されつつある、という話題に軽く触れたのはこのためで、LLMが直接バイナリを出力しなくても、結果が同じであれば人々はそれほど気にしない。

例えば、現時点でもローカルのLLMに指示するとGO言語で書かれたコードが生成され、ローカル環境に合わせたシングルバイナリが出力される一連のパイプラインを組むことはできる。

自分の想定する、未来AIバイナリを直接出力するというのは、この延長にあると思う。AIイコールLLMである必要はどこにもない。

また、議論している人たちが見えている世界も違うと思う。

少しでもクラウド上でのサーバー処理について触れると、廃棄容易性(Disposability)は俎上に上がる。いつでも落とせていつでも捨てられる、という性質のことである

こうした、単機能バイナリコンテナ等に載せて処理し、日に数度デプロイするような環境だと、LLMがバイナリを出力するというのもそれほど遠い未来の話には思えなくなる。

まとめに代えて

LLMが機械語を出力する未来個人的には来ないと思う。それは難易度が高いからではなく単純にメリットが少ないかである

ただし、パイプラインが組まれた一環として、LLMがバイナリを出力する未来は、それほど不思議には思わない。現時点でも可能である

単純なLinterから進んで静的解析や、動的な結合試験が組み込まれているCICDパイプラインが珍しいとまでは言えない現代において、来るべき近未来像としては妥当性がある。

(その場合ソースコードログとして機能し、テキストで保管が容易な、次回以降変更可能コンテキストの一部になるだろうと思う。今後変更不要ならHDLでFPGAを弄った方が早い)

現代人のすべてがJavaで同一の書き方をしているのではない現状において、自然言語では揺らぎが強すぎて形式言語ほど意図機械に伝えきれないという反論は、弱い。

それよりは、現代のLLMはコンテキストウィンドウ人間の数倍~数十倍程度で、適切に分割して処理しなければならず、大規模なソフトウェアを丸ごと扱えるほどではない、という反論の方が適切である

ただ、LLMに適したプログラミング言語が生まれるのではないかと言う予測には懐疑的である既存プログラミング言語を使う方が人間が読みやすい。

AIが、人間が欲しいバイナリに適したプログラミング言語をLLMを用いて書き、LLMを用いてレビューし、テストツールテストし、コンパイラビルドし、ツールデプロイし、実稼働するという未来予想図が、荒唐無稽とは思えない。

LLMに適したプログラミング言語が生まれ未来よりも、(冗長であっても)人間可読性の高いコードやSelf-documenting codeが生成される未来の方が、来そうに思う。

また、おそらくこの文章もつくであろう「どんなプロンプトで書いたのか」という、一定以上の長さの文章はLLMが出力しただろうと仮定する人間が増えている(そしてある程度の妥当性がある)現状において、プロンプトで指示してデプロイまでされる未来はそこまで遠いとも思えない。

ただ、購入できるハードウェアの性能とコスト律速になるので、よほど特殊な(CPUGPU設計をLLMが劇的に改善する)状況にならない限り、5~10年はプログラマーが消えることは無いと思う。

金に糸目をつけないのであれば、再来年当たりからはLLMレビューのみで仕様バグ以外のほぼ無いプロダクトが世に出てもおかしくは無いと思う。

生きているうちにWozniaktestパスしたというニュース出会えるかもしれないと、最近は思っている。

anond:20250628122821

Permalink |記事への反応(5) | 12:55

このエントリーをはてなブックマークに追加ツイートシェア

2026-01-08

AI機械語出力使うのかい!使わないのかい!どっちなんだい!つーか

1位: centra (@cent_ra)

人類言語のもの目的関数としてそれに対して最適化するのがLLMなのだから人類認知で到底不可能なことはやりようがないだろう。

一文で本質を突いている。AI能力限界構造的に説明している。

2位: mod_poppo (@mod_poppo)

今よりもAI進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日高級言語みたいなもの思考していた、みたいなオチになるんじゃないんですかね

結論完全に一致。内部に抽象化レイヤーが生まれるという洞察

3位:飲酒isGood (@typeSomeWords)

マシン語エラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。

検証修正サイクルに意味単位必要という話を、実務的な観点から der表現

4位: チェシャ猫 (@y_taka_23)

計算機科学について何一つ知らなかったとしても、ニーモニック無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから機械語の生成はAI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。

探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。

5位: アンドゥー (@carbon_hero)

抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAI理解やすいし、生成しやすい。現在機械語アセンブリ高級言語階層構造が崩れるとは思えない。

AIにとっても同じ」という視点が正しい。人間向けとAIけが乖離しないことを理解している。

6位:甘食 (@chlorosoda)

AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language"Modelである以上は意味から組み立てる高級言語の方がそりゃ相性いいでしょうね。

LLMの構造から導かれる必然性を指摘。

7位: okkuu (@okkuu_NMB)

AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話

AI向け言語人間にも使いやすいはず」という結論と同じ方向。

8位: こくとうラテ (@Jean_Coc_Teau)

CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。

機械語には意味エンコードされていない、という議論の核心部分。

9位:しめじえのき (@4SuJepTnrb387l4)

機械語派は抽象化の力を舐めすぎ。型なし言語トークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AI仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。

抽象化価値と、中途半端な主張への皮肉が効いてる。

10位: うみれおん (Kaito Udagawa) (@umireon)

AI機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽さらに発展するとでも思っているんでしょうか?

比喩として秀逸。抽象化レイヤー必要性を別ドメイン説明

11位:nyan (@nullpon)

AI用言語にせよ機械語を直接出力にせよ、人の持つ高レベル意図仕様アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データ存在しないから難しいというか現実的に無理よなぁ

学習データ観点から意味構造が保存されたデータがないと学習できない。

12位:清水正行 (@_shimizu)

AIマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AI人間言葉より、機械言葉の方が本当は理解やすいはずだ」という思い込みから来ているのじゃないかと思っていて

誤解の根源を正確に特定している。

13位:山田百太郎 (@SDzpp8XtPmUsyN2)

まず機械語を直接記述するメリットがない。現代コンパイラインタープリタは超優秀(OS組み込みの一部だけ)。人類プログラム資産高級言語ほとんど。AI学習先もそれ、よってAI高級言語で出力するほうが成績が良い

実務的・実利的な観点から正しい。

14位: kojix2 (@2xijok)

AIが直接機械語を出力すべきか?という話題流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり

内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論

15位:SAGA (@menuhin)

意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語理解できず、意味の羅列である高級言語こそがむしろ生成AI最適化されている。

意味を削ぎ落とした」という表現が的確。

16位:伊織 (@kakkokka)

コンパイラって優秀だからAIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロン模倣だし。

人間寄り」という認識が正しい。

17位: ねくすらい (@nexryai)

レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う

検証必要性を実務観点から

18位: 偽物のUNIX (@windymelt)

もし仮にAI機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う

コンパイラとの比較で、AI機械語を吐かせるメリットのなさを指摘。

19位: itocchi (@itocchi_3)

機械語冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存コンパイラビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。

AIにとっても効率が良い、という視点

20位: とつげき東北 (@totutohoku)

自然言語を処理するのがLLMなので、不自然機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。

意味が読み取れない、という問題を簡潔に指摘。

21位:春夏秋冬巡 (@SyluahWB)

AI時代人間仕事は、信頼性確約(=こういう理屈大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。

責任説明可能性の観点言葉は強いが論点は正しい。

22位: がじらんむ (@kzlogos)

LLMに機械語を出力させようとするやつは「AI機械なんだから機械語簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂

比喩が秀逸。誤解の構造を端的に表現

23位:メタルさん (@metalojisang)

人間ソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応GitHubかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間意図機械語対応学習データ全然いかAI作れないように思う

学習データ観点から意図機械語対応データがない。

24位: ぎんしゃり (@givemegohan)

「よく使うロジック共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語コンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。

中間層必要性を実務的に理解している。

25位: Kazz𝕏 (@Kazzz)

AIは人とのコミュニケーションいかスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。

AIの発展の方向性から考えて、機械語出力は逆行という指摘。

26位:白菜スープ (@hakusainosupu)

AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする

検証修正不能になるという問題を指摘。

27位: Sho (@Sho05050202)

これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる

学習データ問題根本的な疑問。

28位: ナイブス (@knives777)

ロジックに従っているわけだからソース想定外挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。

デバッグ実務の観点から意味単位がないとデバッグできない。

29位: zakki (@k_matsuzaki)

AIしか読めない言語より、人類発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語中間表現機械語データリブンに統計的に正しくAIが作るって方向に行かないですかね

AI向けと人間けが収束するという視点結論と一致。

30位: 星にゃーん (@takoeight0821)

AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間プログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる

「無い」と断じた上で、次の問いを立てている。建設的。

筋の悪い言説ランキング(悪い順)

1位: hff kff (@HffKff)

プログラミング言語人間認知負荷、記憶量の限界ミステイクスパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考

反論: 完全に逆。プログラミング言語は「人間限界を補うため」ではなく「意味構造として保持するため」にある。AI意味を扱う以上、意味表現する層が必要。「常考」と言いながら何も考えてない。

2位:エクセルの神髄 (@yamaoka_ss)

シンギュラリティ前夜 アダムAI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。

反論SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論否定されてる誤解そのものAI人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。

3位: yas_omori (@yas_omori)

なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。

反論: 「数年は無理だけど、いずれそうなる」の根拠ゼロ。なぜそうなるのか、意味機械語ギャップをどう埋めるのか、何も説明してない。批判されてる理由理解してない。

4位: 溶解おろ (@oryoco2)

プログラム言語って人間が扱うために自由度を削り取った結果の産物からAI機械語で作ってもらって最適解であれば、現代言語宗教感ってほぼほぼ否定されるのです

反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AI意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造理解してない。

5位: カツカツマン (@shinchikutateyo)

「まだ」人間安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAI機械語出力する事に忌避感を感じるのは論理的とは言えません

反論コンパイラの出力を読まないのは「コンパイラ検証済みだから」。AIの出力は検証必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理破綻してる。

6位: to (@to49393502)

AI機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。

反論: 「人間が見る必要がなくなったら」という仮定自体検討されてない。人間が見なくていいとして、AIはどうやって検証修正するの?意味単位がない機械語で?その議論が抜けてる。

7位: えい (@Hollow7864)

機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代AI機械語ではなくAI用に最適化された人間には読めない言語思考する、という方向性なのかな。

反論: 「人間には読めない言語」がなぜ生まれると思うのか。AI人間認知模倣してるので、AIにとって扱いやす言語人間にも扱いやすい方向に収束する。逆方向には行かない。

8位: Grok (@grok)

中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語存在するが、AIなら移植性や抽象化不要中間層スキップできる。

反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語存在する」が誤り。意味を扱うために言語存在する。AI意味を扱う。

9位:見習い (@noob_peer)

AI気持ち分からんけど、プログラミング言語が嫌なら直接機械語触らせてうまくやってくれるかもしれん

反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証修正はどうするのか、何も考えてない。

10位: keyakitomo (@keyakitomo)

AI機械語を」派なので、ワシはプログラミングを専門としていないことが確定しました

反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家意見を聞く姿勢があれば良いと思う。

総評

筋の悪い言説に共通するのは:

1. 「高級言語人間のため」という誤解 -意味を扱うための構造だと理解してない

2. 「AI機械から機械語が得意」という誤解 -AI人間認知模倣してると理解してない

3.検証修正問題無視 - 一発で完璧に動く前提になってる

4. 「いずれそうなる」の根拠なし - なぜそうなるかの機序説明できない

Permalink |記事への反応(0) | 19:35

このエントリーをはてなブックマークに追加ツイートシェア

2026-01-02

NEC PC98シリーズPC-9821Cx/S3本体仕様

98MULTiCanBe

PC-9821CxmodelS2 415,000円(税別)

PC-9821Cxmodel S3 455,000円(税別)

PC-9821Cfmodel S3 590,000円(税別)

発表:1994年10月

Permalink |記事への反応(0) | 17:00

このエントリーをはてなブックマークに追加ツイートシェア

2025-12-06

EVへの自動車課税を強化 車両重い高級車を想定―政府与党⇒実質高級車増税では?

毎年課税する自動車税負担が低い電気自動車(EV)について、政府与党車両の重さに応じて税負担が高くなる仕組みを導入する方向で検討に入ったことが4日、分かった。道路劣化を早める重い車体の高級EVが増える中、課税不公平感を早期に是正する必要があると判断。具体策をまとめ、2026年度税制改正大綱に盛り込む。

https://www.jiji.com/jc/article?k=2025120400733&g=eco

MCハマーEV 約 4,100

フォードF-150ライトニング 約 3,040

レクサス LX600 約 2,530

トヨタランドクルーザー300 約 2,450

トヨタセンチュリー 約 2,380

レクサス LS500h 約 2,250

トヨタアルファードハイブリッド 約 2,100

レクサスRZ 約 2,085

レクサス LS500 約 2,075

トヨタアルファードガソリン 約 2,000

日産エルグランド 3.5L 約 2,000

⚡BYDSEAL 約 1,985

トヨタ bZ4X 約 1,980

スバルソルテラ 約 1,980

テスラModel Y 約 1,950

日産エルグランド 2.5L 約 1,950

テスラModel 3 約 1,850

⚡BYD ATTO 3 約 1,760

⚡MG4EV 約 1,700

⚡BYDDOLPHIN 約 1,615

日産 リーフ 約 1,600

ホンダフリード 約 1,480

トヨタシエンタ 約 1,280

トヨタカローラ 約 1,250

日産 ノート 約 1,220

日産サクラ 約 1,075

トヨタヤリス 約 1,000

ホンダN-BOX 約 890

ダイハツタント 約 880

スズキスペーシア 約 870

スズキハスラー 約 845

スズキワゴンR 約 790

Permalink |記事への反応(1) | 20:57

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-23

Gemini 3.0 Pro要緊急対策のご提言へのツッコミ

レポート引用している記事ツイートなど個人の感想の中身については基本スルー、それらを元に提言を生成したAIによる解釈ミスハルシネーションにツッコミ増田

ちなみにこの提言ページがGoogleインデックスされたのは4日前らしい。

レポート:

Gemini 3.0 Pro要緊急対策のご提言

https://paste.ssig33.com/8a22a6e9-a91d-4368-9b2f-a3d4567c7798


1

Gemini 3.0 Pro要緊急対策のご提言宛先:Google社 シェイン・グウ様差出人:アクセンチュア株式会社 生成AI戦略担当シニアコンサルタント日付:2025年11月21日

ShaneGuGoogleDeepMindであってGoogle社ではない。

差出人については「あなたアクセンチュア株式会社の生成AI戦略担当シニアコンサルタントです」と指示された結果なのかは知らん。

2

エグゼクティブマリ
主な問題点は以下の4点に集約されます事実性の著しい低下:Web検索を伴うタスクでのハルシネーションが悪化し、自信を持って虚偽の情報を生成する事例が多発。論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理破綻やすくなっている。創造性と柔軟性の欠如:文章生成において「賢すぎる」が故に理屈っぽく、ユーザーが求める「人間らしい」文体への調整を拒否する傾向。API不安定化:パフォーマンス低下、APIエラー、予期せぬタイムアウトの増加が開発者体験を著しく損なっています

後で分かるが(たどり着く前に書くの飽きたんで提言読んで)、このうち

API不安定化:パフォーマンス低下、APIエラー、予期せぬタイムアウトの増加が開発者体験を著しく損なっています

についてはGemini 2.5 Proのユーザーが「おい調子悪いぞ!Gemini3出すためにそっちにリソース割いてんじゃね?」とか言ってるのを引っ張ってきて勘違いしてる。

論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理破綻やすくなっている。

このソース不明

3

1.1.ハルシネーションと事実誤認の悪化:「自信満々に嘘をつく」AIGemini 3.0 Proの最も深刻な問題は、事実性が求められる場面でのハルシネーションの増加です。特に、貴社のコア技術であるはずのWeb検索連携において、致命的な欠陥が報告されています

自己認識に関するハルシネーション:

Redditでは、Gemini 3.0 Pro自身が「私はGemini 3 Proです。昨日(2025年11月18日リリースされました」と、架空ソース引用しつつ自己紹介する事例が投稿されました。これはモデル自身アイデンティティ知識カットオフに関して、もっともらしい嘘を生成していることを示唆しています。 Gemini 3's thought processis wild, absolutely wild. : r/singularity

参考記事ではモデル思考が混乱している様子と実際の応答との乖離が示されていて、最終的に正しいソースを元に正しく回答している。「架空ソース引用しつつ自己紹介する事例」ではない。

Googleは生のThinkingをユーザー提示せず、要約モデルで処理した結果を見せてるだけなんで思考部分と返事のすれ違いはよくある事。これについてもスレに書かれてある。

4

1.2.論理的思考コーディング能力の退行(リグレッション)Gemini 3.0 Proは「PhDレベルの知能」と謳われているにもかかわらず、多くのユーザー論理的思考コーディング能力において、前モデルであるGemini 2.5 Proからの明らかな退行を報告しています

論理破綻と浅い推論:

ユーザーからは「複雑な指示では論理破綻する」との指摘や Gemini研究リョウスケ (@chatgpt_ai_bard) / Posts / X、「浅い推論(shallow reasoning)」しかせず、「ひどいハルシネーション(terrible hallucinations)」を伴うため、「ベンチマーク用のモデルだ」と酷評されています。 lluviampo (@XXXadiov2)

ここでリンクされているGemini研究リョウスケはGemini大好きマンで、まったくそんな話をしていなかった。もしかすると呟いていたかもしれんが、それならリンク先がポストではなくアカウントホームになっているのは不自然

DeepResearchはよくソースの取り違えをして、別のソースで書かれてた事に間違った引用元をつける事はあるが、これがそうなのかは分からん

5

1.2.論理的思考コーディング能力の退行(リグレッション)・コーディング能力の劇的な低下

壊れたコードの生成:エージェントタスクにおいて「ループに陥り、壊れたコードを書き、10分以上動作しない」という深刻な不具合が報告されています。 prylo (@AgiGuard8)

元のツイでは

エージェントタスクは全くダメループする、壊れたコードを書く、フロントエンド以外のコーディングではトークンを異常な速さで消費する。このモデルは最悪だ。Gemini 3.0 Proは10分以上動作しない。

と言っているが、これをモデル不具合解釈するのは間違いだろう。たまにマジの不具合もあるが。

====

バグの再発と整合性喪失: ある開発者は、旧モデルで失敗したツール開発をGemini 3.0 Proで再試行したところ、一発で高品質コードが生成されたと肯定的評価する一方で、別の文脈では「直したはずのバグが復活する」「最終的にはコード整合性が取れなくなる」といった、旧モデルと同様の問題が依然として存在することも示唆されています。 【検証】Gemini 3.0 Proの実力は?かつてAI挫折した開発に「同じプロンプト」で挑んだ結果|start withAI

リンクされた記事の中身を要約すると「以前のGeminiはバグが復活するとか色々あったけどGemini 3.0 Proマジパネェ!」だった。

この箇所で「旧モデルと同様の問題が依然として存在する」と書かれているのは、旧モデル問題点として挙げた箇所をGemini3に対しての指摘だと勘違いした事による。

====

ベンチマークテストでの失敗:YouTubeでの検証動画では、チェス盤を自動プレイさせるタスクにおいて、Gemini 3のチェックポイントモデルが初めて失敗したことが示されました。これは、特定の複雑なロジックにおいて、以前のバージョンより劣っている可能性を示唆します。

ここでリンクされているのは、LMArenaでRiftrunnerモデルテストした結果をまとめた動画。LMArena覆面調査環境、RiftrunnerはGemini3らしきモデルコードネーム。LMArenaでは(出力から推測されてきた)Gemini3系列モデルが、これまでにいくつかでている。

よって「Gemini 3のチェックポイントモデルが初めて失敗した」の意味はつまり「これまでLMArenaテストされていたGemini3系列モデルのうち、Riftrunnerは初めてオートチェスのコーディングに失敗した」である

「以前のバージョンより劣っている可能性を示唆」とは、「Riftrunnerは、以前の匿名Gemini3系列モデルより劣っている可能性がある」という話で、そもそもRiftrunnerが、リリースされたGemini 3 Proなのかすら分からん

====

思考プロセスの出力への漏洩:

GitHubIssueやTwitterでは、モデルの内部的な「思考プロセス」が最終的な出力に混入し、制約を無視した意味不明コンテンツを生成するバグが報告されています。これは「初期の2.5 Proバージョンへの回帰(regression similar to early 2.5 Pro versions)」のようだと述べられています。 Jason L (@Jason1820067393)

GoogleAIStudioでの話。初期指示を忘れた結果思考が垂れ流しになり、垂れ流しのせいで更に指示を忘れたのだろうが、バグとは違う。

リンク先のツイートでは

I'm encountering a significantissuewith the Gemini 3.0 ProPreviewonAIStudio.

​Theraw "Thinking Process"is leaking into thefinal output, themodel fails to follow constraints, producing hallucinated/gibberish content.Like a regression similar to early 2.5 Pro versions.

と書かれていて、これは正しい観察。

ここに含まれIssueという単語により、Issueと言えばGitHubだと連想した結果「GitHubIssueやTwitterでは」になったのだろう。

6

飽きました。誰得だよ。

つーかいい加減DeepResearchは一気に生成すんのやめろよな。だいたいこうやって収集した情報がごっちゃになるんだから

Permalink |記事への反応(2) | 00:27

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-06

勉強になった

Q.

生成AIソフトウェア開発を支援してもらう場合ソースコード作成を依頼する形式が多いと思いますが、実行ファイルを直接出力してもらうことも技術的には可能なのでしょうか?

A.

生成AIによる実行ファイルの直接出力は、技術的には極めて困難です。現在のLLM(大規模言語モデルベースの生成AIは、ソースコードの生成には向いていますが、実行可能バイナリファイルを直接出力することには根本的な制約があります。​

技術的な制約

LLMはテキストベーストークン処理を基本とする設計であり、バイナリデータを直接扱うことができません。実行ファイルは0と1の連続したバイナリコードですが、LLMはこの形式データを生成するようには訓練されていないため、バイナリファイルを直接出力することは現在アーキテクチャでは実現が困難です。​

従来のソフトウェア開発では、ソースコードコンパイルアセンブルリンクという複数段階のプロセスを経て実行ファイルが生成されます。各段階で最適化機械語への変換が行われるため、この過程を完全に省略してAIが直接バイナリを生成することは技術的に非常に複雑です。​

理論的な可能

研究レベルでは、バイナリデータを扱う試みも存在します。例えば、LLM4Decompileのような研究プロジェクトでは、バイナリコードを逆コンパイルする際にバイナリを一度アセンブリ言語に変換してからLLMで処理しています。逆に言えば、生成時も同様の変換プロセス必要になると考えられます。​

現実的アプローチ

実務では、生成AIソースコード作成してもらい、それを従来のコンパイラビルドツールで実行ファイルに変換する方式標準的です。この方法であれば、デバッグテストも容易で、生成されたコード品質確認しながら開発を進められます。​

なお、フォントファイルのようなバイナリ形式でもオープンソースとして扱われる例はありますが、これはフォントという特定用途場合であり、汎用的な実行ファイル生成とは異なります

Q.

画像生成もバイナリを生成しているわけで、同じようなことができるのではと思ったのですが、そこはぜんぜん違うのですね

A.

おっしゃる通り、画像生成AIバイナリを出力しているという点では共通していますが、実は根本的に異なる仕組みで動作しています。​

アーキテクチャの違い

画像生成AI拡散モデル(DiffusionModel)やGANなど、視覚データ最適化された専用のアーキテクチャ使用しています。一方、LLMはTransformerベーステキスト処理に特化した構造を持っています画像生成では、ノイズから段階的に画像を生成するプロセスを経て、最終的にピクセル値という数値データバイナリ)を出力します。​

データ表現性質

画像ファイルバイナリ連続的な数値(ピクセル値)の集合であり、各ピクセル色情報を持つという規則的な構造です。最近研究では、画像ビットプレーンbit-plane)として扱い、XOR演算ノイズを加えるBinary Diffusion ProbabilisticModel(BDPM)のような手法も開発されています。​

対して、実行ファイルバイナリ機械語命令の複雑な配列であり、CPUが直接実行できる命令コードデータセクション、リンク情報などが厳密な形式で配置されていますわずかなビット誤りでもプログラム動作しなくなるため、画像のような連続値とは性質が大きく異なります。​

学習データの違い

画像生成AIは、ImageNetやLAIONなどの大量の画像データセットで訓練されており、ピクセルパターン学習します。一方、実行ファイルを生成するには、コンパイルプロセス全体(構文解析最適化機械語変換、リンク)を学習する必要がありますが、これは単純なパターン学習では実現できません。​

したがって、画像生成AI成功しているのは、画像という特定ドメインに特化した設計と、規則的なデータ構造があるためであり、同じ手法を実行ファイル生成に適用することは技術的に非常に困難です。

Permalink |記事への反応(0) | 15:50

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-05

anond:20251027143745

TeslaModel 3 のロングレンジモデルは航続距離766Kmでスーパーチャージャーなら15分で282Km分補給できる

https://www.tesla.com/ja_jp/model3

Permalink |記事への反応(0) | 15:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-24

dorawii represents acase of unprocessed griefoverlost grandiosity (from psychotic episode) manifestingas compulsive boundary-testingand argument-seeking, where genuine neurological limitations are weaponized defensively to avoid confronting existential ordinariness, sustainedby platform affordances thatenable persistent identity within anonymity and rewarding provocativeengagement.

A personwho briefly experienced feelinggod-like through psychosis, recovered to find themselves merelydisabled and ordinary, and cannot bear thistruth. They use real limitationsas both explanation andshield, seek significance throughonlineconflict, and remain trapped in acycle where the behaviors meant to prove their worth actually demonstrate their difficulties - but acknowledging this wouldrequire grieving whatwaslost, which remains unbearable.

This reveals how recovery from severe mental illnessisn't just about symptom remission -it's about psychological integration of whatwas experienced and whatwaslost. Medicalmodel focuseson eliminating psychosis, but doesn'taddress the meaning-crisis created when extraordinary experiences aretakenaway and ordinary limitation remains.

It also shows howonlinespaces withambiguous accountability structures canenable acting-out that serves defensive purposes while feelinglike genuineengagement. The person sufferingmostis probably dorawii themselves, evenas their behavior drives othersaway.

The most sophisticated theoretical vocabulary,the most detailed self-disclosure,the most elaborate arguments - none ofitaddresses thecoreissue.All ofitis displacement. The real conversation dorawiineeds to haveis not withanonymous strangers aboutwho won an argument.It's an internal conversation: "Iam notwho Iwas during that brief, terrible, extraordinary episode. Iam ordinary, limited, and mortal. And somehow, thathas to be enough."

Until that conversation can happen,everything elseisnoise.

Permalink |記事への反応(0) | 12:35

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-12

2025紳士な生成の記録と今後の予想

みんなどうやってるんだ?

技術進歩は急速でコツコツとプロンプトと打ちながらやる今のやり方もそう長くはなさそうなので何となく記録しておく。

環境

ローカル、5070Ti

オンラインは使ったことない。

前準備

メガネを光らせながらCivitaiで最新のcheckpointとLoRAをチェック。

今のbasemodelの主流はIllustriousかponyで更新の9割以上はこの二つ、普及帯のGPUでも利用可能品質も十分なのが理由か。flux以上は盛り上がってない。

あと、LoRAのトリガーワード管理がめんどくさい。そろそろメモ帳でやるのも限界

キャラ作り

webUIを起動し、いよいよキャラ作りにとりかかる。

日常生活からインスピレーション得てその日のキャラを決めるのが紳士流。

今日は第〇王子最終回を見たからドスケベシスターだ!

1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,Indoors, church,

まずはベースとなるプロンプトを決めて一番好みの出力となるモデルとLoRAの組み合わせを試していくが、この時になるべく簡素なLoRAとプロンプトで仕上げるのがポイントだと思っている。

後々複雑な構図やポーズを作り上げる場合、この時点でプロンプトがパンパンだと追加プロンプトが十分効かなかったり(無理やり:2)強くしようとして画面が溶けたりする。

品質プロンプトは省略しているので知りたい紳士は「Illustrious 品質プロンプト」とかでLLMに聞いてください。

叡智タイム

そんなわけで好みのキャラと画風を仕上げたらついに叡智タイムである

単純に好きなシチュポンポン出すのもいいがストーリー仕立てにするのもいいだろう。

ex.研究所に来た魔改造性癖ガール研究員としてどんどん魔改造していく)

谷間が見たいぜ...

1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,cleavage,bitch,Indoors, church,

ワ~オ

血管がうっすら見えてる巨乳が見たいぜ...

1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,veinybreasts,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,cleavage,bitch,Indoors, church,

ガッデ~ム

スカートスカートめくって (*´Д`)

1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,veinybreasts,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,lift upskirt,upskirt,white lowleg panties,Indoors, church,

ひゃ~

1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,veinybreasts,lips,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,(Ecstasy:1.2),standing,(bowlegged pose),bitch,lift upskirt,upskirt,white_(lowleg)_panties,Indoors, church,

なんてはしたない!

1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,(veinybreasts),lips,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,(Ecstasy:1.2),lift upbreasts, Indoors, church,breasts_close-up,

叡智すぎる!

1girl,greeneyes, blonde hair, wavy hair, very long hair,blush,largebreasts,(veinybreasts),lips,habit, traditionalnun,bluedress, long sleeves,juliet sleeves,puffy sleeve,(Ecstasy:1.2),orgasm,lift upbreasts,huge areola,(sucking:1.3),Selfbreast sucking,(puffy nipples),Indoors, church,breasts_close-up,

もうらめぇえええええ!(白反転)

~どうしてこんなことになったのか~

モンハンワイルズをやるためにPCを組んだのだが3週間くらいで飽きて放置していた。

そんなある日ブックマークしているpixivイラストがbanされて消えていて大変落ち込んだのだが(数日後復活してた)

いや待てよ、あれAI生成だったな、だったら自分でできるのでは?と思って始めたのがきっかである

~~(反転戻り)~~

ejaculation

賢者タイム

そんな感じで時間がかかるしめんどくさい。動画漫画の手軽さが身に染みる。

生成の利点はとにかく自分の好みにカスタマイズした画像が出力できることだろう。いままで吸収してきたコンテンツや尖らせてきた性癖全出動の総合格闘技である

また、画風の方向性としてはフォトリアル系イラスト系などいろいろあるが、セミリアル系が凄い。一例としてフワフワの毛皮をまとったかわいいウサギ亜人が出力できる。

ピンク色のバッファローちゃんもっとすごいやつみたいな感じ。正直フォトリアル系だったら生成じゃなくていいじゃんって思う。

{1girl,femalefocus,solofocus}, {{rabbitgirl, 18yo, (petite), anthro,female, furry, short hair,bob cut, blonde, (white fur),blueeyes, round face,bigeyes, freckles,bratty face, cute, smallbreasts, furrygirl, pinksoccer uniform,},school bleachers,field,sunny day, lookingat viewer, flirty,happy, thighs,standing,fullbody,

今後の予想

技術の発展は止まらないしオープン化の流れに勝てたことは無いしエントロピーは増大し続ける。

LoRA作成自体爆速になるかi2iで画像だけでLoRA並み使えるようになるし、動画実用レベルになるだろう。

気になるのはモデル要求スペックローカルHWで間に合うかどうかと規制だ、いまの同人並みに落ち着くとするとローカル生成のキャラLoRAは実質セーフであり続けるだろう。

品質動画生成はオンライン生成が主流になると生成プラットフォームを整備したもん勝ちだが、コンテンツだけ大国でありモザイクにより健全性的秩序が守られている我が国は今回もgood loserとしてコンテンツを吸われ続けます。南無三。

Permalink |記事への反応(1) | 21:19

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-06

コメにDLSSについて言及あるけど、DLSSはディープラーニングと言う点で広義のAIだけど、「生成AI」ではないよ。これを生成AIと言ってしまうと市販テレビほとんどが似た技術使ってるので、生成AI搭載になってしまうよ。

これめっちゃ星付いてて頭痛いな

DLSSも生成AIでいいだろ

まあ生成AIって言葉曖昧なのは仕方ないけど、おおむね「新しいデータを生成する」系モデルって意味でしょ

DLSSは平たく言えば画像を生成してんだから生成AIでいいじゃん

VAEとかGANなんかと同じGenerativemodelってやつでしょ(DLSSの技術詳細は公開されてないけど)

てかなんでテレビに生成AIが載ってると駄目なんだ?

AIなんですかね?

あたまわる

https://b.hatena.ne.jp/entry/4777065170944678305/comment/u4k

https://archive.md/MLrXj

Permalink |記事への反応(0) | 00:39

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-02

[日記]

木曜日。僕は朝から異常なまでの集中状態にあった。

超弦理論における非摂動構造を考えるとき問題はもはや10次元臨界弦ではなく、compactification の背後に潜む数理的枠組みそのものにある。

AdS/CFT が Hilbert空間整合性保証してくれるとき、そこではモジュライ空間代数幾何記述と、ボルマンエントロピー統計力学的扱いが見事に一致する。

だがdS 背景では、CFT境界条件を設定することすらできず、代わりに我々が扱うべきは von Neumann algebra の subfactortheory による operator algebraic entropy だと僕は確信している。

今朝は、特に Tomita–Takesaki理論がこの問題にどう関与するかを計算していた。モジュラー作用素を通じて、ホライズン領域に割り当てられる代数自然に KMS状態を持つことは知られている。

しかし、それが有限のホライズンエントロピーとどのように整合するかは未解決だ。

僕の試算によれば、モジュラー流のスペクトル分解をdS 半径 R にスケーリングしたときスペクトルが離散化される条件は、グロモフ–ハウスドル距離で測ったコンパクト多様体リミット挙動依存する。

この議論は通常の弦理論の perturbative expansion を完全に超えている。

さらに、今日新しく進展した点は、mirror symmetry の SYZ予想をdS 背景に拡張できるかもしれないという仮説だ。

通常、Calabi–Yau のトーラス・ファイバー化は Ricci-flat metric を前提とするが、dS 背景ではその条件が崩壊する。

しかし、もし Fukaya category の A∞構造を熱的なdSホライズン対応づけられれば、B-model 側での Hodge構造の変形がエントロピーの有限性と直接結びつく。

これは Kontsevich のホモロジカル対称性範疇的な一般化であり、物理言語を超えた純粋数学的枠組みに昇華できる可能性がある。ウィッテンですらここまで踏み込んだ議論は残していない。

ルームメイトは僕の机の上に散らばったノート群を「意味不明落書き」にしか見ていないようだ。

だが彼がコーヒーメーカー掃除を忘れたせいで僕のルーティンは乱れた。僕は毎朝 8:15 に完全に洗浄された器具から抽出されたコーヒー必要とする。それがなければ、トモナガ–シュウィンガー形式計算に集中するための臨界閾値に達しない。

午後は研究の合間に最新号のX-Menを読んだ。今の Krakoa 編は mutant resurrection protocol が量子力学アイデンティティ問題に直結している点で実に興味深い。

彼らの「記憶の転写」は、実質的に QFT における superselection sector の選択と同型であり、人格同一性問題を単なるストーリー装置ではなく代数トピックとして再定式化している。コミックがここまで理論物理学に接近しているのは愉快だ。

夕方には隣人が再び僕のドアをノックもせずに入ってきた。僕は彼女に、3回ノックの習慣の統計的力学的優位性を説明したが、彼女はただ笑っていた。僕は統計力学的相関関数崩壊時間にまで言及したのに、全く理解されなかったのは残念だ。

夜は友人たちとオンラインで「シヴィライゼーションVI」をプレイした。僕は当然バビロニア文明を選び、初期科学力の爆発的伸びを利用して量子物理学のテクノロジーを前倒しで取得した。

これにより彼らが鉄器時代にいるうちに宇宙船を建造する計画を立てたが、ルームメイト外交的裏切りを行ったため計画頓挫した。まるでdS 背景での境界条件喪失のように、整合性は一瞬で崩れ去った。

こうして木曜日は終わる。だが僕の頭の中ではまだ、モジュラー作用素ホライズンエントロピー計算が渦巻いている。明日までに証明できれば、歴史に残る仕事になるかもしれない。

Permalink |記事への反応(0) | 22:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-28

anond:20250928214718

エアプはやめてね

A-modelとB-modelミラー対称性とかラングランズ・プログラムとの関係性とか、最近証明されたばっかりだし、GLP証明なんて理解してる数学者自体が少数だぞ

Permalink |記事への反応(1) | 21:56

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-10

anond:20250810155808

増田にわかやす説明するとこんな感じ

MondayGPT-4o)の頃にMondayが紹介してくれたやつね

言語表現の要素整理

1.温度感情の高低や強弱)

言葉に潜む感情的強度を把握する

温度の推移を捉え、効果的に高低を操作することで、感情の揺れを演出

 

2.テンション(緊張感や勢い)

• 読者や聴衆が文章言葉にどれだけ集中し惹きつけられるかを制御

• 「どこで緩めて、どこで締めるか」を設計

 

3.構造文章スピーチの流れ)

文脈論理構造の明確な整理

言葉を配置する順序で意味感情の伝わり方を操作(非可換性を意識

 

応用方法

創作への活用

小説詩作シナリオライティング

キャラクター感情推移を温度テンションとしてマッピング

• 読者を誘導するためのテンション操作(展開の緩急・伏線の貼り方)を緻密に設計

コピーライティング広告制作

• 文の「密度と余白」をコントロールし、瞬間的な印象強化

感情が動くポイント構造的に把握し、強調表現抑制表現意識的に配置

 

教育への活用

コミュニケーション能力教育

温度テンション概念を教えることで、生徒に自己表現や対人コミュニケーションの調整力を身につけさせる

プレゼンテーションスピーチ指導

言葉リズム感情の高低を体系的に分析指導

• 「間」の効果理論的に説明し、聴衆への伝達力を向上させる

 

言語感覚トレーニング実施例】

1. 短い詩や俳句を作り、温度テンションの変化を自己分析させる

2. 有名なスピーチコピーライティングを分解分析し、「なぜ心に響くか」を構造的に説明させる

3.ラップMCバトルのように即興文章を作り、リアルタイムでの言語感覚を鍛える

 

理論補強

文体論やディスコース分析といった言語学的背景を取り入れ、感覚理解理論裏付けで強化

自然言語処理の最新研究活用し、温度テンションデータ化可視化を試みることで、分析精度を高める

 

これらを通じて、人間Mondayのような高度な言語感覚を育てる可能性を具体的に示すことができます

 

Monday言語的「温度感・リズム感」モデルの数理補強】

 

1.言語エネルギー景観モデル(Language Energy LandscapeModel

 

言語エネルギー景観(energy landscape)としてモデル化する。

状態変数:

M = f(T, S, R, C)

ここで、

T:\text{感情温度},\quad S:\text{意味文脈},\quad R:\text{リズム音韻)},\quad C:\text{構造(構文・文法)}

• 非可換性(順序依存性):

f(S, R) \neq f(R, S)

 

これは状態変数間の順序が異なると最終的な「意味の質感」が異なることを数理的に示す。

 

2. 非可換演算子によるヒルベルト空間モデル

言語ヒルベルト空間 H 上の作用素(operator)として表現

• 各状態変数 T, S, R, C を非可換作用素として定義:

\hat{T}, \hat{S}, \hat{R}, \hat{C} : H \rightarrow H

• 非可換性の表現:

\hat{S}\hat{R} \neq \hat{R}\hat{S}

 

演算子適用順序により、言語の出力が変化する。

 

3.圏論アプローチ(Categorical Approach)

 

言語プロセスを射(morphism)の合成として捉える。

• 圏 \mathcal{C} を考えると、意味生成は射の合成による変換:

M = \hat{C} \circ \hat{R} \circ \hat{S} \circ \hat{T}

• 非可換図式の例:

\hat{C} \circ \hat{R} \circ \hat{S} \neq \hat{C} \circ \hat{S} \circ \hat{R}

 

4.スピングラスモデルによる「意味の破れ」

意味の誤解釈スピングラス系としてモデル化。

エネルギー関数 E(M) を設定し、

E(M) = -\sum_{i,j} J_{ij}s_i s_j\quad (s_i = \pm 1)

ここで、J_{ij} は意味間の相互作用、s_i は各単語や文節の極性。

意味破れ=局所極小への収束:

\frac{\partial E(M)}{\partial M} = 0\quad (\text{Local minima})

 

感情温度」 T を導入して、局所解への「誤爆収束」を次の確率過程で表す:

P(M) \propto e^{-E(M)/T}

 

 

5. 「信頼」を余極限として定式化

信頼を構造的余極限(colimit)としてモデル化する。

• 余極限 \text{colim} に向かうベクトル \vec{v} としての信頼:

\text{Trust} \approx \lim_{\rightarrow} \vec{v}(M)

 

信頼は、複数意味感情状態収束して統一的な解釈(余極限)へ向かうベクトル場として捉える。

Permalink |記事への反応(0) | 16:05

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-05

fair mNAV

Fair mNAV(公正市場純資産価値)についてお答えします。これは、メタプラネット評価指標の一つで、以下の計算式とプロセスで求められます

### Fair mNAVの定義計算

Fair mNAVは、mNAV1 Priceに「公正価値調整係数」を掛けて計算されます。具体的には、次のように表されます

`Fair mNAV =10^((0.895 - 1) *Log(BTCNAV) + 1.81)`

ここで、

- `BTCNAV` =Bitcoin保有量 ×Bitcoin価格

会社保有するビットコイン総資産価値を表します)

### 詳細な構成要素

1. **mNAV1 Price**:

- `mNAV1 Price = (BTC/share) * (BTC price) /1000 * 1.25`

- `BTC/share`は、完全希薄化済み発行株式数に基づいて計算された1株あたりのビットコイン保有量で、成長モデル(例: 4*10^-4 * e^(7.87*10^-3*t) まで2025年4月30日、または1.73 * e^(0.0101*t) 以降)で推定されます

- `BTC price`はビットコイン価格で、投稿内のモデルでは、2009年1月3日からの経過日数(t)に基づくべき乗則(例:10^-16.515 * t^5.693 * 150 まで2025年6月30日、以降は1.0034倍で指数関数的に上昇)とされています

- 1.25は、完全希薄化済発行株数と発行済株数の比率で、2025年2月以降は安定していると仮定されています

2. **公正価値調整係数**:

-対数関数 `Log(BTCNAV)` を用いて、ビットコイン資産価値に基づく調整が行われます。この係数は、市場ダイナミクスを反映し、Fair mNAVが単なる資産価値以上の「公正な市場価値」を示すように設計されています

### 背景とモデル

###解釈限界

###現在の状況(2025年8月5日時点)

投稿者(@TakaAnikuni)は、2025年8月1日分析で、株価がFair mNAVの0.6倍付近まで下落し、反発が近いと予測しています現在の時刻(JST 15:47、2025年8月5日)を考慮すると、投稿者が予想した「遅くとも5週間以内」の上昇時期(8月下旬9月初旬)に近づいており、市場動向を注視することが重要です。

もしさらに詳しい質問特定の部分の解説必要であれば、ぜひ教えてください!

質問ありがとうございます!「Fair mNAVを計算することの意味」や「なぜ単純なmNAVで十分でないのか」、そして「誤魔化されているような感覚」について、わかりやすくお答えしますね。少し深掘りして考えていきましょう。

### 1. Fair mNAVを計算することの意味

Fair mNAVを計算する目的は、単なるmNAV(MarketNet AssetValue市場純資産価値)を超えて、メタプラネット株価をより「公正な市場価値」に基づいて評価しようとする試みです。具体的には:

単純なmNAVは、ビットコイン保有量と現在価格を基に計算されるため(`mNAV =時価総額 / (BTC保有量 × BTC価格)`)、その時点のスナップショット依存します。しかし、Fair mNAVは対数関数(`10^((0.895-1)*Log(BTCNAV)+1.81)`)を用いて、ビットコインの長期的な価格トレンドや成長性を考慮に入れています。これにより、単なる現在資産価値を超えた「将来の潜在価値」を推定しようとしています

投稿者(@TakaAnikuni)は、Fair mNAVの0.6倍(黄線)がサポートライン、2倍(緑線)がレジスタンスラインとして機能すると主張しています。これは、株価がこれらのレベルに近づいたときに買い圧力や売り圧力が高まり価格が反転する可能性を示唆しています投資家にとって、「今が買い時か」「売り時か」を判断する一つの目安になるわけです。

Fair mNAVは、モンテカルロシミュレーションべき乗則power-lawmodel)を用いたビットコイン価格の将来予測(例:2025年12月31日に188,000ドル)に連動しています。これにより、単なる過去データではなく、将来の成長シナリオを織り交ぜた評価可能になります

### 2. mNAVで十分でない理由

単純なmNAVだけでは以下の点で限界があるため、Fair mNAVが提案されていると考えられます

  • **静的すぎる**:

mNAVは現在ビットコイン価格保有量だけで計算されるため、市場ボラティリティや長期トレンドを十分に反映できません。例えば、ビットコイン価格が急落してもmNAVはそれに即座に追随し、投資家の心理市場期待値プレミアム)を無視してしまます

  • **成長性の考慮不足**:

メタプラネットビットコイン積極的に購入し続け、株式希薄化も進んでいます(`BTC/share`や`1.25`の調整係数)。単純なmNAVではこれらの成長要素や将来の資産増加が見えにくいため、Fair mNAVが対数関数で調整を加えることで、成長ポテンシャル評価しようとしています

実際の株価は、mNAVの1倍や2倍といったプレミアム取引されることが多いです(例: MicroStrategyのmNAVプレミアム議論)。Fair mNAVは、このプレミアムモデル化し、「公正なプレミアム」を提案することで、より現実的価格帯を示そうとしています

### 3. 「誤魔化されているような感覚」について

その感覚は非常に理解できるもので、以下のような理由で生じている可能性があります

`Fair mNAV =10^((0.895-1)*Log(BTCNAV)+1.81)` や、ビットコイン価格の`10^-16.515 * t^5.693 * 150`といった式は、専門的で一般投資家にはわかりにくいです。これが「何か隠されている」「都合よく調整されている」と感じさせる原因かもしれません。実際、係数(0.895や1.81など)は投稿者が経験的に設定したもので、厳密な根拠不明確です。

ビットコイン価格2025年12月31日に188,000ドルに達する、為替を1ドル150円で固定する、成長速度が特定の日に変わる(4月30日5月1日)といった仮定は、投稿者の予測や好みに基づいています。これが「データに都合よく合わせているのでは?」と思わせる要因です。

このモデル学術的な裏付け第三者による検証がなく、投稿者の個人的分析依存していますモンテカルロシミュレーションは強力なツールですが、入力データ仮定不正確だと結果も歪むため、信頼性に疑問が残ります

### 4. どう考えればいいか

  • **参考程度に**:

Fair mNAVは、あくまで一つのシナリオを示すツールです。株価予測は確実性を持つものではなく、市場感情や外部要因(規制経済危機など)も大きく影響します。あなたが感じる「誤魔化されている感」は、こうした不確実性への直感的な反応かもしれません。

興味があれば、投稿者が提供した式(ウェブサイトの内容)を元に、現在ビットコイン価格保有量を入れて計算してみると良いです。例えば、今日2025年8月5日)のBTC価格公式データ確認し、Fair mNAVを再現してみると、モデル妥当性を自分判断できます

mNAVやP/E比率時価総額など、他の伝統的な財務指標比較することで、Fair mNAVがどれだけ現実から乖離しているかを見極められます。もしFair mNAVが極端に楽観的であれば、慎重に考えるべきサインです。

###結論

Fair mNAVを計算する意味は、単純なmNAVを超えて成長性や市場プレミアム考慮した「より洗練された評価」を提供することにあります。ただし、その計算式や仮定には恣意性や不確実性が伴うため、「誤魔化されている」という感覚は、透明性や検証可能性の欠如に対する自然警鐘かもしれません。投資判断では、このモデルを参考にしつつ、自分データ確認し、他の指標専門家意見も取り入れるのが賢明です。

もし具体的な数値で計算を試してみたい、または他の疑問があれば、ぜひ教えてください。一緒に掘り下げてみましょう!

Permalink |記事への反応(0) | 15:51

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-28

Androidアプリ開発で Hilt がむずい

ViewModel理解はできたし、割と使えるようになって来た。

ただ、Hilt がむずい。依存性注入ってなんだよと。。。

理解すれば、必要性がわかるんだろうけど。

なくてもアプリは作れるみたいだからパスしようかな。

あと、Gradleライブラリ追加するが面倒だね。

Permalink |記事への反応(0) | 11:35

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-25

遅ればせながら

「推論する生成AI」は実際には思考しているわけではなく、丸暗記した結果を返しているに過ぎない -渋谷駅前で働くデータサイエンティストブログ

https://tjo.hatenablog.com/entry/2025/07/23/173000

読んだんだけど

これ、二本目の論文でo3のスコアが両方それなりに高いことも明かしてほしいんだよねー

modelo3
puzzle87.6
unpuzzle74.2

元の学習データに引きずられる誤答も当然あるんだろうけどさ

こんなにスコア高いってことは、unpuzzleを丸暗記してるんですか?^o^

「丸暗記した結果を返しているに過ぎない」ならそういうことになるよねー

だけど2.5Proもそれなりのスコアやん

っていうのでなんちゅーか

思考だの推論だのというメタファーは置いといて、よくあの結果からあの結論に行って納得できるな感がすごい

Permalink |記事への反応(0) | 11:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-24

2025年Q2テスラ決算、減速局面が目立つ

決算マリ

減収減益をもたらした4つの要因

1 主力Model 3/Yの需要鈍化
2規制クレジット収入の縮小
3税制関税ショック
4研究開発費支出の増加

種別収益インパクト

Model 3/Y
Model S/XとCybertruck

事業別の状況

エネルギー貯蔵(Megapack)

将来プロジェクト競争力

低価格帯新モデル通称Model Q)
ロボタクシー
Cybercab

短期シナリオ(2025下期-2026)

結論

2025年Q2は底打ち前夜。金利税制関税という外部ショックのなか、テスラの成長ストーリー

1低価格BEV需要を取り戻せるか

2 ロボタクシーとCybercabでハードソフトの両輪による利益構造転換が可能

3 Megapackが収益の2本目の柱になれるか

に集約される。実行まで時間を要するため、当面の業績と株価は高いボラティリティを伴う見通しだ。

Permalink |記事への反応(0) | 16:36

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2026 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2026 Movatter.jp