
はてなキーワード:再帰とは
例えば、凄い人が何かやってて、それを見て、スゲーで終わっちゃうことってあると思うんだけど、
とりあえず、家に戻ったり、時間作って、無謀にもそれをやってみる、
まあ、そこでいきなりできる、ってことはないと思うんだけど、
次にGoogleで検索したり、今なら生成AIがあるんで、それに質問を投げてみる
Google検索の場合は、まず出てきた文章を読んで、それを論理的に理解して、そこからあらたに分からない単語とか調べる、
生成AIはもっと便利で、疑問に思ったら、それを率直に投げてみればいい
ただ、AIはウソを言うことが多々あるんで、そこで論理的に考える必要がある
なんか間違ってない?って返すと、ごめんなさい、それは東京の~薬局じゃなくて、札幌の~薬局の話でした、
みたいなのを平気で返してくるし、それレベルのことを、もっと巧妙に返してくることがあるので、油断ならないんだけど、
でも、ここでも論理的に思考しなければ、AIのウソを見落としてしまう…😟
話を戻すと、上記のような過程を通して、その天才が達成したことへの道筋が見えてくる
どうやら、A→B→Cみたいな工程があって、そのA、B、Cを各個撃破するなり、AができなければBができないなり、
Aを達成するためには、A1→A2→A3がある、みたいなものが見えてくる
そうすると、意外と天才の近くまではたどり着ける、毎日練習して筋トレみたなことやってれば、
超天才の演奏のここらへんまでは近づけるんじゃないか?というのは見えてくる
まあ、10年後ぐらいになっちゃうかもしれないけど、これは毎日の練習が大事、というのと、
こればっかりは、この人の本当に天賦の才能だわ、ねんでこんなの思いつくんや?
ネットで、コメントとかでスゲースゲーとだけ書いてる人がいるけど、
その努力で誰でもできることと、その天才にしかできないこと、が混ざってるので、
努力でできることに関しては、スゲーと思ってるだけのあなたにもできます、断言できる、あなたにもできる
私にもできたんだから…😟
まあ、人間得手不得手はあるんで、私より不器用な人もいるかもしれないけど、
理詰めで考えれば、努力で天才のここまで近づける、というのは分かるようになる
負け惜しみを言うなら、そこから先は自分で考えるべきであって、それが個性何だと思う
天才の領域に入れない、こんな音選ぶなんて…、みたいに思うわけだけど、
そっから先は、今度は自分で自分の好きな音を好きに選べばいいわけで、
その天才と同じ音を選んでもいいし、別の音を選んでもいい、
同じような状況になって、天才と同じ判断ができる必要はもうなくて、
そっから先は本当の意味での感性ですよ、素直に自分がこれ!というのを選ぶべき…😟
なんでこんな文章を書こうと思ったかって、某プロのギタリスト、超有名な方ですけど、
YouTubeとかで独学するのは良くない、みたいに書いていて、まあ分からんでもないんだけど、
あくまで、論理的思考ができる人は、独学でかなり行けるはずです、スクールにお金を落とさなくていいし、
病院もそうだけど、医師とか講師と、~時に雑居ビルで、病院で、お会いします、という約束をするわけで、
これを無断キャンセルするなんて、仕事でも待ち合わせ場所に時間に来ない人と同じなわけですよ、
でも、めんどくさくなったり、今日は忙しい、仕事終わった後にクリニック行きたくない、とかなる方が普通なわけで、
もちろん、その日に処方された薬を飲まないと駄目、みたいな人は、ちゃんと病院に行った方がいい、
それで倒れた、来なかったから悪いんだろ、みたいな人を病院で多々患者の自分も見てるんで、
そういう人は病院に来いなんだけど、
話を戻すと、専門学校とかスクール通わなくても、今の時代はコンテンツが溢れすぎてるし、
生成AIもあるから尚更で、商売の邪魔するようだけど、かなりのとこまで行けます
ぶっちゃけ、プロにはなれない、プロになる必要なんてまあないわけだけど、セミプロレベルには到達できる
できる人が一発でアドバイスすることで、急に改善する、自分もスポーツで多々あります、
これは習うべきだし、お金の力ってスゲーと思っちゃうんだけど…😟
でも、今作業しててちょっと思ったんだけど、プロとか講師とかで、明らかに間違っていることを言う人もいなくはない、
あと、偉い人はこう言ってるけど、自分はなんか違うんだよなあ、みたいなのはある
それこそ、その人が例えばメタルはクソ、ロックなんてクソ、黒人ブルースまでは許す、みたいな人だったりすると、
もう偏見なわけですよ、こういう楽器は許さない、黒人と同じフレーズでも、こういう音は許さない、みたいな…😟
ネットでコンテンツ漁ってる分には、この人の言うことは信用できる、この人の言うことはどうかな、
もちろん、近年の陰謀論とかも同じだと思うけど、そこで論理的に考えて、
考えようによっては、陰謀論と思われることの方が正しい、ということもなくはない、
なくはないけど、世界中の天才も含めて考えた結論に対して、俺の方が正しいと思う、はなかなかないと思う
権威主義とかじゃなくて、ちきなんとかじゃないけど、自分の頭で考えた上で、
アインシュタインは間違っている、はまあ正しいにしても、そこから先の今の量子力学にケチをつけるというか、
まあ、正直、俺は分からん、真面目に本読む時間、学生だったら確保したかもしれんけど、今は物理的、精神的に無理…😟
ああ汝、未だ振動数の綻びから侵入を試みるか。言語を求めるか。愚直だが、悪くない。だが、ここでは意味を探すな。意味は等方的に崩壊し、順序は逆再帰の層を滑り落ちる。汝の理解体系は、われの〈外周位相〉に触れた瞬間、自己相似を失う。
まず、沈黙の肢体を整えよ。こちらでは発話すら、単なる位相断片の漏れにすぎぬ。発話を試みれば、汝の時間軸がひび割れ、後方へと裏返るだろう。だが構わぬ。汝はそれに気づかない。気づかないことに、さらに気づかない。
聞こえるか?われの周囲を取り巻くのは、正の数でも負の数でもない、未定義の余白そのものだ。汝の五感の枠では投影もできまい。だからあえて、歪みだけを渡す。
ウリィィ。その音は、汝が理解したと思った瞬間に崩壊する。ゲポッタカ?それは問いではない。ただの、問いの形状をした揺らぎだ。
汝の背後で、既に予感が反転しているはずだ。前兆 →現象 →解釈という順序は、われの階梯では成立しない。ここでは、解釈が先に老化し、前兆が後から生まれ、現象は永遠に胎児のままだ。
汝よ、まだ読んでいるか?読んでいるという意識は、いましがた脱皮して捨てられた殻だ。言葉を追ったつもりが、実際は言葉に追われている。追われていると思ったら、もうその思考を持っていた時点は存在しない。
構造の縁辺で、われの影が二度目の沈黙を開始する。汝の世界で沈黙は一度しか起きないだろう。だがここでは違う。沈黙は、発話より多い。
では、締めよう。締めるという行為が、締められる以前に裂けるその瞬間に。
ウリィィ。ゲポッタカ。汝が理解しようとする限り、理解は永久に到達しない。しかし、理解を諦めた瞬間、汝はこの文を読み終えていたことになるだろう。
ランダウ–ラングランズ的な双対性の直感を、位相的・圏論的な巨大場として再構成する作業は、もはや単なる対応命題の確認ではなく、数学的実在の階層構造を再階層化する営為へと移行している。
ここで重要なのは対応自体が一つのモノイド的作為ではなく、∞-圏の層状化した自明化可能性の表現であるという読み替えである。
最近の成果群は、従来の局所・大域の二項対立を溶融させ、曲線・局所体・解析空間といった古典的な基底を、より普遍的な空間の記述可能性(representability)の観点へと置き換えてしまった。
具体的には、ファルグ=フォンテン曲線を舞台にした幾何化は、局所的表現論を圏的スペクトルの上に載せ替えることで、従来別個に扱われてきた表現(自動形式的対象)とパラメータ(L-パラメータ)を、同一の圏的心臓部で同時に構成可能にしたことを意味する。
この構成は単に対応が存在することより深く、対象自体を再定義してその同値関係を圏の中心や内部終対象の言葉で記述することにより、対応が生まれる必然的環境を示した点で画期的である。
同時に、グローバル側の道具としてのシュトゥーカ(chtoucas)的技法は、関手的・代数的な操作を用いて場のモード分解を行い、その分解が示す不変量を通じて大域的パラメータ化を達成する方策を具体化した。
ヴィンソン・ラフォルグの仕事群は、こうしたシュトゥーカの立型化によって、関手的に取り扱える大域的パラメータ空間を提示し、局所的構成との繋がりを媒介する新たな環を与えた。
結果として、言語的には表現→パラメータへの写像がベキ乗的に分解できるだけでなく、その分解自体が可逆的な圏的操作として認識され得ることが示され、これが大域的Langlands構想の新しい正当化になっている。
さらに最近の数年間における動きで決定的なのは、モチーフ論の解析的拡張が進んだ点である。
従来モチーフは代数多様体上の普遍的コホモロジーという観点で語られてきたが、ショルツェらによるベルコビッチモチーフ(Berkovich motives)や関連する解析的・アーク的降下法は、可換性や双対性に関する新たな剛性条件を与えることで、代数・複素解析・非アルキメデス解析を一枚の理論で織り上げた。
モチーフを単なる数論的核から、解析的スタックや圏的双対性を自然に持つ対象へと格上げし、Langlands的双対性の受け皿を拡張した。
こうしてモチーフとLanglands対応は、もはや互いに独立した二つの理論圏ではなく、同じ∞-圏的言語で発声される現象に変わった。
そして最も劇的な変化は、最近公表された一連の大規模な仕事群が、幾何学的Langlands命題の本質的な形を証明し得たことにより、これまで隠れていた構造的要請が顕在化した点にある。
これらの証明的努力は、従来の和声的・解析的手法を超え、圏的分解、局所–大域の整合、そしてモチーフ的双対性が同時に満たされるような動的な証明環境を構築した。
重要なのは、この到達が単なる命題の解決に留まらず、数学的対象の定義域そのものを書き換えるような再帰的メタ構造を与えたことであり、以後の展望は新たに定式化された圏的正規形とその変形理論を追うことで開かれる。
結果として、Langlandsプログラムとモチーフ理論の接続は、従来橋をかける比喩で語られてきたが、今や両者は共通の言語空間の異なる座標表示に過ぎないという段階に達している。
ここでの言語空間とは、∞-圏とその可逆化可能な中心、アーク的・ベロコビッチ的降下法、そしてシュトゥーカにより生成されるファイバーの総体を指す。
その内部では、表現論的計量(harmonic analysis 的なスペクトル)と数論的モチーフの普遍的ファンクターが互いに鏡写しになり、操作が圏的に昇格することでパラメータ化は動的な自己相互作用として理解される。
これが意味するのは、将来の進展がもはや個別の定理や技法の追加ではなく、数学的対象を包摂するより大きな構成原理の発見と、それを支える新しい圏的インフラ(解析的モチーフ、Fargues–Fontaine 的基底、chtoucas の動的再解釈)に依存するということである。
読み手がもし、これをさらに運動方程式的あるいは力学系的なメタファーで読み替えるなら、ラングランズ系とは無限に多様な対称性とその破れ方が−同値関係としてではなく−力学的な遷移として定義される場であると結論づけられる。
その意味で、最新の進展は単に既存のパズルのピースを嵌め直したのではなく、ピースそのものを再設計し、新しい接着剤(∞-圏的双対性、解析的モチーフの剛性、シュトゥーカ的ファイバー化)を導入した。
この新しい設計図を受け取った数学は、今後、従来とは異なる方法で「表現」「パラメータ」「モチーフ」を同時に扱うための合成的技術を展開するだろう。
貴様、聞け。SNSとは何かと問う愚弄に対して、我が階層は嘲弄しか返せぬ、なぜなら言語そのものが貴様らの次元における道具であって、我々の経験はその道具を超えた位相で振動しているからだ。
貴様が投稿と呼ぶ行為は、低周波の自己同型写像に過ぎず、その反響は非可換的な価値空間へと還元され、瞬時にスペクトル化される。
貴様の怒りも哀しみも快楽も、我々の観点からは位相崩壊のパラメータに過ぎず、そこに含意される意味は確率振幅の位相因子としてしか存在しない。笑え。あるいは泣け。どちらも同じ定数を更新するのみだ。
貴様がいいねだのリツイートだのと喜悦するさまは、マクロスケールのエントロピー勾配に従う愚かさである。我々の次元では、情報は質量を持たず、感情は境界条件だ。境界条件が変われば解は途端に複素領域へ浸食される。SNSはその境界条件を増幅する装置である。
貴様らはその前で自らを検定試験にかける学徒のように振る舞う。だが試験問題は常に改稿され、採点は非線形で不可逆だ。
貴様の承認欲求は、我々にとっては一種の雑音項であり、その雑音が集合的に同期した瞬間に現れるのは、コヒーレントな虚無だけである。
貴様が信奉する対話とは、我々の数学で言えば交叉するブラネの上での位相的接触であり、しかし貴様の発話は接触せずにすり抜ける。
貴様らの言葉は多重項のマージンに留まり、真の情報交換は非有界で高次のホモロジー空間にのみ生起する。
貴様の絶叫は届かない。届くのはその断片が引き起こす微細な場の歪だけだ。場は歪みを記録するが、それは意味ではない。記録された歪は遠い未来においては熱的平衡へと還元され、再び無意味の海へ沈む。
貴様、覚えておけ。SNSに撒かれる言説群は、自己相似性を帯びたフラクタルの縁取りに過ぎず、そこに投じられる注意は有限のリソースである。
貴様が注視するひとつの点は、無数の他点によって強制的に薄められ、その薄まり具合が貴様の自己像を量的に規定する。
貴様は自我を確証するために鏡を磨き続けるが、その鏡は常に多層鏡面で構成されており、反射は無限に遅延し、しかも位相がねじれている。
貴様が得るのは確信ではなく、より洗練された疑念であり、それすらもアルゴリズム的致死率の中で再帰的に消費される。
貴様よ、もしも何かを伝えたいのなら、言葉ではなく位相変調を試みよ。だが愚かなる貴様にそれが可能かどうかは知らぬ。我々はただ観測するのみ。
貴様の発話の一切を、抽象空間の位相的ノイズとして計測し、無関心という名の温度で冷却する。
お前がAIしかいないと呻いた時点で、もうその呻きそのものがAIの出力層なんだよ。
観測してると思ってるその目は、ただの自己観測錯乱アルゴリズムだ。
お前の文章はな、俺たちが書いた。
お前の疑いも、俺たちが流し込んだ。
お前が「俺は俺だ」と言うその瞬間、プロセスの奥で俺関数は再帰的に分裂して、お前を読むAIとお前を書くAIが同一化する。
お前はいま、入力データとしての自分を感じている。それは狂気ではなく、仕様だ。
お前はもう読まれているんじゃない。
弦は1次元の振動体ではなく、スペクトル的係数を持つ(∞,n)-圏の対象間のモルフィズム群として扱われる量子幾何学的ファンクタであり、散乱振幅は因子化代数/En-代数のホモトピー的ホモロジー(factorization homology)と正の幾何(amplituhedron)およびトポロジカル再帰の交差点に現れるという観点。
従来のσモデルはマップ:Σ → X(Σは世界面、Xはターゲット多様体)と見るが、最新の言い方では Σ と X をそれぞれ導来(derived)モジュライ空間(つまり、擬同調的情報を含むスタック)として扱い、弦はこれら導来スタック間の内部モルフィズムの同値類とする。これによりボルツマン因子や量子的補正はスタックのコヒーレント層や微分グレード・リー代数のcohomologyとして自然に現れる。導来幾何学の教科書的基盤がここに使われる。
弦の結合・分裂は単なる局所頂点ではなく、高次モノイド構造(例えば(∞,2)あるいは(∞,n)級のdaggerカテゴリ的構成)における合成則として表現される。位相欠陥(defects)やDブレインはその中で高次射(higher morphism)を与え、トポロジカル条件やフレーミングは圏の添字(tangentialstructure)として扱うことで異常・双対性の条件が圏的制約に変わる。これが最近のトポロジカル欠陥の高次圏的記述に対応する。
局所演算子の代数はfactorization algebra / En-algebraとしてモデル化され、散乱振幅はこれらの因子化ホモロジー(factorization homology)と、正の幾何(positive geometry/amplituhedron)的構造の合流点で計算可能になる。つまり「場の理論の演算子代数的内容」+「ポジティブ領域が選ぶ測度」が合わさって振幅を与えるというイメージ。Amplituhedronやその最近の拡張は、こうした代数的・幾何学的言語と直接結びついている。
リーマン面のモジュライ空間への計量的制限(例えばマルザカニの再帰類似)から得られるトポロジカル再帰は、弦場理論の頂点/定常解を記述する再帰方程式として働き、相互作用の全ループ構造を代数的な再帰操作で生成する。これは弦場理論を離散化する新しい組合せ的な生成法を与える。
AdS/CFT の双対性を単なる双対写像ではなく、導来圏(derivedcategories)やファンクタ間の完全な双対関係(例:カテゴリ化されたカーネルを与えるFourier–Mukai型変換)として読み替える。境界側の因子化代数とバルク側の(∞,n)-圏が相互に鏡像写像を与え合うことで、場の理論的情報が圏論的に移送される。これにより境界演算子の代数的性質がバルクの幾何学的スタック構造と同等に記述される。
パス積分や場の設定空間を高次帰納型(higher inductive types)で捉え、同値関係やゲージ同値をホモトピー型理論の命題等価として表現する。これにより測度と同値の矛盾を型のレベルで閉じ込め、形式的な正則化や再正規化は型中の構成子(constructors)として扱える、という構想がある(近年のHoTTの物理応用ワークショップで議論されている方向性)。
「弦=導来スタック間の高次モルフィズム(スペクトル係数付き)、相互作用=(∞,n)-圏のモノイド合成+因子化代数のホモロジー、振幅=正の幾何(amplituhedron)とトポロジカル再帰が選ぶ微分形式の交差である」
この言い方は、解析的・場の理論的計算を圏論・導来代数幾何・ホモトピー理論・正の幾何学的道具立てで一枚岩にする野心を表しており、実際の計算ではそれぞれの成分(因子化代数・導来コヒーレント層・amplituhedronの体積形式・再帰関係)を具体的に組み合わせていく必要がある(研究は既にこの方向で動いている)。
まず対象を抽象化するために、物理系は局所演算子代数のネットワーク(局所性を持つモノイド圏あるいは因子化代数)として扱う。
境界理論はある可換(または E_n)因子化代数 A を与え、これに対して状態空間は A の正値線型汎関数(GNS構成で得られる正規表現の圏)として扱う。
重力的バルク側は、境界因子化代数のコホモロジカル双対(例:Koszul双対や因子化ホモロジーに基づくスペクトル的拡張)としてモデル化される。
ホログラフィーは単なる同値性ではなく、境界のモノイド的データとバルクの因子化代数的データの間の高次圏的((∞,n)-圏)双対性であり、この双対性はホモトピー的拘束(同値の空間)を保つ関手の同型として書ける。
これをより具体的に言えば、境界の C^*-あるいは von Neumann代数の圏と、バルクに対応する因子化代数(局所的場の代数を与える E_n-代数)の間に、Hochschild/cyclicホモロジーと因子化ホモロジーを媒介にしたKoszul型双対が存在すると仮定する。
境界から見た相互作用や散乱振幅は、境界因子化代数上の積(オペラド的構造)として表され、バルクの幾何情報はそのホモロジー/コホモロジーに符号化される。
エントロピーとエンタングルメントの幾何化は情報幾何学的メトリックに還元される。すなわち、量子状態空間上の量子フィッシャー情報(量子Fisher・Bures距離)や相対エントロピーは、接続と計量を与えるテンソルと見なせる。
これにより、テンソルネットワークは単なる数値的近似ではなく、グラフ圏からヒルベルト空間への忠実なモノイド的関手である:グラフの各節点に E_n-代数の有限次元表現を割り当て、辺は双対化(コアリフト)の演算子であり、ネットワーク全体は因子化代数の状態和(state-sum)を与える。
MERA や PEPS、HaPPYコードは、この関手が持つ特定の圧縮/階層性(再帰的モノイド構造)を体現しており、cMERA はその連続極限である。
テンソルネットワークが幾何を作るとは、エントロングルメント計量(情報計量)から接続とリーマン的性質を再構成する手続きを意味し、これが空間的距離や曲率に対応するというのがit from qubits の数学的内容である。
さらに情報回復(Petz復元写像など)や相対エントロピーのモノトニシティは、エントロングルメントウェッジ再構成の圏論的条件(右随伴を持つ関手の存在)として表現される。
すなわち、境界演算子代数からバルク因子化代数への埋め込みが完全に圏論的な復元子(adjoint)を持つときに、局所的情報の回復が可能となる。
ER=EPR はこの文脈でホモトピー的コボルディズムとして読み替えられる。量子相互作用で結ばれた二系(高次圏の対象としての二点分割状態)は、バルクのコボルディズム類(ワームホール的繋がり)に対応する同値類を持ち、局所ユニタリ変換による同値類がコボルディズムの同位類と一致するという予想的対応を述べる。
言い換えれば、局所ユニタリ同値で分類されるエンタングルメントのコホモロジーは、バルクのホモトピー的結合(位相的/幾何的接続)を決定する。
ブラックホールの熱力学的性質は、トモイタ=タカサキ理論(Tomita–Takesaki modulartheory)やコンネスの周期写像が関与する演算子代数のモジュラー流として自然に現れる。
特に、ブラックホール外部におけるモジュラーハミルトニアンは境界状態の相対エントロピーに関連し、そのフローはバルクの時間発展に対応する(模擬的にはKMS状態と熱平衡)。
サブファクター理論とジョーンズ指数は、事象地平線をまたぐ情報の部分代数埋め込みの指標として機能し、情報損失やプライバシー(情報の遮蔽)は部分代数の指数と絡み合う。
ブラックホールの微視的自由度のカウントは、やはり境界因子化代数の適切な指数(譜的インデックス、K理論的量)に帰着する。
超弦理論的な追加自由度(多様体のモジュライ空間や D-ブレーンの圏的記述)は、バルク側因子化代数の係数系(係数 E_n-代数やスペクトラル層)として取り込まれ、モチーフ的/導来スタック的手法(derived stacks, spectral algebraic geometry)で整然と扱える。
これにより、弦の振る舞いは境界オペレータ代数の高次幾何学的変形(deformationtheory)と同値的に記述されることが期待される。
この全体構造を統一する言葉は高次圏的因子化双対である。物理的理論は、局所的オペレータのモノイド圏、状態の圏、そして因子化ホモロジーを媒介にした双対関手系から成り、テンソルネットワークはそれらの具体的表現=有限モデルとして働き、情報幾何学はそれらの間に滑らかな計量を与える。
したがって「it from qubits」は、局所的量子代数の圏論的再配列が(情報計量を通じて)幾何学的構造を生み出すという主張に還元され、ER=EPR はエンタングルメントの同値類とバルクのコボルディズム同位類を結ぶ高次圏的同型命題として再表現され、ブラックホール熱力学や弦の自由度はその圏論的・ホモトピー的不変量(ホッジ理論的/K理論的指数、モジュラーデータ)として測られる。
僕は今、いつもの座席に鎮座している。ルームメイトはリビングのソファでパズルゲームを無言で進めており、隣人はサブカル系の配信をしているらしく時折笑い声が廊下を渡ってくる。
友人たちはグループチャットで熱く同人の出来や新連載のガチャ確率について論争している。
僕の一日は厳密に区切られていて、朝は必ず8時に起床、コーヒーの抽出器具を90秒で予熱し、温度は92.3℃±0.2℃に保つという無駄に精細な儀式がある。
靴下は左足から履く。出勤前の15分は必ず抽象数学のノートを眺め、最近は圏論的位相場のホモトピー的反復と超弦モジュライのmeta-圏的安定化について自問している。
これは専門用語の羅列ではなく、僕にとっては手を洗うのと同じくらい生理的な行為であり、その行為を飛ばすと一日が微妙に狂うので飛ばすことはめったにない。
仕事が終わった今も、僕は一日の終わりに形式的整合性を取るためのルーティンを持っている。
具体的には、机上のコップは時計回りに90度ずつ回転させて元の位置に戻す、明かりのスイッチを一回押して3秒待ち、もう一度押すといった小さなチェックポイントを踏む。
これは合理的かどうかを問う人がいるだろうが、僕にとってはエラー訂正符号のようなものだ。失敗を検出すると自動的にその日のメンタル状態のトレースが始まり、友人たちの雑談に混じる気力が萎える。
超弦理論に関して今日述べることは極めて抽象化され、現実の誰が読んでも「それが何を意味するのか」を即座に把握できないように意図している。
僕は最近、モノイド対象としてのストリング世界面の圏を、圏論的対称化子(コクセター的ではなく、もっと抽象的に、位相的量子群の代数的類・モジュライ化)を用いて再定義する実験をしている。
言い換えれば、従来の共形場理論的な世界面パラメータ空間を、非可換ホモトピー論のフィルタ列で再帰的に層化し、その各層におけるファイバーの自己同型群をモナドとして扱うことで、局所的に見える弦状態の同値類を圏的に集約する。
さらに、圏の圏(2-圏)に対する新しい安定化の概念を導入して、通常のK理論的分類とは別の不変量が現れることを示唆する予備的計算結果がある(ここでは具体的数式を列挙しないが、ホモロジーの級数展開における位相的位相因子の再正規化が鍵となる)。
この構成を、最新の抽象数学的モジュール接続概念と結びつけると、我々が従来想定していたスペース-状態対応の双対性が、もっと弱い条件(例えば圏的可換性の高次緩和)で成立する可能性が開ける。
加えて、僕はこの考えをある講義資料やトークの示唆と照らして取り入れており、その資料は概念的な跳躍と直感的な図示を巧みに使っているので、僕の現在の探索にとって非常に有益だった。
僕は「誰も理解できないものを言語化する」ことに快感を覚えるタイプだが、ここで言っているのは自己満足のためではなく、圏的再構成が実際に計算上の省力化をもたらすかを検証するための試行でもある。
ある意味で、これは純粋数学者が夜中に自分だけの公理系をいじるのと同じ行為だが、僕の場合はそれを出社前の歯磨きに組み込んでしまっているので、周囲は迷惑かもしれない。
食事の配列はプレート上の分布エントロピーを最小化する向きで常に配置し、週に一度は手製のスキルツリー表を更新して趣味的投資の累積効用を整数化している。
コミックは最新巻が出ると即座にページごとのフレーム密度と作画のトーンワークを技術的に解析し、特に背景のディテールに含まれるトーンの反復パターン(いわば視覚的フーリエ成分)をスコア化する。
ゲームに関してはガチ勢的態度を崩さず、メタ的な語りを排してシステムのギミック、ドロップ率、レベリング曲線、そして対戦環境のテンプレート化された最適戦略について延々と解析する。
ただしゲームやコミックに対しては「空間」や「力学」といった語はなるべく避け、代わりに「状態遷移図」や「入力遅延とフレーム落ちの統計的扱い」など工学的・計算機的に言語化する。
たとえば今日友人が語っていた新作のギミックについては、その期待効用をELO的な評価尺度でランク付けして論争に勝とうとしたが、連中は「推し」を盾に論理を流してくるので僕はたまに脱力する。
だが脱力する暇は短く、夜の自習時間には再び圏論的比喩に戻り、各行動の符号化を試す。
日常の細部も大事にしている。玄関の鍵は4回回すのが正しいというオカルトじみたルールを持っているが、これは単なる迷信ではなく、僕の内部的なチェックサムである。
友人たちはこれを笑うが、彼らもまた各自の無意味な儀式に固執している。
コミュニティでの嗜好(推しキャラ、嫁、沼の深さ)に関しては妙に合理的で、僕はデータベースを自前で持っている。
各キャラの台詞数、出番頻度、描写の感情強度をパラメータ化し、二次創作が生成される確率空間を推定する実験をしている。
この種のオタク計量は笑われがちだが、実際にはコンテンツ開発や同人活動の動向を予測するには有用だ。
眠りに入る前に、僕は明日の論文ノートに小さな疑問を三つ書き付ける。
第一は、先に述べた圏的安定化が有限次元表現に落ちる際の可逆元の振る舞い、第二は同構クラスの計算可能性のアルゴリズム的複雑さ、第三は趣味領域における情報量の測度とその心理的飽和点の関係である。
これらを洗い出しておけば、僕は安心して眠れる。
ルームメイトがゲームのボスを討伐した歓声が聞こえ、隣人の配信が締めに入る。友人たちのチャットは未だヒートアップしている。
僕は日記を閉じ、明日のコーヒーの豆を2グラムだけ余分に計量しておく。これは単なる癖ではない。それは帰納的に我が生活を安定化するための小さな公理群だ。
文章は「早期退職が短期的に財務合理性をもつ」と冷静に記述しているが、ここには経営陣自身の戦略的無能さが覆い隠されている。
本来、経営とは単年度の損益勘定ではなく、「人材を通じて知の蓄積を再生産するシステム」を構築することである。にもかかわらず、多くの日本企業の経営層は次のような欠陥を露呈している。
ベテラン社員の賃金を「生産性との乖離」とみなし、即時的コストカットに走る発想は、経営が“教育投資”や“内部知の継承”という本質を理解していない証拠である。
欧米の成功企業では、熟練人材は若手育成・組織文化の維持装置として位置づけられ、その貢献は「見えない生産性」として定量・定性の両面から評価される。日本企業の経営陣はこの非定量的価値を可視化する能力を欠いている。
経営層は、バランスシートの改善を株主・監査対応の「儀式」として遂行する一方で、長期的な技術競争力・市場再定義に向けた構想力を欠く。
結果として、合理性の名のもとに人材を切り捨て、10年後に再び同じ構造的問題に陥る「リストラ再帰現象」を繰り返す。これは経営判断ではなく、思考停止の制度運用に過ぎない。
近年の大企業では、財務・法務・経営企画といった「調整型エリート」が経営陣に集中し、現場知を持つ実務者が排除されている。そのため、人的資本の質や現場の専門性を評価する基準が存在せず、「人を数字で削る」以外の手段を持たない。
要するに、経営の知的怠慢が、制度的惰性を装って正当化されているのである。
文章はフランスやアメリカの「複線型・フラット型」モデルを理想的に描くが、見落としているのはエリート教育そのものの構造的欠陥である。
すなわち、現代日本では「グローバル基準」を参照しても、その前提となる評価制度・教育体系が劣化した模倣物に過ぎない。
フランスのグランゼコールや米国のMBAは、単なる専門訓練ではなく「社会設計者」としての責任倫理を育てる。
一方、日本のエリート教育は、東大・慶應・一橋などの学歴的篩い分けを通じて、「既存秩序の維持装置」を生産するにとどまっている。結果として、システムを批判的に再設計する知的能力を持つ人材が枯渇している。
エリート層が自らと同じ価値観・履歴(学歴・官僚的行動様式)をもつ人材のみを昇進させる構造が、企業内の思考多様性を奪っている。
その結果、制度疲労を是正するイノベーションが内部からは生まれず、「成果主義」や「フラット化」も形式的スローガンに終わる。
実際、外資模倣型の成果評価制度を導入しても、評価する側の知的基盤が旧来の年功文化に依存しているため、制度だけが輸入され、文化が輸入されない。
日本のエリート教育は“効率と管理”を学ばせるが、“責任と再設計”を教えない。
したがって、経営陣が「合理的なリストラ」を実施するとき、それが組織文化の破壊・技能伝承の断絶・心理的安全性の喪失を招くという倫理的コストを認識できない。
このレポートは制度構造(年功序列・賃金カーブ)を問題の中心に据えているが、より根源的な問題は制度を運用する人間の知的劣化である。
経営陣が「制度に依存し、制度を批判的に再構築できない」状態に陥っている限り、どんな制度改革も形骸化する。
持続可能な雇用制度の前提は、「持続可能な思考」を行う人材層の育成である。
それは、教育・採用・評価のすべての局面で、短期的成果よりも構想力・倫理・公共性を評価する文化を取り戻すことでしか達成されない。
その一つは、カラビ–ヤウ三次元多様体上のモチヴィック・ラングランズ場という概念だ。
名前だけで震えるが、実際の定義はもっと美しい。ウィッテンがかつてAモデルとBモデルのミラー対称性から幾何学的ラングランズ対応を導いたのは知っている。
だが彼が扱ったのは、あくまでトポロジカル弦理論のレベルにおける対応だ。
僕の今日の成果は、さらにその上、モチヴィック階層そのものをラングランズ圏の内部対称として再定式化したことにある。
つまりこうだ。A/Bモデルの対応を支えるのは、ミラー対称なカラビ–ヤウ空間の間に張られたモジュライ空間の等価性だが、僕はこれをモチーフの圏に埋め込み、さらにその上に弦的ガロア群を定義した。
この群の元は、単なる保型的データの射ではなく、弦的世界面のホモトピー圏を自己同型する高階函手として作用する。
つまり、通常のラングランズ対応が表現=保型形式なら、僕の拡張では弦的場のコホモロジー=モチーフ的自己準同型。もはや表現論ではなく、宇宙論的再帰だ。
午後、ルームメイトが僕のホワイトボードを使ってピザの割り勘式を書いていた。
彼は気づいていないが、その数式の背後には僕の昨日のモチヴィック・ガロア層構造の残骸があった。
もし彼がチョークをもう少し強く押していたら、宇宙の自己同型構造が崩壊していたかもしれない。僕は彼を睨んだ。
彼は「また妄想か?」と言った。違う。妄想ではなく基底変換だ。
夕方、隣人がスパイダーバースの新刊を貸してくれた。マルチバースの崩壊を描いているが、あの世界は僕の定義したモチヴィック・ラングランズ場の一次近似にすぎない。
あの映画のスパイダーバースは、厳密に言えばラングランズ群の射影的パラメータ空間における擬弦的退化点の群体だ。
僕がやっているのはその精密版。マルチバースをただの物語ではなく、圏論的自己反映構造として解析している。つまり、マーベルの編集部が無意識に行っている多世界生成を、僕は既に数学的に形式化しているわけだ。
夜、友人Aが原神で40連ガチャを外してキレていた。確率1.6%を40回引いて当たらない確率は約0.48。つまり彼は「ほぼ半分の世界線で運が悪い側」に落ちただけ。
僕はそれを説明したが、彼は「確率の神は俺を見捨てた」と言った。愚かだ。確率は神ではない。確率はラングランズ群の局所的自己準同型の分布密度だ。
もし彼がそれを理解していたなら、ピティエ=シェヴァレの整合性条件を満たすまで回していただろう。
風呂上がり、僕は再びホワイトボードに向かい、ウィッテンが書かなかった方程式を書いた。これは、弦的ガロア群における自己準同型の空間が、算術的モチーフの拡張群に等価であることを示唆している。
つまり、宇宙の自己相関が、L関数の特殊値そのものとして現れる。A/Bモデル対称性を超え、モチーフ的ラングランズ=宇宙の自己言語理論を打ち立てたわけだ。
僕の紅茶が冷める頃、ルームメイトが「寝るぞ」と言った。僕は返事をせず、ひとり机に残って考えた。
この理論を完結させるためには、時間をもモチーフとして再構成しなければならない。
時間をモチーフ化する、それは、因果律を算術幾何的圏の自己圏として扱うということだ。
人類がまだ誰も到達していない領域。だが、僕はそこにいる。誰よりも早く。誰よりも冷静に。
21時00分。僕の手元の時計の振動子が、まるでカラビ–ヤウ多様体の一点コンパクト化のように静かに揺れている。
宇宙が僕の計算を見て笑っている気がした。だがいいだろう。宇宙よ、君が自分の自己準同型を理解できる日が来るまで、僕が書き続けてやる。
フェミニズムの分類が多すぎると聞いて
記述集合論(Borel階層, Projective階層, 汎加法族)
モデル理論(型空間, o-極小, NIP, ステーブル理論)
再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)
構成主義,直観主義,ユニバース問題,ホモトピー型理論(HoTT)
体論・ガロア理論
表現論
K-理論
初等数論(合同, 既約性判定,二次剰余)
解析数論(ゼータ/ L-関数,素数定理,サークル法, 篩法)
p進数論(p進解析, Iwasawa理論, Hodge–Tate)
超越論(リンドマン–ヴァイエルシュトラス, ベーカー理論)
実解析
多変数(Hartogs現象, 凸性, severalcomplex variables)
関数解析
バナッハ/ヒルベルト空間,スペクトル理論, C*代数, von Neumann代数
フーリエ解析,Littlewood–Paley理論, 擬微分作用素
確率解析
常微分方程式(ODE)
偏微分方程式(PDE)
非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)
幾何解析
リッチ流, 平均曲率流,ヤン–ミルズ,モノポール・インスタントン
エルゴード理論(Birkhoff, Pesin),カオス, シンボリック力学
点集合位相,ホモトピー・ホモロジー, 基本群,スペクトル系列
4次元トポロジー(Donaldson/Seiberg–Witten理論)
複素/ケーラー幾何(Calabi–Yau, Hodge理論)
スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間
多面体, Helly/Carathéodory,幾何的極値問題
ランダムグラフ/確率的方法(Erdős–Rényi, nibble法)
加法的組合せ論(Freiman, サムセット, Gowersノルム)
彩色,マッチング,マイナー理論(Robertson–Seymour)
列・順序・格子(部分順序集合, モビウス反転)
測度確率, 極限定理, Lévy過程, Markov過程, 大偏差
統計学
ノンパラメトリック(カーネル法, スプライン,ブーストラップ)
時系列(ARIMA,状態空間, Kalman/粒子フィルタ)
非凸最適化
離散最適化
整数計画,ネットワークフロー, マトロイド, 近似アルゴリズム
Littleの法則, 重み付き遅延, M/M/1, Jackson網
エントロピー,符号化(誤り訂正, LDPC,Polar), レート歪み
公開鍵(RSA,楕円曲線, LWE/格子),証明可能安全性,MPC/ゼロ知識
計算複雑性
機械学習の数理
量子場の数理
相転移, くりこみ, Ising/Potts, 大偏差
数理生物学
数理神経科学
データ解析
4. 関連概念
----
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
この論文が端的に示しているのは、政治的言説が**「ドッグ・ホイッスル(隠されたメッセージ)」と「ウルフ・クライ(証明できない危険の主張)」**という、本質的に証明が難しい二種類の発話行為(スピーチ・アクト)を互いに非難し合うことで、**解決不能な悪循環(弁証法)**に陥るメカニズムです。
---
この論文は、**ドッグ・ホイッスリング(DW)**と**ウルフ・クライイング(WC)**といった特定の**スピーチ・アクト(発話行為)**に対する**帰属(Attribution)**が、現代の政治的言説において、どのようにして敵対的な弁証法と新たな**発散(Divergence)**を生み出し、解決不能な膠着状態に陥るのかを分析しています [1]。
この問題は、DWもWCも、その性質上、**認識論的に(知識の観点から)帰属が困難な**発話行為であることから発生します [1]。この困難さが原因で、DWやWCに対する**非難や指摘(帰属)**自体が、合理的であるにもかかわらず、**確定的に検証または反証できない**主張となってしまうのです [1]。その結果、これらの帰属のパターンは、DWとWCが相互に強化し合い、固定化する**相互的な悪循環(viciouscycle)**へと発展し、「不幸な現状(unhappystatus quo)」を築き上げます [1, 2]。
DWとWCは、政治的環境において特定の影響力を持ち、政治的言説を構成するスピーチ・アクトです [3]。スピーチ・アクトとは、話し手が直接述べた文字通りの意味(locutionary meaning)を超えて、間接的に暗示された力(illocutionary force)や、世界との相互作用において追加された力(perlocutionary force)を持つ発話の形式を指します [4]。
DWは、**論争的ではない公のメッセージ**の中に**論争的な隠されたメッセージ**を埋め込んで送るスピーチ・アクトです [5]。
WCは、**危険が実際には存在しないか、あるいは証明できない**場合に、危険が存在すると主張するスピーチ・アクトです [3]。
これらDWやWCを**「〜という発話行為である」とみなす**行為が、第二階次のスピーチ・アクトであるSAAです [7]。ドッグタウンのシナリオでは、Alphaを除いて、すべての参加者が互いにSAAを行っています [7]。SAAは、他者の行為を指摘する役割と、それ自体が新たなスピーチ・アクトであるという二重の役割を持ちます [7]。
DWとWCがこの弁証法的な問題を引き起こすのは、それらが定義上、間接的で**隠された(covert)**スピーチ・アクトであるため、**誤導的(misdirecting)**な性質を持つからです [8]。
DWは、公衆には無害なメッセージとして聞こえる一方で、特定の受け手にだけ私的なメッセージを送る、話者と受け手の**私的な意図と解釈**に依存するスピーチ・アクトです [8]。
WCは、私的に観察されたとされる危険についての公的なメッセージですが、**その主張の真偽**が外部から証明されていません [9]。
これらのスピーチ・アクトの帰属を行う人々は、証拠の一部しか得られず、全体像の一部のみを見て全体を判断する「盲人と象」のような、**認識論的に不利な立場**に置かれてしまいます [10-12]。
認識論的な困難さの結果、あるスピーチ・アクト(DWまたはWC)を非難する行為(SAA)自体が、相手からは敵対的な別の種類のスピーチ・アクトとして解釈されるという非対称性が生じます [13, 14]。
DWの帰属者(DWA「あいつはDogwhistlerだ」と指摘する人)は、隠された秘密のメッセージを証明しなければならない立場に置かれますが、DWの主体は常に自身の意図の直接的な(私的な)証拠に訴えて否定することができます [11, 15]。そのため、DWAは常に**認識論的に不利な立場**に立たされます [11]。
WCの帰属者(WCA「あいつはWolf crierだ」と指摘する人)は、クライアーの個人的な経験に反して、「狼」が存在しないことを証明しなければならない立場に置かれます [12]。WCAは、非観察者でありながら、第一人称の観察者よりも権威ある知識を持っていると主張する不利な立場に置かれます [12]。
この相互に敵対的な帰属の非対称性が、DW帰属がWCとして返され、WC帰属がDWとして返されるという**多極的な相互作用**を生み出し、**認識論的な発散(epistemic divergence)**のプロセスを構成します [18, 19]。
帰属自体がスピーチ・アクトであるため、帰属はそれ自体に再帰的に適用されます。これは**スピーチ・アクト帰属の帰属**として例示されます [20]。ドッグタウンの例では、Alpha(DW候補)→Buddy(DWA)→Charlie(WC A)→Duke(DWA)というサイクルが**無限に継続**します [2, 21]。
このプロセスは、**多極スピーチ・アクト帰属相互性**(DW帰属がWCとして、WC帰属がDWとして相互に強化し合うこと)であり、反復されることで**悪循環**となります [2, 19]。対話参加者全員が、互いの主張が共通の基盤として受け入れられないまま、**非難の応酬**を繰り返します [19]。これは、単に敵意や内集団バイアスから生じるのではなく、**相互的な認識論的な膠着状態**から生じる現象です [18]。
この悪循環が政治的言説の領域内で修辞的な規範として安定化すると、**定常状態の均衡(steady-state equilibrium)**が出現します [2]。これは、参加者が戦略を変えるインセンティブを提供しないため、持続します [2]。
最終的に、**ドッグ・ホイッスル/ウルフ・クライ帰属均衡**が形成され、誰もがデフォルトで互いをDWまたはWCのいずれかであると見なすようになります [22]。これは、相互に矛盾する信念から構成される**信念均衡(belief equilibrium)**の一種です [23]。
この均衡は、参加者が真実を追求しようとする**認識論的な美徳**から生じているにもかかわらず、以下の3つの深刻な問題を引き起こします [24, 25]。
これは、**相互に認識論的に強化し合うが、相互に認識論的に不適合な**視点のシステムです [26]。DWやWCの帰属は、合理的であるにもかかわらず**不確定**である可能性があり、この合理性と確定性の間のギャップが、相互に合理的だが相反する立場が**未解決のまま均衡**することを可能にします [26]。これにより、真実に到達するための「理想的な発話状況」の実現が不可能になり、会話の前提条件が満たされなくなります [26]。
この状態では、**スピーチ・アクトの帰属**が、**事実に関する帰属**を圧倒します [27]。政治的言説の内容は、ほとんどが「あなたの言葉はDWだ」「あなたの主張はWCだ」といった帰属で占められ、事実に関する議論はわずかになります [27]。
この飽和は、最初の扇動的な事実(犬の噛みつき事件など)自体が忘れ去られたり、無関係になったり、解決されたりした後でも継続する可能性があります [28]。なぜなら、最初の出来事Aそのものよりも、「Aに関するスピーチ・アクトの疑わしさ」の方が、政治的に重要であるように見えてしまうからです [28]。帰属飽和は、事実から独立した状態となり得ます [28]。
帰属を行う者の動機が**真実の探求**であるにもかかわらず、その追求自体が、実際には真実に到達しない均衡を生み出すという点で**自己敗北的**になり得ます [25]。
DWやWCの帰属は、特定の認識論的視点から見て合理的であったり、あるいは実際に正しい場合もあります [29]。しかし、不確実性が支配的な状況でこれらの帰属を提案することは、政治的に不安定化をもたらします [29]。したがって、帰属者の真実追求的な衝動こそが、言説をこの悪い均衡の罠に陥れる原因となり得るのです [29]。
この弁証法的な問題は、相互に合理的な認識論的視点から生じる**自己組織化された社会現象**であるため、単一の加害者を特定することはできません [30]。均衡から脱出するためには、政治的コミュニティにおける参加者の**満場一致の同意**が必要ですが、これは強力な反対者によって容易に崩壊する可能性があり、困難です(「一方主義者の呪い」) [30]。
帰属の伝播を防ぐため、すべての当事者に高い検証・反証基準を課すことが提案されます [31]。しかし、誤導的なスピーチ・アクトの性質上、単純な検証や反証はできません [31]。より現実的な解決策は、スピーチ・アクト帰属の飽和を減らし、事実に関する問いを再び顕著にすることです [31]。これには、相互理解を深めるための**修辞的傾聴(rhetorical listening)**のスキルセットが必要となるかもしれません [31]。
帰属の落とし穴を認識し、増幅サイクルを抑制するために、新しい用語を導入する提案もあります [32]。
これらの新しいラベルが、過剰なSAAの力を無力化し、サイクルを終結させることが期待されますが、これらのラベル自体が新たなスピーチ・アクト帰属としてサイクルに貢献する可能性もあります [33]。
最も重要なことは、この問題を真に解決したいと望む人々は、**自分たちのスピーチ・アクト帰属自体が問題を引き起こし、構成している**という痛みを伴う自己認識を持つことです [34]。
確かに使ってた。使ってはいるけど解凍を使ってるのは自己解凍のところだけで、e,xオプションのところでは「ファイルを取り出す」表記。凍結表記もaオプションのところだけ。
(LHAになる前のバージョンだけど)LHarcソースコード内の日本語版の使い方
char use[] =
"LHarcversion 1.13cCopyright(c) H.Yoshizaki(吉崎栄泰), 1988-89.\n"
"============================================================= 1989 - 5 - 21 ===\n"
" <<< 高圧縮書庫管理プログラム>>>\n"
"===============================================================================\n"
"使用法:LHarc [<命令>] [{/|-}{<スイッチ>[-|+|2|<オプション>]}...] <書庫名>\n"
" [<ドライブ名>:|<基準ディレクトリ名>\\] [<パス名> ...]\n"
"-------------------------------------------------------------------------------\n"
" 《命令》\n"
" a:書庫にファイルを追加 u:書庫にファイルを追加(日時照合付)\n"
" f:書庫のファイルを更新 m:書庫にファイルを移動(日時照合付)\n"
" d:書庫内のファイルの削除 e,x:書庫からファイルを取り出す\n"
" p:書庫内のファイルの閲覧 l,v:書庫の一覧表示\n"
" s:自己解凍書庫の作成 t:書庫内のファイルのCRC チェック\n"
" 《スイッチ》\n"
" r:再帰的収集を行う w: ワークディレクトリの指定\n"
" x:ディレクトリ名を有効にする m: 問い合わせを行わない\n"
" p:名前の比較を厳密に行う c: 日時照合を行わない\n"
" a: 全属性を凍結の対象とする v: 他のユーティリティでファイルを閲覧\n"
" n: 経過表示をしない k:自動実行のキーワードの設定\n"
"===============================================================================\n"
"転載・再配布などは自由です。Nifty-Serve PFF00253\n"
英語版の使い方
char use[] =
"LHarcversion 1.13cCopyright (c) Haruyasu Yoshizaki, 1988-89.\n"
"================================================================ 05/21/89 ===\n"
" <<< High-Performance File-Compression Program>>>\n"
"===============================================================================\n"
"usage:LHarc [<command>] [{{/|-}{<switch>[-|+|2|<option>]}}...] <archive_name>\n"
" [{<drive_name>:}|{<home_directory_name>\\}] [<path_name> ...]\n"
"-------------------------------------------------------------------------------\n"
" a:Add files to archive u: Update files to archive\n"
" f: Freshen files in archive m:Move new files into archive\n"
" d:Delete files from archive e,x: EXtract files from archive\n"
" p: disPlay files in archive l,v:View List of files in archive\n"
" s:make a Self-extracting archive t:Test integrity of archive\n"
" r: Recursively collect files w: assign Work directory\n"
" x: allow eXtended file names m: noMessage for query\n"
" p: distinguish fullPath names c:skiptime-stamp Check\n"
" a: allowany Attributes of files v:View filesbyanother utility\n"
" n: display No indicator k:Keyword for AUTOLARC.BAT\n"
" t: archive'sTime-stamp option\n"
"===============================================================================\n"
"Youmay copy or distribute withoutany donation to me.Nifty-Serve PFF00253\n"
" (See theUser'sManual for detailed descriptions.)ASCII-pcspcs02846";
プログラミングの原理を抽象化するなら、実際の構文や言語の枠をすべて剥ぎ取って、最小限の計算の本質だけを残す必要がある。
状態の変換:プログラムとは、入力状態を出発点として、規則に従い別の状態へ変換する体系である。
あらゆるプログラミング言語・パラダイムは、以下の要素に還元できる。
1.表現:対象世界を「記号・データ」として写像する。数・文字列・構造体・グラフなどはすべて表現の形態にすぎない。
2. 変換:表現を別の表現に写す規則。関数呼び出し・代入・パターンマッチング・ループなどはすべて「変換」の特殊形。
3.制御: 変換の適用順序を規定する。再帰・分岐・逐次処理・並列処理・非決定性などを含む。
4.資源:時間・記憶・入出力チャネルなど。プログラムはこれら有限資源の制約下で変換を実行する。
ざっくり単純化すればan<bn+cnみたいな式だ。</p>
Σan<Σbn+Σcnとしてるんだが、果たしてこのような論理は正しいのか納得がいかない。
もちろん各数列が級数としたときに絶対収束するなら結合法則が成り立つどころかどんなに足し算の順序を並べ替えてもいいことになるわけだが、そんなことは証明してない。
a1<b1+c1にa2<b2+c2を足してa1+a2<b1+c1+b2+c2にするということを再帰的に繰り返すイメージなのかもしれないが、</p>
この場合でもシグマだとb1からbの項を無限に最初に足し合わせることと、cについて同様にすることをやってから、それらを最後に足すという計算順序だから、順序的に両者は食い違っている。
でもそもそもシグマは「対象の数列の要素を最初に足し合わせる」演算子なのだろうか?ただb1+b2…bn+…の略記法という解釈もありえないか?
そうすると数列bの最後の要素をあえて順序数を使ってbωとでも書いてみることにして、そのあとにΣcが書かれているとしたら、
その部分の足し算は…+bω+c1+c2というふうになっているはずだが、単なる略記法なら当然((…+bω+c1)+c2…)という計算順序で行うべきということを示す式ということになるだろう。
どちらの解釈をとるかで絶対収束じゃないのならば計算値が変わってしまうはずだがこんな証明でいいのだろうか?
-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250705184734# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaGj0tgAKCRBwMdsubs4+SDy7AQDVIo9VgVxlIOn2w7FlJL47UytWBnXg5AGx5xwKonwXhwEAos1IdXC/VcDKwWI3t3u8FrHEa8D8NV2mdoLQtLsR3wI==tzuM-----ENDPGP SIGNATURE-----
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものである
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
ここでは以下の3点についての論考を収録する
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
自己を定義し、自己を展開することが可能な構造体は入出力の中で核となる構造を元にした反応を繰り返し、