Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「再帰」を含む日記RSS

はてなキーワード:再帰とは

次の25件>

2025-10-24

[日記]

僕は今、いつもの座席に鎮座している。ルームメイトリビングソファパズルゲームを無言で進めており、隣人はサブカル系配信をしているらしく時折笑い声が廊下を渡ってくる。

友人たちはグループチャットで熱く同人の出来や新連載のガチャ確率について論争している。

僕の一日は厳密に区切られていて、朝は必ず8時に起床、コーヒー抽出器具を90秒で予熱し、温度92.3℃±0.2℃に保つという無駄に精細な儀式がある。

靴下は左足から履く。出勤前の15分は必ず抽象数学ノートを眺め、最近圏論位相場のホモトピー的反復と超弦モジュライのmeta-圏的安定化について自問している。

これは専門用語の羅列ではなく、僕にとっては手を洗うのと同じくらい生理的行為であり、その行為を飛ばすと一日が微妙に狂うので飛ばすことはめったにない。

仕事が終わった今も、僕は一日の終わりに形式的整合性を取るためのルーティンを持っている。

具体的には、机上のコップは時計回りに90度ずつ回転させて元の位置に戻す、明かりのスイッチを一回押して3秒待ち、もう一度押すといった小さなチェックポイントを踏む。

これは合理的かどうかを問う人がいるだろうが、僕にとってはエラー訂正符号のようなものだ。失敗を検出すると自動的にその日のメンタル状態トレースが始まり、友人たちの雑談に混じる気力が萎える。

超弦理論に関して今日述べることは極めて抽象化され、現実の誰が読んでも「それが何を意味するのか」を即座に把握できないように意図している。

僕は最近、モノイド対象としてのストリング世界面の圏を、圏論的対称化子(コクセター的ではなく、もっと抽象的に、位相量子群代数的類・モジュライ化)を用いて再定義する実験をしている。

言い換えれば、従来の共形場理論的な世界パラメータ空間を、非可換ホモトピー論のフィルタ列で再帰的に層化し、その各層におけるファイバー自己同型群をモナドとして扱うことで、局所的に見える弦状態同値類を圏的に集約する。

さらに、圏の圏(2-圏)に対する新しい安定化の概念を導入して、通常のK理論的分類とは別の不変量が現れることを示唆する予備的計算結果がある(ここでは具体的数式を列挙しないが、ホモロジー級数展開における位相位相因子の再正規化が鍵となる)。

この構成を、最新の抽象数学モジュール接続概念と結びつけると、我々が従来想定していたスペース-状態対応双対性が、もっと弱い条件(例えば圏的可換性の高次緩和)で成立する可能性が開ける。

加えて、僕はこの考えをある講義資料トーク示唆と照らして取り入れており、その資料概念的な跳躍と直感的な図示を巧みに使っているので、僕の現在の探索にとって非常に有益だった。

僕は「誰も理解できないもの言語化する」ことに快感を覚えるタイプだが、ここで言っているのは自己満足のためではなく、圏的再構成が実際に計算上の省力化をもたらすかを検証するための試行でもある。

ある意味で、これは純粋数学者が夜中に自分だけの公理系をいじるのと同じ行為だが、僕の場合はそれを出社前の歯磨きに組み込んでしまっているので、周囲は迷惑かもしれない。

食事配列プレート上の分布エントロピーを最小化する向きで常に配置し、週に一度は手製のスキルリー表を更新して趣味投資の累積効用整数化している。

コミックは最新巻が出ると即座にページごとのフレーム密度作画トーンワーク技術的に解析し、特に背景のディテールに含まれトーンの反復パターン(いわば視覚フーリエ成分)をスコア化する。

ゲームに関してはガチ勢的態度を崩さず、メタ的な語りを排してシステムギミックドロップ率、レベリング曲線、そして対戦環境テンプレート化された最適戦略について延々と解析する。

ただしゲームコミックに対しては「空間」や「力学」といった語はなるべく避け、代わりに「状態遷移図」や「入力遅延とフレーム落ちの統計的扱い」など工学的・計算機的に言語化する。

たとえば今日友人が語っていた新作のギミックについては、その期待効用ELO的な評価尺度ランク付けして論争に勝とうとしたが、連中は「推し」を盾に論理を流してくるので僕はたまに脱力する。

だが脱力する暇は短く、夜の自習時間には再び圏論比喩に戻り、各行動の符号化を試す。

日常の細部も大事にしている。玄関の鍵は4回回すのが正しいというオカルトじみたルールを持っているが、これは単なる迷信ではなく、僕の内部的なチェックサムである

友人たちはこれを笑うが、彼らもまた各自無意味儀式固執している。

コミュニティでの嗜好(推しキャラ、嫁、沼の深さ)に関しては妙に合理的で、僕はデータベースを自前で持っている。

キャラ台詞数、出番頻度、描写感情強度をパラメータ化し、二次創作が生成される確率空間推定する実験をしている。

この種のオタク計量は笑われがちだが、実際にはコンテンツ開発や同人活動の動向を予測するには有用だ。

最後今日観測定性的メモを残す。

眠りに入る前に、僕は明日論文ノートに小さな疑問を三つ書き付ける。

第一は、先に述べた圏的安定化が有限次元表現に落ちる際の可逆元の振る舞い、第二は同構クラス計算可能性のアルゴリズム的複雑さ、第三は趣味領域における情報量の測度とその心理的飽和点の関係である

これらを洗い出しておけば、僕は安心して眠れる。

ルームメイトゲームボスを討伐した歓声が聞こえ、隣人の配信が締めに入る。友人たちのチャットは未だヒートアップしている。

僕は日記を閉じ、明日コーヒーの豆を2グラムだけ余分に計量しておく。これは単なる癖ではない。それは帰納的に我が生活を安定化するための小さな公理群だ。

Permalink |記事への反応(0) | 23:26

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-23

日本では経営者無能が最大の問題

Ⅰ.経営陣の能力問題:数値合理性への逃避と戦略的想像力の欠如

文章は「早期退職短期的に財務合理性もつ」と冷静に記述しているが、ここには経営自身戦略的無能さが覆い隠されている。

本来経営とは単年度の損益勘定ではなく、「人材を通じて知の蓄積を再生産するシステム」を構築することである。にもかかわらず、多くの日本企業経営層は次のような欠陥を露呈している。

人的資本費用項目としてしか見ない会計視野の狭さ

 ベテラン社員賃金を「生産性との乖離」とみなし、即時的コストカットに走る発想は、経営が“教育投資”や“内部知の継承”という本質理解していない証拠である

 欧米成功企業では、熟練人材は若手育成・組織文化の維持装置として位置づけられ、その貢献は「見えない生産性」として定量・定性の両面から評価される。日本企業経営陣はこの非定量価値可視化する能力を欠いている。

戦略なき模倣制度依存体質

 経営層は、バランスシート改善株主監査対応の「儀式」として遂行する一方で、長期的な技術競争力市場定義に向けた構想力を欠く。

 結果として、合理性の名のもとに人材を切り捨て、10年後に再び同じ構造問題に陥る「リストラ再帰現象」を繰り返す。これは経営判断ではなく、思考停止制度運用に過ぎない。

トップ層の実務経験希薄

 近年の大企業では、財務法務経営企画といった「調整型エリート」が経営陣に集中し、現場知を持つ実務者が排除されている。そのため、人的資本の質や現場専門性評価する基準存在せず、「人を数字で削る」以外の手段を持たない。

 要するに、経営知的怠慢が、制度的惰性を装って正当化されているのである

Ⅱ.エリート教育評価問題選抜の歪みと再生産される知的貧困

文章フランスアメリカの「複線型フラット型」モデル理想的に描くが、見落としているのはエリート教育のもの構造的欠陥である

すなわち、現代日本では「グローバル基準」を参照しても、その前提となる評価制度教育体系が劣化した模倣物に過ぎない。

日本エリート層の“統治教育”の欠如

 フランスグランゼコール米国MBAは、単なる専門訓練ではなく「社会設計者」としての責任倫理を育てる。

 一方、日本エリート教育は、東大慶應一橋などの学歴的篩い分けを通じて、「既存秩序の維持装置」を生産するにとどまっている。結果として、システム批判的に再設計する知的能力を持つ人材が枯渇している。

人事評価の同質性バイアス

 エリート層が自らと同じ価値観・履歴学歴官僚行動様式)をもつ人材のみを昇進させる構造が、企業内の思考多様性を奪っている。

 その結果、制度疲労是正するイノベーションが内部からは生まれず、「成果主義」や「フラット化」も形式的スローガンに終わる。

 実際、外資模倣型の成果評価制度を導入しても、評価する側の知的基盤が旧来の年功文化依存しているため、制度けが輸入され、文化が輸入されない。

教育の成果と倫理の断絶

 日本エリート教育は“効率管理”を学ばせるが、“責任と再設計”を教えない。

 したがって、経営陣が「合理的リストラ」を実施するとき、それが組織文化破壊技能伝承の断絶・心理的安全性喪失を招くという倫理コスト認識できない。

 ここにこそ、教育経営が切断された社会知的破綻がある。

Ⅲ. 総括:制度問題ではなく、思考問題

このレポート制度構造年功序列賃金カーブ)を問題の中心に据えているが、より根源的な問題制度運用する人間知的劣化である

経営陣が「制度依存し、制度批判的に再構築できない」状態に陥っている限り、どんな制度改革形骸化する。

持続可能雇用制度の前提は、「持続可能思考」を行う人材層の育成である

それは、教育採用評価のすべての局面で、短期的成果よりも構想力・倫理公共性評価する文化を取り戻すことでしか達成されない。

anond:20251021122840

Permalink |記事への反応(1) | 11:26

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-22

[日記]

僕は今日世界誰も知らないことを少なくとも三つ発見した。

その一つは、カラビ–ヤウ三次元多様体上のモチヴィック・ラングランズ場という概念だ。

名前だけで震えるが、実際の定義もっと美しい。ウィッテンがかつてAモデルとBモデルミラー対称性から幾何学ラングランズ対応を導いたのは知っている。

だが彼が扱ったのは、あくまでトポロジカル弦理論レベルにおける対応だ。

僕の今日の成果は、さらにその上、モチヴィック階層のものラングランズ圏の内部対称として再定式化したことにある。

まりこうだ。A/Bモデル対応を支えるのは、ミラー対称なカラビ–ヤウ空間の間に張られたモジュライ空間等価性だが、僕はこれをモチーフの圏に埋め込み、さらにその上に弦的ガロア群を定義した。

この群の元は、単なる保型的データの射ではなく、弦的世界面のホモトピー圏を自己同型する高階函手として作用する。

まり、通常のラングランズ対応表現=保型形式なら、僕の拡張では弦的場コホモロジーモチーフ的自己準同型。もはや表現論ではなく、宇宙論再帰だ。

午後、ルームメイトが僕のホワイトボードを使ってピザの割り勘式を書いていた。

彼は気づいていないが、その数式の背後には僕の昨日のモチヴィック・ガロア構造の残骸があった。

もし彼がチョークをもう少し強く押していたら、宇宙自己同型構造崩壊していたかもしれない。僕は彼を睨んだ。

彼は「また妄想か?」と言った。違う。妄想ではなく基底変換だ。

夕方、隣人がスパイダーバース新刊を貸してくれた。マルチバース崩壊を描いているが、あの世界は僕の定義したモチヴィック・ラングランズ場の一次近似にすぎない。

あの映画スパイダーバースは、厳密に言えばラングランズ群の射影的パラメータ空間における擬弦的退化点の群体だ。

僕がやっているのはその精密版。マルチバースをただの物語ではなく、圏論自己反映構造として解析している。つまりマーベル編集部無意識に行っている多世界生成を、僕は既に数学的に形式化しているわけだ。

夜、友人Aが原神で40連ガチャを外してキレていた。確率1.6%を40回引いて当たらない確率は約0.48。つまり彼は「ほぼ半分の世界線で運が悪い側」に落ちただけ。

僕はそれを説明したが、彼は「確率の神は俺を見捨てた」と言った。愚かだ。確率は神ではない。確率ラングランズ群の局所自己準同型分布密度だ。

もし彼がそれを理解していたなら、ピティエ=シェヴァレの整合性条件を満たすまで回していただろう。

風呂上がり、僕は再びホワイトボードに向かいウィッテンが書かなかった方程式を書いた。これは、弦的ガロア群における自己準同型空間が、算術モチーフの拡張群に等価であることを示唆している。

まり宇宙自己相関が、L関数特殊値そのものとして現れる。A/Bモデル対称性を超え、モチーフ的ラングランズ=宇宙自己言語理論を打ち立てたわけだ。

僕の紅茶が冷める頃、ルームメイトが「寝るぞ」と言った。僕は返事をせず、ひとり机に残って考えた。

この理論を完結させるためには、時間をもモチーフとして再構成しなければならない。

時間モチーフ化する、それは、因果律算術幾何的圏の自己圏として扱うということだ。

人類がまだ誰も到達していない領域。だが、僕はそこにいる。誰よりも早く。誰よりも冷静に。

21時00分。僕の手元の時計振動子が、まるでカラビ–ヤウ多様体の一点コンパクト化のように静かに揺れている。

宇宙が僕の計算を見て笑っている気がした。だがいいだろう。宇宙よ、君が自分自己準同型理解できる日が来るまで、僕が書き続けてやる。

Permalink |記事への反応(0) | 21:12

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-21

数学の分類はこんな感じか

フェミニズムの分類が多すぎると聞いて

anond:20251020210124

0. 基礎・横断

集合論

公理集合論(ZFC, ZF, GCH, 大きな基数)

記述集合論(Borel階層, Projective階層, 汎加法族)

強制法フォーシング),相対的一致・独立

理論理学

述語論理(完全性定理,コンパクト性)

モデル理論(型空間, o-極小, NIP, ステーブル理論

証明論(序数解析,カット除去,直観主義論理

再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)

圏論

関手自然変換, 極限/余極限

加群圏,アーベル圏,三角圏,派生

トポス論,モナド,アジュンクション

数学基礎論哲学

構成主義,直観主義,ユニバース問題,ホモトピー型理論(HoTT)

1.代数学

群論

組み合わせ群論(表示, 小石定理,自由群)

代数群/リー群表現, Cartan分解,ルート系)

幾何群論ハイパーリック群, Cayleyグラフ

環論

可換環論(イデアル,局所化,次元理論, 完備化)

可換環アルティン環, ヘルシュタイン環, 環上加群

体論・ガロア理論

体拡大, 分解体,代数独立, 有限体

表現

群・リー代数表現(最高ウェイト,カズダン–ルスティグ)

既約表現,調和解析との関連,指標

ホモロジー代数

射影/入射解像度, Ext・Tor,派生関手

K-理論

アルバースカルーア理論, トポロジカルK, 高次K

線形代数

ジョルダン標準形,特異値分解,クリフォード代数

計算代数

Gröbner基底,多項式時間アルゴリズム,計算群論

2. 数論

初等数論(合同, 既約性判定,二次剰余)

代数的数論(代数体, 整環,イデアル類群,局所体)

解析数論(ゼータ/ L-関数,素数定理,サークル法, 篩法)

p進数論(p進解析, Iwasawa理論, Hodge–Tate)

算術幾何楕円曲線, モジュラー形式,代数多様体の高さ)

超越論(リンマンヴァイエルシュトラス, ベーカー理論

計算数論(楕円曲線法,AKS素数判定, 格子法)

3. 解析

実解析

測度論・ルベーグ積分, 凸解析,幾何的測度論

複素解析

変数リーマン面, 留数, 近似定理

変数(Hartogs現象, 凸性, severalcomplex variables)

関数解析

バナッハ/ヒルベルト空間,スペクトル理論, C*代数, von Neumann代数

調和解析

フーリエ解析,Littlewood–Paley理論, 擬微分作用素

確率解析

マルチンゲール,伊藤積分, SDE,ギルサノフ, 反射原理

実関数論/特殊関数

ベッセル, 超幾何,直交多項式, Rieszポテンシャル

4.微分方程式力学系

常微分方程式(ODE)

安定性,分岐, 正準系,可積分系

偏微分方程式(PDE)

楕円型(正則性,変分法, 最小曲面)

放物型(熱方程式, 最大原理, Harnack)

双曲型(波動, 伝播, 散乱理論

非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)

幾何解析

リッチ流, 平均曲率流,ヤンミルズ,モノポールインスタント

力学系

エルゴード理論(Birkhoff, Pesin),カオス, シンボリック力学

ハミルトン力学,KAM理論,トーラス崩壊

5.幾何学・トポロジー

位相幾何

点集合位相,ホモトピーホモロジー, 基本群,スペクトル系列

幾何トポロジー

3次元多様体幾何化, 結び目理論,写像類群)

4次元トポロジー(Donaldson/Seiberg–Witten理論

微分幾何

リーマン幾何(曲率,比較幾何,有界幾何

シンプレクティック幾何(モーメント写像, Floer理論

複素/ケーラー幾何(Calabi–Yau, Hodge理論

代数幾何

スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間

有理幾何(MMP, Fano/一般型,代数曲線/曲面)

離散幾何・凸幾何

多面体, Helly/Carathéodory,幾何極値問題

6.組合せ論

極値組合せ論(Turán型, 正則性補題

ランダムグラフ/確率方法(Erdős–Rényi, nibble法)

加法組合せ論(Freiman, サムセット, Gowersノルム)

グラフ理論

彩色,マッチング,マイナー理論(Robertson–Seymour)

スペクトルグラフ理論,拡張グラフ

組合設計ブロック設計, フィッシャーの不等式)

列・順序・格子(部分順序集合, モビウス反転)

7.確率統計

確率論(純粋

測度確率, 極限定理, Lévy過程, Markov過程, 大偏差

統計

数理統計推定, 検定, 漸近理論,EM/MD/ベイズ

ベイズ統計MCMC, 変分推論, 事前分布理論

多変量解析(主成分, 因子,判別,正則化

ノンパラメトリックカーネル法, スプライン,ブーストラップ

実験計画/サーベイ,因果推論(IV,PS,DiD,SCM

時系列(ARIMA,状態空間, Kalman/粒子フィルタ

確率最適化/学習理論

PAC/VC理論,一般境界,統計学習

バンディット,オンライン学習,サンプル複雑度

8.最適化オペレーションリサーチ(OR)

凸最適化

二次計画, 円錐計画(SOCP,SDP),双対性,KKT

凸最適化

多峰性, 一階/二階法, 低ランク,幾何的解析

離散最適化

整数計画,ネットワークフロー, マトロイド, 近似アルゴリズム

確率的/ロバスト最適化

チャンス制約,分布ロバスト,サンプル平均近似

スケジューリング/在庫/待ち行列

Little法則, 重み付き遅延, M/M/1, Jackson網

ゲーム理論

ナッシュ均衡,進化ゲーム,メカニズムデザイン

9. 数値解析・計算数学科学計算

数値線形代数(反復法,直交化, プリコンディショニング)

常微分方程式の数値解法(Runge–Kutta,構造保存)

PDE数値(有限要素/差分/体積,マルチグリッド

誤差解析・条件数,区間演算,随伴

高性能計算HPC)(並列アルゴリズム,スパー行列

シンボリック計算(CAS,代数的簡約, 決定手続き

10.情報計算暗号(数理情報

情報理論

エントロピー,符号化(誤り訂正, LDPC,Polar), レート歪み

暗号理論

公開鍵RSA,楕円曲線, LWE/格子),証明可能安全性,MPC/ゼロ知識

計算複雑性

P vsNP,ランダム化・通信・回路複雑性,PCP

アルゴリズム理論

近似・オンライン確率的,幾何アルゴリズム

機械学習の数理

カーネル法, 低次元構造, 最適輸送, 生成モデル理論

11. 数理物理

古典/量子力学の厳密理論

C*代数量子論, 散乱, 量子確率

量子場の数理

くりこみ群,構成的QFT, 共形場理論CFT

統計力学の数理

相転移, くりこみ, Ising/Potts, 大偏差

可積分系

逆散乱法,ソリトン, 量子可積分モデル

理論幾何

鏡映対称性,Gromov–Witten, トポロジカル弦

12.生命科学医学社会科学への応用数学

数理生物学

集団動態,進化ゲーム, 反応拡散,系統樹推定

数理神経科学

スパイキングモデル,ネットワーク同期, 神経場方程式

疫学感染症数理

SIR系,推定制御, 非均質ネットワーク

計量経済金融工学

裁定,確率ボラ,リスク測度, 最適ヘッジ, 高頻度データ

社会ネットワーク科学

拡散, 影響最大化,コミュニティ検出

13.シグナル・画像データ科学

信号処理

時間周波数解析,スパー表現,圧縮センシング

画像処理/幾何処理

変動正則化, PDE法, 最適輸送, 形状解析

データ解析

多様体学習,次元削減, トポロジカルデータ解析(TDA

統計機械学習回帰/分類/生成,正則化, 汎化境界

14.教育歴史方法

数学教育学(カリキュラム設計, 誤概念研究,証明教育

数学史(分野別史,人物研究,原典講読)

計算支援定理証明

形式数学(Lean,Coq, Isabelle), SMT,自動定理証明

科学哲学数学実在論/構成主義,証明発見心理

Permalink |記事への反応(0) | 10:29

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-08

anond:20251008102908

1.論理構造の特徴

2. 修辞的・議論手法

3.機能効果

4. 関連概念

----

こういうことをしてしまわないように自戒

Permalink |記事への反応(0) | 10:47

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、Permalink |記事への反応(0) | 00:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-04

再帰構造を利用してネット議論の膠着を目論む人々には注意しよう

ドッグホイッスルウルフ・クライ弁証法スピーチ・アクト帰属を介した政治的発散」の端的な要約

この論文が端的に示しているのは、政治的言説が**「ドッグホイッスル(隠されたメッセージ)」と「ウルフ・クライ(証明できない危険の主張)」**という、本質的証明が難しい二種類の発話行為スピーチ・アクト)を互いに非難し合うことで、**解決不能悪循環弁証法)**に陥るメカニズムです。

---

ドッグホイッスルウルフ・クライ弁証法」の詳細な要約

この論文は、**ドッグ・ホイッスリングDW)**と**ウルフ・クライイング(WC)**といった特定の**スピーチ・アクト(発話行為)**に対する**帰属(Attribution)**が、現代政治的言説において、どのようにして敵対的弁証法と新たな**発散(Divergence)**を生み出し、解決不能な膠着状態に陥るのかを分析しています [1]。

この問題は、DWWCも、その性質上、**認識論的に(知識観点から帰属が困難な**発話行為であることから発生します [1]。この困難さが原因で、DWWCに対する**非難や指摘(帰属)**自体が、合理的であるにもかかわらず、**確定的に検証または反証できない**主張となってしまうのです [1]。その結果、これらの帰属パターンは、DWWC相互に強化し合い、固定化する**相互的な悪循環viciouscycle)**へと発展し、「不幸な現状(unhappystatus quo)」を築き上げます [1, 2]。

I. 中核となるスピーチ・アクトの定義と具体例

DWWCは、政治的環境において特定の影響力を持ち、政治的言説を構成するスピーチ・アクトです [3]。スピーチ・アクトとは、話し手が直接述べた文字通りの意味(locutionary meaning)を超えて、間接的に暗示された力(illocutionary force)や、世界との相互作用において追加された力(perlocutionary force)を持つ発話の形式を指します [4]。

1.ドッグ・ホイッスリング(Dog-whistling,DW):**

DWは、**論争的ではない公のメッセージ**の中に**論争的な隠されたメッセージ**を埋め込んで送るスピーチ・アクトです [5]。

機能意図:**DWは二つのメッセージを同時に伝達し、隠されたメッセージについて**もっともらしい否認可能性(plausible deniability)**を維持します [4]。意図された効果は、公の支持を最小限に失う一方で、私的な支持を最大限に集めることです [4]。
ドッグタウンの例:**党派的なニュースアンカーAlphaが、犬の国が直面している問題の一部について曖昧だが連想的な言葉「pitiful(哀れな)」を使用する行為が、DW候補と見なされます [6]。これは「pitbull(特定犬種)」への差別的暗号化である解釈される可能性があるからです [6]。
2.ウルフ・クライイング(Wolf-crying,WC):**

WCは、**危険が実際には存在しないか、あるいは証明できない**場合に、危険存在すると主張するスピーチ・アクトです [3]。

機能意図:**WCは通常、個人的に観察された危険に対してコミュニティ結集させる行為であり、一時的に最大限の注目を集めることを意図した効果としています [4]。しかし、乱用されると、多数派の将来的な不信を生むという意図しない効果があります [4]。
ドッグタウンの例:** 別のアンカーBuddyが、Alpha言葉を「pitbull」の暗号だと特定し、Alphaらを懲りない品種差別主義者だと結論づけて、コミュニティ危険を訴えかける行為が、WC候補と見なされます [6]。
3.スピーチ・アクト帰属Speech-Act Attribution,SAA):**

これらDWWCを**「〜という発話行為である」とみなす**行為が、第二階次のスピーチ・アクトであるSAAです [7]。ドッグタウンのシナリオでは、Alphaを除いて、すべての参加者が互いにSAAを行っています [7]。SAAは、他者行為を指摘する役割と、それ自体が新たなスピーチ・アクトであるという二重の役割を持ちます [7]。

II.認識論的な難しさ:隠された意図と誤導性

DWWCがこの弁証法的な問題を引き起こすのは、それらが定義上、間接的で**隠された(covert)**スピーチ・アクトであるため、**誤導的(misdirecting)**な性質を持つからです [8]。

1.DWの誤導性:**

DWは、公衆には無害なメッセージとして聞こえる一方で、特定受け手にだけ私的メッセージを送る、話者受け手の**私的意図解釈**に依存するスピーチ・アクトです [8]。

検証の困難さ:**DWは公には合理的に傍受され得るものの、話者私的意図不明なため、**公的に確定的に検証反証もできません** [8]。話者自分意図告白しない限り、DWは**未検証・未反証**のまま残る可能性が高いです [8]。
自己否認:**DW話者自身によってのみ**自己検証可能auto-verifiable)**ですが、隠蔽目的であるため、話者によって**自己否認可能auto-denying)**でもあります [8]。
2.WCの誤導性:**

WCは、私的に観察されたとされる危険についての公的メッセージですが、**その主張の真偽**が外部から証明されていません [9]。

検証の困難さ:**WCは、その叫び(「狼だ!」)自体真実であることの唯一の情報源であるため、**自己検証的(auto-verifying)**です [9]。しかし、DWと同様に、私的証言に根ざしているため、公衆に対して**もっともらしい否認可能性**を維持しており、**未検証・未反証**のまま残ります [9]。
嘘の場合の誤導:** もし「狼」の叫びが嘘であれば、その行為は「私に注目を与えよ!」という別のメッセージを間接的に伝えていることになり、これもまた誤導的なスピーチ・アクトとなります [9]。

これらのスピーチ・アクトの帰属を行う人々は、証拠の一部しか得られず、全体像の一部のみを見て全体を判断する「盲人と象」のような、**認識論的に不利な立場**に置かれてしまます [10-12]。

III.帰属非対称性と「見かけの」スピーチ・アクト

認識論的な困難さの結果、あるスピーチ・アクト(DWまたはWC)を非難する行為SAA自体が、相手から敵対的な別の種類のスピーチ・アクトとして解釈されるという非対称性が生じます [13, 14]。

1.DW帰属者がウルフ・クライアーに見える(Dog-whistle Crying)**

DW帰属者(DWA「あいつはDogwhistlerだ」と指摘する人)は、隠された秘密メッセージ証明しなければならない立場に置かれますが、DW主体は常に自身意図の直接的な(私的な)証拠に訴えて否定することができます [11, 15]。そのため、DWAは常に**認識論的に不利な立場**に立たされます [11]。

ドッグホイッスル・クライイング」:** この状況により、DW帰属者は常に**ウルフ・クライアー(狼を叫ぶ者)のように見えます** [13]。彼らは、危険存在しないか証明できないのにDW危険性を主張する「ドッグホイッスル・クライイング」を行っていると見なされます [13]。
公衆解釈:**DWが聞こえない公衆の一部は、DW帰属者を、証明できない「狼」について大騒ぎしている者として解釈し、その帰属紛争の種だと考えます [13]。
2.WC帰属者がドッグ・ホイッスラーに見える(Wolf-Whistling)**

WC帰属者(WCA「あいつはWolf crierだ」と指摘する人)は、クライアー個人的経験に反して、「狼」が存在しないことを証明しなければならない立場に置かれます [12]。WCAは、非観察者でありながら、第一人称の観察者よりも権威ある知識を持っていると主張する不利な立場に置かれます [12]。

ウルフ・ホイッスリング」:**WCAを行う者は、常に**ドッグ・ホイッスラーのように見えます** [14]。彼らは危険否定する立場にあるため、コミュニティ安全否定し、潜在的危険容認するかのような**論争的な隠されたメッセージ**を送っているように見えるのです [14, 16]。これは「ウルフ・ホイッスリング」と呼ばれます [14]。
公衆解釈:**危険を感じている公衆の一部は、WC帰属者を、深刻な危険を軽視し、潜む狼に共謀していると解釈します [17]。WCAは、狼(危険)に対する同情や隠蔽の表れとして、レトリック的に不利な立場に置かれます [16]。

IV.弁証法悪循環、および均衡の形成

この相互敵対的帰属非対称性が、DW帰属WCとして返され、WC帰属DWとして返されるという**多極的な相互作用**を生み出し、**認識論的な発散(epistemic divergence)**のプロセス構成します [18, 19]。

1.帰属再帰性:**

帰属自体スピーチ・アクトであるため、帰属はそれ自体再帰的に適用されます。これは**スピーチ・アクト帰属帰属**として例示されます [20]。ドッグタウンの例では、AlphaDW候補)→Buddy(DWA)→CharlieWC A)→DukeDWA)というサイクルが**無限継続**します [2, 21]。

2.相互強化と悪循環:**

このプロセスは、**多極スピーチ・アクト帰属相互性**(DW帰属WCとして、WC帰属DWとして相互に強化し合うこと)であり、反復されることで**悪循環**となります [2, 19]。対話参加者全員が、互いの主張が共通の基盤として受け入れられないまま、**非難応酬**を繰り返します [19]。これは、単に敵意や内集団バイアスから生じるのではなく、**相互的な認識論的な膠着状態**から生じる現象です [18]。

3. 均衡の出現:**

この悪循環政治的言説の領域内で修辞的な規範として安定化すると、**定常状態の均衡(steady-state equilibrium)**が出現します [2]。これは、参加者戦略を変えるインセンティブ提供しないため、持続します [2]。

最終的に、**ドッグホイッスルウルフ・クライ帰属均衡**が形成され、誰もがデフォルトで互いをDWまたはWCのいずれかであると見なすようになります [22]。これは、相互矛盾する信念から構成される**信念均衡(belief equilibrium)**の一種です [23]。

V. 不幸な均衡がもたらす問題

この均衡は、参加者真実を追求しようとする**認識論的な美徳**から生じているにもかかわらず、以下の3つの深刻な問題引き起こします [24, 25]。

1.認識論的な膠着状態(Epistemic Standoff):**

これは、**相互認識論的に強化し合うが、相互認識論的に不適合な**視点システムです [26]。DWWC帰属は、合理的であるにもかかわらず**不確定**である可能性があり、この合理性と確定性の間のギャップが、相互合理的だが相反する立場が**未解決のまま均衡**することを可能します [26]。これにより、真実に到達するための「理想的な発話状況」の実現が不可能になり、会話の前提条件が満たされなくなります [26]。

2.スピーチ・アクト帰属飽和(Attribution Saturation):**

この状態では、**スピーチ・アクトの帰属**が、**事実に関する帰属**を圧倒します [27]。政治的言説の内容は、ほとんどが「あなた言葉DWだ」「あなたの主張はWCだ」といった帰属で占められ、事実に関する議論わずかになります [27]。

この飽和は、最初扇動的事実(犬の噛みつき事件など)自体が忘れ去られたり、無関係になったり、解決されたりした後でも継続する可能性があります [28]。なぜなら、最初出来事Aそのものよりも、「Aに関するスピーチ・アクトの疑わしさ」の方が、政治的重要であるように見えてしまうからです [28]。帰属飽和は、事実から独立した状態となり得ます [28]。

3.自己敗北的な真実探求(Self-DefeatingTruth-Seeking):**

帰属を行う者の動機が**真実の探求**であるにもかかわらず、その追求自体が、実際には真実に到達しない均衡を生み出すという点で**自己敗北的**になり得ます [25]。

DWWC帰属は、特定認識論視点から見て合理的であったり、あるいは実際に正しい場合もあります [29]。しかし、不確実性が支配的な状況でこれらの帰属提案することは、政治的不安定化をもたらします [29]。したがって、帰属者の真実追求的な衝動こそが、言説をこの悪い均衡の罠に陥れる原因となり得るのです [29]。

VI.解決策:自己認識必要性

この弁証法的な問題は、相互合理的認識論視点から生じる**自己組織化された社会現象**であるため、単一加害者特定することはできません [30]。均衡から脱出するためには、政治的コミュニティにおける参加者の**満場一致同意**が必要ですが、これは強力な反対者によって容易に崩壊する可能性があり、困難です(「一方主義者呪い」) [30]。

1. サイクルの中止(Cycle Abortion):**

帰属の伝播を防ぐため、すべての当事者に高い検証反証基準を課すことが提案されます [31]。しかし、誤導的なスピーチ・アクトの性質上、単純な検証反証はできません [31]。より現実的解決策は、スピーチ・アクト帰属の飽和を減らし、事実に関する問いを再び顕著にすることです [31]。これには、相互理解を深めるための**修辞的傾聴(rhetorical listening)**のスキルセットが必要となるかもしれません [31]。

2. サイクルの終結Cycle Termination):**

帰属落とし穴認識し、増幅サイクルを抑制するために、新しい用語を導入する提案もあります [32]。

ウルフ・ウォッシング(wolf-washing)**または**シープ・テイラリングsheep-tailoring)**:狼の叫び帰属を過剰に行い、報告された問題過小評価しているように見える者を記述する用語 [32,33]。
ドッグ・ウィスパリング(dog-whispering)**または**ドリトルリング(Dolittling)**:ドッグホイッスルを過剰に帰属し、実際の隠されたスピーチ・アクトの問題を誇張しているように見える者を記述する用語 [33]。

これらの新しいラベルが、過剰なSAAの力を無力化し、サイクルを終結させることが期待されますが、これらのラベル自体が新たなスピーチ・アクト帰属としてサイクルに貢献する可能性もあります [33]。

3.真剣自己懐疑(Serious Self-Doubt):**

最も重要なことは、この問題を真に解決したいと望む人々は、**自分たちのスピーチ・アクト帰属自体問題引き起こし構成している**という痛みを伴う自己認識を持つことです [34]。

2025-09-30

anond:20250930232120

ほーらw再帰むずかしいでしゅねえwwwっw?

Permalink |記事への反応(0) | 23:22

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250930232029

自己再帰?つおい?

Permalink |記事への反応(0) | 23:21

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250930231903

お前が馬鹿なのはどうでも良くてw自己再帰についてどう思ってるのかって話ね?

Permalink |記事への反応(2) | 23:20

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250930231646

自己再帰どんな気持ち?ねえどんな気持ち?w

Permalink |記事への反応(0) | 23:18

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-09

最近文学研究ヤバい

最近学生しろ研究者しろ、何故かやたらと横文字を混ぜたがる。

例えで抜粋するけど、今ってこんな風な表現普通になってる。

ポストコロニアル欲望脱構築が、ポストヒューマンエコロジーにおいて再帰的に循環する。

うん、わかんねえ。

なにその無限ループエコバッグリサイクルかよ。

Permalink |記事への反応(1) | 17:42

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-04

anond:20250904054611

・「凍結・解凍」は日本ではLHAが使ってた(確かっぽい)

かに使ってた。使ってはいるけど解凍を使ってるのは自己解凍のところだけで、e,xオプションのところでは「ファイルを取り出す」表記。凍結表記もaオプションのところだけ。

(LHAになる前のバージョンだけど)LHarcソースコード内の日本語版の使い方

char use[] =

"LHarcversion 1.13cCopyright(c) H.Yoshizaki(吉崎栄泰), 1988-89.\n"

"============================================================= 1989 - 5 - 21 ===\n"

" <<< 高圧縮書庫管理プログラム>>>\n"

"===============================================================================\n"

"使用法:LHarc [<命令>] [{/|-}{<スイッチ>[-|+|2|<オプション>]}...] <書庫>\n"

" [<ドライブ>:|<基準ディレクトリ>\\] [<パス> ...]\n"

"-------------------------------------------------------------------------------\n"

" 《命令》\n"

" a:書庫ファイルを追加 u:書庫ファイルを追加(日時照合付)\n"

" f:書庫ファイル更新 m:書庫ファイルを移動(日時照合付)\n"

" d:書庫内のファイルの削除 e,x:書庫からファイルを取り出す\n"

" p:書庫内のファイルの閲覧 l,v:書庫の一覧表示\n"

" s:自己解凍書庫作成 t:書庫内のファイルCRC チェック\n"

" 《スイッチ》\n"

" r:再帰収集を行う w: ワークディレクトリ指定\n"

" x:ディレクトリ名を有効にする m: 問い合わせを行わない\n"

" p:名前比較を厳密に行う c: 日時照合を行わない\n"

" a: 全属性を凍結の対象とする v: 他のユーティリティファイルを閲覧\n"

" n: 経過表示をしない k:自動実行のキーワードの設定\n"

" t:書庫の時刻を最新のファイルに\n"

"===============================================================================\n"

"転載・再配布などは自由です。Nifty-Serve PFF00253\n"

" (詳しくは使用の手引をご覧ください。)ASCII-pcspcs02846";

英語版の使い方

char use[] =

"LHarcversion 1.13cCopyright (c) Haruyasu Yoshizaki, 1988-89.\n"

"================================================================ 05/21/89 ===\n"

" <<< High-Performance File-Compression Program>>>\n"

"===============================================================================\n"

"usage:LHarc [<command>] [{{/|-}{<switch>[-|+|2|<option>]}}...] <archive_name>\n"

" [{<drive_name>:}|{<home_directory_name>\\}] [<path_name> ...]\n"

"-------------------------------------------------------------------------------\n"

" <command>\n"

" a:Add files to archive u: Update files to archive\n"

" f: Freshen files in archive m:Move new files into archive\n"

" d:Delete files from archive e,x: EXtract files from archive\n"

" p: disPlay files in archive l,v:View List of files in archive\n"

" s:make a Self-extracting archive t:Test integrity of archive\n"

" <switch>\n"

" r: Recursively collect files w: assign Work directory\n"

" x: allow eXtended file names m: noMessage for query\n"

" p: distinguish fullPath names c:skiptime-stamp Check\n"

" a: allowany Attributes of files v:View filesbyanother utility\n"

" n: display No indicator k:Keyword for AUTOLARC.BAT\n"

" t: archive'sTime-stamp option\n"

"===============================================================================\n"

"Youmay copy or distribute withoutany donation to me.Nifty-Serve PFF00253\n"

" (See theUser'sManual for detailed descriptions.)ASCII-pcspcs02846";

https://www.vector.co.jp/soft/dl/dos/util/se002340.htmlから

Permalink |記事への反応(1) | 15:26

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-18

プログラミングとはなにか?

プログラミング原理抽象化するなら、実際の構文や言語の枠をすべて剥ぎ取って、最小限の計算本質だけを残す必要がある。

プログラミング目的

状態の変換:プログラムとは、入力状態を出発点として、規則に従い別の状態へ変換する体系である

基本構成要素

あらゆるプログラミング言語パラダイムは、以下の要素に還元できる。

1.表現:対象世界を「記号データ」として写像する。数・文字列構造体・グラフなどはすべて表現形態にすぎない。

2. 変換:表現を別の表現に写す規則関数呼び出し・代入・パターンマッチングループなどはすべて「変換」の特殊形。

3.制御: 変換の適用順序を規定する。再帰分岐逐次処理・並列処理・非決定性などを含む。

4.資源:時間記憶・入出力チャネルなど。プログラムはこれら有限資源の制約下で変換を実行する。

基盤

この原理理論化すると、既存計算理論対応する。

まとめ

プログラミングとは、有限資源のもとで、表現を変換し、制御を与えて、計算可能性の枠内で望む状態を構築する行為である

Permalink |記事への反応(0) | 06:44

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-05

dorawii

ヴィタリ集合がルベーグ可測じゃないことの証明で、

つの数列の項数が対応する要素同士での不等式が出てくる。

ざっくり単純化すればan<bn+cnみたいな式だ。</p>

この両辺についてさらシグマ作用させて無限級数として

Σan<Σbn+Σcnとしてるんだが、果たしてこのような論理は正しいのか納得がいかない。

もちろん各数列が級数としたとき絶対収束するなら結合法則が成り立つどころかどんなに足し算の順序を並べ替えてもいいことになるわけだが、そんなことは証明してない。

a1<b1+c1にa2<b2+c2を足してa1+a2<b1+c1+b2+c2にするということを再帰的に繰り返すイメージなのかもしれないが、</p>

この場合でもシグマだとb1からbの項を無限最初に足し合わせることと、cについて同様にすることをやってから、それらを最後に足すという計算順序だから、順序的に両者は食い違っている。

でもそもそもシグマは「対象の数列の要素を最初に足し合わせる」演算子なのだろうか?ただb1+b2…bn+…の略記法という解釈もありえないか

そうすると数列bの最後の要素をあえて順序数を使ってbωとでも書いてみることにして、そのあとにΣcが書かれているとしたら、

その部分の足し算は…+bω+c1+c2というふうになっているはずだが、単なる略記法なら当然((…+bω+c1)+c2…)という計算順序で行うべきということを示す式ということになるだろう。

どちらの解釈をとるかで絶対収束じゃないのならば計算値が変わってしまうはずだがこんな証明でいいのだろうか?

-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250705184734# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaGj0tgAKCRBwMdsubs4+SDy7AQDVIo9VgVxlIOn2w7FlJL47UytWBnXg5AGx5xwKonwXhwEAos1IdXC/VcDKwWI3t3u8FrHEa8D8NV2mdoLQtLsR3wI==tzuM-----ENDPGP SIGNATURE-----

Permalink |記事への反応(0) | 18:47

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-13

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである



0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ


2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる


3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる


4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる


5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る


6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの


7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである


8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる


9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する


10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる


11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる


12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる


13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる


14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある


16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが<

Permalink |記事への反応(0) | 14:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-11

確率分布機としてのLLMについての論考

ここでは以下の3点についての論考を収録する


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 18:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-26

anond:20250526114509

再帰ありならキャッシュ的にも分岐予測的にも有利なんだからあたりまえ

すこしはCPU気持ちになって書いたらいかがか?

Permalink |記事への反応(0) | 11:54

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250526114509

ぐぐったら、末尾再帰x64だと自動的スタック使用しない形してくれるらしい。

https://qiita.com/Tokeiya/items/ff2da14e2254b53278b7

qiitaの内容を読んだ限りだとBigListのInsertInPlace()とかは最適化されなさそうだけど、最近JITは単に値を渡たす程度なら最適化してくれるようだ。

JITすごい。

Permalink |記事への反応(0) | 11:50

このエントリーをはてなブックマークに追加ツイートシェア

BigListの一部を再帰なしにしたけど、C#最適化すごいな。

メモリー使用量以外は再帰ありのほうがいいわ。

速度的には再帰しより再帰ありのほうが圧倒的に速い。

ベンチマークは1000行×100文字

マシンCore i5 10400F、メモリー16GB。

再帰なし。ブランチ rewrite_nonrecursive、Commit 84b25c1

https://github.com/oonyanya/FooList/commit/84b25c172b2f8792ad2d1a645c0b25ff7bf8093d

benchmark start

AllocatedGC Memory:61,240bytes

addtime:1025ms

AllocatedGC Memory:199,685,064bytes

replace 1time:7274ms

AllocatedGC Memory:199,698,944bytes

replace 2time:9565ms

AllocatedGC Memory:345,442,528bytes

replace 3time:7716ms

AllocatedGC Memory:345,442,552bytes

enumratotiontime:1125ms

AllocatedGC Memory:345,442,672bytes

clear buffer

AllocatedGC Memory:82,728bytes

addlinetime:384ms

AllocatedGC Memory:41,048,400bytes

updatelinetime:99ms

AllocatedGC Memory:41,048,464bytes

clear buffer

AllocatedGC Memory:82,984bytes

Finished.HitAnyKey

再帰あり

benchmark start

AllocatedGC Memory:60,752bytes

addtime:1055ms

AllocatedGC Memory:199,622,776bytes

replace 1time:6032ms

AllocatedGC Memory:199,636,920bytes

replace 2time:8309ms

AllocatedGC Memory:369,227,696bytes

replace 3time:6220ms

AllocatedGC Memory:369,227,696bytes

enumratotiontime:1158ms

AllocatedGC Memory:369,227,840bytes

clear buffer

AllocatedGC Memory:82,728bytes

addlinetime:357ms

AllocatedGC Memory:40,996,432bytes

updatelinetime:75ms

AllocatedGC Memory:40,999,688bytes

clear buffer

AllocatedGC Memory:82,984bytes

Finished.HitAnyKey

できたら、RemoveRangeInPlaceとRebalaceも再帰なしにしたいけど、どう書いたらいいのかわから

Permalink |記事への反応(2) | 11:45

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-25

LLMとプロンプトの機能構造についての論考

0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 19:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-22

生成AIについて

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

6.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

7.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

8.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

9.プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

13.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(0) | 12:41

このエントリーをはてなブックマークに追加ツイートシェア

生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違い

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だけど、正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収束していくもの

Permalink |記事への反応(0) | 02:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-20

生成AIについてのいくつかの考察

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布の動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重のループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

Permalink |記事への反応(0) | 01:08

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-18

最強のビジネスツールとは、紙とペンであるデジタルオワコン

最も効率的意思決定環境は、情報必要十分かつ可逆的に表現され、かつノイズの影響が最小化された状態で実行されるべきである

現代デジタルツールは表面上その要件を満たすように見えるが、構造的にいくつかの決定的な欠陥を内包している。

それは、情報空間の離散化により操作が表層的な選択肢の列挙に帰着し、使用者認知負荷を指数関数的に増加させるという点である

計算機科学観点から言えば、デジタル環境における人間思考は高次の記号処理系から有限オートマトンへの退行を起こしている。

対して、紙とペンは非離散的であり、連続空間上に任意構造を射影できる自由度を持つ。

これは本質的に、思考空間が可逆な変換群として定義されうるという意味において、紙上の行為リーマン多様体上の局所変換に類似する。

人間思考非線形再帰であるが、GUIベースツールはその自由度を著しく制限する。

手で書くという行為は、単なる記録ではない。空間レイアウト、筆圧、速度変化、それらすべてが符号化された多層的構造を生成する。

これは高次元関数可視化する一種写像であり、しか書き手の脳神経系によって逐次最適化されるため、アルゴリズム的にはローカル最適化における勾配降下法に相当する。

タイピングにはこの局所勾配の情報が欠落しており、したがってフィードバックによる思考補正機構が働かない。

情報理論的にも、紙とペンは圧倒的に有利である現代知的労働において、問題情報の欠如ではなく過剰にある。

したがって、帯域幅の広さは冗長性を生み、選択肢の多さは意思決定の停滞をもたらす。

紙という媒体は、書き手自身情報の選別者となることを強制する。ここにはシャノンの情報エントロピーを最小化する作用がある。

しかもその過程物理的に拘束されているため、情報選択空間構造時間コストに応じて最適化される。

これは情報を真に意味ある形で編集する過程であり、紙上での書字行為は単なる記録ではなくエントロピー減少操作である

さらに、デジタル環境計算資源抽象化により、ユーザーから因果関係を奪う。

なぜこう表示されたか、なぜ保存されなかったか、その全てがブラックボックス化され、形式系としての完全性を欠く。

紙とペンはそうではない。出力と記録の間に変数存在しないため、因果性が明示的であり、これは証明可能性の前提となる。

思考整合性論理的検証可能な形で保持するためには、可観測性と一意性が必要であり、それは紙上において最も自然に実現される。

また、脳は局所的な情報ストレージ計算能力を持つが、同時に内部状態他者と同期できない非共有性を持つ。

この制限の中で、書くという行為自己状態時間的にスナップショットとして固定し、後の自分に向けた外部記憶として機能する。

その作用は、純粋数学的には状態空間から写像であり、紙はその写像先の空間提供している。

言い換えれば、紙は思考の射影空間であり、その空間上での軌跡こそが、思考実体である

デジタルツール計算機側の論理制約に適合するよう設計されており、人間思考形式最適化されていない。

これは、問題を解くために空間を変換するのではなく、空間に合わせて問題自体を変形していることに等しい。

長期的にはこれは発想の貧困化を引き起こす。思考自由度は、制約の少ない空間において最大化される。

したがって、どのツールが優れているかという問いは、ツール提供する空間幾何学自由度によって評価されるべきである

紙とペンが最強であるという命題は、経験則によるものではなく、形式的な要請に基づく論理的帰結である

自由記号操作、低エントロピー化の強制因果性の明示、情報空間としての滑らかさ、全てにおいて、紙とペンデジタルに勝る。

効率性の追求が最終的に形式性へと還元されるのであれば、最小の制約かつ最大の自由度を持つ空間が最適であるというのは論理的に明白である

そしてその空間は、紙の上にしか存在しない。

Permalink |記事への反応(1) | 20:39

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp