
はてなキーワード:調停とは
高市早苗氏が首相に選出され台湾発言で物議をかもしてから、これまで以上に政治的な議論がなされるように感じる。またただの党派性の選好がどうこうにとどまらず具体的な安全保障まで真剣な意見が交わされるようになったことは、日本社会自体が一つの転換点を迎えているように思える。
そのなかで、個人的に党派の煽りあいや中傷を超えて道具的に政治を語るのに役立つかもしれない一つのネタを紹介したい。あくまでも仮説が、情勢について語る一つの視点になれば幸いである。
なお事前に予測した方向性と合致したためAIの手を大いに借りてある。
また曖昧戦略の欠如は相手の意思決定を手助けするだろう。デマなどについて聞いてみても面白いと思う。
以下perplexityより
自由エネルギー原理の見地から見て、政治の党派性における右派、左派はそれぞれエントロピーの減少における役割の相違という観点から説明できる?
自由エネルギー原理から見た政治の党派性:右派・左派とエントロピー減少の役割の相違
自由エネルギー原理(Free Energy Principle,FEP)の枠組みから政治イデオロギーの左右の違いを説明することは、一定の理論的根拠を持つ興味深い視点を提供します。ただし、これは直接的な学術的応用というより、理論的な仮説として理解されるべきものです。
自由エネルギー原理によれば、すべての生物システムは熱力学の第二法則に対抗してエントロピー増加を最小化することで、秩序を維持しています。具体的には、生物は予測エラーを最小化することで、感覚状態のエントロピー(無秩序さ)を減少させ、環境との相互作用をコントロールします。このプロセスは、**予測処理(predictiveprocessing)**メカニズムを通じて実現されます。つまり、生物は内部モデルを持ち、それに基づいて世界を予測し、実際の入力との差分(予測誤差)を最小化することで、驚き(サプライズ)を制御します。
最近の認知神経科学の研究により、保守主義と進歩主義は予測処理の異なる戦略に対応している可能性が示唆されています。
曖昧性と不確実性に対してより高い耐性を持つ
前帯状皮質(anterior cingulatecortex)の活動が強く、反応競合に対する神経認知的感受性が高い
これらの特性は、高いエントロピー状態(高い不確実性)を許容しながら、情報環境の変化に応じて予測モデルを継続的に更新する戦略に対応しています。自由エネルギー原理の観点からすれば、彼らは予測精度(precision)の重み付けを比較的低く保つことで、新規情報による予測誤差を柔軟に受け入れ、より適応的なモデル更新を可能にしています。
不確実性や曖昧性への耐性が低い
脅威や秩序の乱れに対してより敏感で、知覚的堅性が高い
右扁桃体(right amygdala)の活動が強く、脅威認知に敏感
これらの特性は、予測の確実性(certainty)を高く保ち、既存モデルへの信仰度(prior belief)を強化する戦略に対応しています。自由エネルギー原理の用語では、彼らは予測精度の重み付けを高く設定することで、外界の変化に対して強力な内部モデルの安定性を維持しようとしています。
政治の党派性をエントロピー減少の枠組みで理解すると、以下のような対比が浮かび上がります:
保守主義は、社会的秩序を既存の伝統的制度や階級構造の維持を通じて最小化しようとします。このアプローチは、複雑な社会システムの不確実性を、階層的で確定的な構造によって「切り詰める」戦略です。社会に内在するカオス(高エントロピー)に対抗するため、既に証明された秩序パターン(伝統)を維持することで、予測可能性を確保します。
進歩主義は、社会的秩序を個人の自由、多様性の認容、制度的革新を通じて最小化しようとします。一見すると秩序を緩和しているように見えますが、実際にはより複雑で適応的な秩序化メカニズムを導入することで、社会システムのエントロピーを減少させる戦略です。異なる視点を統合し、新しい情報に基づいて制度を改革することで、社会システムの予測モデルをより現実に適応させようとしています。
不確実性耐性と脳レベルの同期
興味深いことに、研究では不確実性への耐性が低い人ほど、政治的に同じ立場の人たちとの脳活動の同期が強いことが示されています。言い換えれば、不確実性を避けたい個人は、同じイデオロギーの人々と同じ予測モデルを共有することで、集団レベルでのエントロピーを減少させようとしているのです。これは社会的な「外界の秩序化」メカニズムとして機能しています。
最新の複雑システム理論では、政治分極化は正のフィードバックループと相転移(phase transitions)のメカニズムを通じて発生することが示されています。保守主義者は秩序の維持を目指し、進歩主義者は秩序の革新を目指すという相反する動力が、社会システム全体のダイナミクスを決定しています。両者の相互作用は、社会的エントロピーを管理するための補完的なメカニズムとして機能しているとも解釈できます。
この自由エネルギー原理に基づく解釈には重要な限界があります。第一に、個人の認知的特性と政治的立場の関係は因果的ではなく相関的である可能性が高いです。第二に、政治イデオロギーはきわめて文化的・歴史的に構築されたものであり、普遍的な神経生物学的基盤のみでは説明できません。第三に、FEPは主に個体レベルの生物システムを想定しており、社会システムへの直接的な応用には理論的な拡張が必要です。
要するに、自由エネルギー原理の観点から見ると、右派は予測モデルの安定性重視によって秩序を維持するエントロピー減少戦略を採る一方、左派は予測モデルの柔軟性重視によってシステムの適応性を高めるエントロピー減少戦略を採ると理解できます。両者は、相異なるメカニズムを通じて社会的エントロピーの増加に対抗しているのであり、政治的党派性の根底には、不確実性に対する根本的に異なるアプローチが存在していると言えるでしょう。
自由エネルギー原理(FEP)を政治党派性に適用する理論を拡張するには、階層的ベイズ推論の多層構造、社会的相互作用の動的モデル化、経験的検証メカニズムの導入が鍵となります。これにより、個体レベルの神経メカニズムを社会システムレベルへ橋渡しできます。
FEPの核心は階層的予測処理です。個人レベルでは、低次層(感覚入力)が上位層(信念・イデオロギー)の予測を修正しますが、社会レベルでは個人の予測モデルが集団的「事前分布(priors)」を形成します。
右派の階層戦略: 上位層の伝統的priors(家族・国家・宗教)を強く固定し、下位層の変動(社会的変化)を抑制。集団レベルでは「社会的扁桃体機能」として、逸脱者を排除する規範執行メカニズムが働きます。
左派の階層戦略: 上位層のpriorsを動的に更新し、多様な下位層入力(マイノリティ視点)を統合。集団レベルでは「社会的ACC機能」として、対立する予測モデルの調停役を担います。
この拡張により、**党派性は「階層的自由エネルギー最小化の多重均衡状態」**としてモデル化可能。右派は安定均衡(低変動)、左派は適応均衡(高変動)を志向します。
FEPを非平衡動的システム論と統合し、政治分極化を予測誤差駆動の相転移現象として捉えます。
右派アトラクター: 高精度priors → 秩序維持 → 低エントロピー均衡
左派アトラクター: 低精度priors → 秩序革新 → 中エントロピー適応均衡
分極化 = 双安定状態(bistable dynamics)
S˙=−∇F(S)+ϵ⋅
ここで
ϵ は他派閥予測誤差です。党派性は負のエントロピー生産率を競う進化ゲームとなります。
FEPの「アクティブ推論(active inference)」を拡張し、政治行動を集団的予測誤差低減戦略と位置づけます。
党派受動的戦略(perception)能動的戦略(action)集団エントロピー効果
右派 脅威強調・一貫性追求伝統防衛・境界強化 内部秩序↑ / 外部不確実性回避
左派多様性受容・矛盾統合制度改革・包摂拡大システム適応性↑ / 内部多様性管理
これにより、選挙・政策は集団的「期待自由エネルギー」最小化のゲーム理論的均衡として解釈されます。
理論拡張の信頼性を確保するため、以下の検証経路を構築します:
fMRIで党派別予測誤差処理を比較(precision weighting)
class PoliticalAgent:
def __init__(self, ideology): # 'left' or 'right'
self.precision = 0.8 if ideology=='right' else 0.4
def update_beliefs(self, social_input):
free_energy = prediction_error * self.precision
return minimize_free_energy(social_input)
最終拡張として、FEPを国家・国際システムへスケールアップ。経済政策では右派が「低エントロピー均衡(安定成長)」、左派が「高エントロピー探索(イノベーション)」を担います。
グローバル均衡条件:
∑党派Var(policy predictions)=最適社会的自由エネルギー
このフレームワークにより、**党派対立は「多重スケールのエントロピー管理機構」**として再解釈され、民主主義は適応的秩序生成システムとなります。実証研究が今後の鍵です。
これは二十八歳のときに思いつき半分、制度実験の意図半分で実行した。
婚歴という属性は婚活市場で一定の生活経験として扱われ、未婚より人間味があると解釈される場面がある。それを実証的に確認したかったし、法律上問題がないなら制度がどこまで柔軟に運用できるのか興味があった。要するに制度の限界点を自分の身体で検証した、という言い方が近い。
当日の流れはこうだ。
・午後三時に再び同じ区役所に赴き、協議離婚の届出を提出(協議離婚は当事者二名の合意と署名押印のみでよく、調停や審判は不要)
結果、戸籍には
という文字列が残った。
合法であり、虚偽申請でもなく、誰の権利も侵害していない。ただ一般的にはまず行われない手続きなので、統計上も珍しい部類だと思う。
相手は大学時代の友人で、この企画を話した瞬間に面白いから協力するよと言ってくれた。恋愛感情はなく、金銭も動かず、極めて事務的な関係だが、法的にはれっきとした婚姻だった。もちろん偽装結婚に該当する要素(在留資格目的、社会保障の不正取得など)は一切ないので違法性はない。
メリットとしては以下の通り。
・婚活でバツイチと告げると、相手が生活経験者として扱ってくれ、距離が一気に縮まる。未婚より話が早くなる場面が多かった
・周囲からこいつ少し頭おかしいけれど面白いという不思議な尊敬を受けるようになった
・離婚届を実際に書いたという経験は、将来もし結婚する場合における法的リスク感覚を妙に研ぎ澄ませてくれた
・制度を一度使っただけで、自分が一段階大人になったような気分になる(もちろん錯覚だが)。
デメリットもある。
・親には猛烈に怒られた。戸籍の記載は完全に客観的事実として残る以上、隠せない
・真面目な人からは結婚制度を軽視していると受け取られることがあり、人間性を疑われやすい
・本気で交際した相手に打ち明けたところ、最初は笑っていたが、後から自分も即日離婚されるのではないかと不安になったと言われた
総括すると、やってよかったというのが正直な感想だ。
制度は使ってみないと分からない部分があるし、この経験自体が強烈な学習効果になった。ただし二度はやらない。バツ2となると面白さより信用毀損のほうが勝ってしまう。
それでも飲み会でバツイチなのかと聞かれると、つい、実は結婚したその日に離婚した、とニヤニヤしながら話してしまう。法律が許すぎりぎりを合法的に渡った経験として、これほど使い勝手の良いネタはなかなかない。
シリアはどう考えてるの?
「中華人民共和国政府と台湾との間の対立の問題は、基本的には、中国の国内問題である」(昭和四十七年十一月八日衆議院予算委員会・大平外務大臣)
この前提はみんな争ってないよね?
平和裏に行動する分には国内問題。実力行使したら、分からないぞ!という立場。
そこでシリアなんだけど、アサド政権打倒して暫定政権が出来たのはいいものの、クルド勢力との統合で揉めてるんだよね。
3月に両者が統合に合意したものの、以来「衝突」し続けてて、最近またクルド側が自治の拡大を要求してる。そしてクルド勢力の背後にはアメリカ(とイスラエル)がいる。
台湾独立や現状維持の支持派はシリアのクルド独立や現状維持も支持する?
シリア暫定政権は実力行使して統一目指してるけど国内問題じゃないと思う?
それ言ってるのシリア領土占領してて統一されたら困るイスラエルなんだけどね。
シリア暫定政権がクルド地域の統合を諦めることは100%ない。石油埋まってるもん。
諦めるぐらいなら一か八か大規模な「内戦」はじめる方がまだシリア再建の可能性がある。
暫定政権の実力行使を伴うシリア統一を支持するのか、イスラエルと同様に少数民族保護を掲げ統一を否定するのか。
一方、中国は台湾なくても豊かになってるんだから、平和裏にやってくださいと思うけれども。
中国視点では「核心的利益の中の核心」でシリア暫定政権がクルド統合を欲するのと同様なわけだよ。
シリア統一を支持し、中国統一を否定するロジックが思いつかない。
独立したいならさせてやれよという立場はシリアが血みどろの内戦に戻ってしまう。
俺には一貫性を保つにはどうしたって内田樹的な立場にならざるを得ないように思われる。
『「反乱」や「鎮圧」というようなシリアスな事態が起きないことを私は切望していますが、仮にそれが起きた場合でも、諸外国にできるのは国際機関を通じた調停の試みと人道支援までだろう』
だれか都合の良い立場を教えてくれ!
はてな民が絶賛してるのでこれはやばそうだぞって思って調べたけど
当選直後のマムダニに批判的なアメリカ人のまとめ(つまり執政前の批判論陣まとめ)はこんな感じ。
X投稿:「NYPDを解体せよ(Defund & Dismantle theNYPD)」
→選挙中も削除せず残したまま
X投稿:「NYPDは人種差別主義者でホモフォビアでトランスフォビアだ(TheNYPDis racist, homophobic, and transphobic)」
→過去発言との矛盾を突かれ「フリップフラッパー(ご都合主義)」と批判殺到
・「父が語った話」と後で訂正したが、完全に虚偽と確定
→ADL(反デファメーション連盟)が「反ユダヤ主義の教科書的例」と指定
ラジオインタビュー:「パレスチナに自由が訪れるまで武装抵抗を支持する」
•2017年ラップ曲『Kill Your Landlord』
→選挙中もYouTubeに残っており、共和党が「暴力扇動」と攻撃
「不法移民もニューヨーカーだ。運転免許も投票権も与えるべき」
•2023年:「イスラエルはアパルトヘイト国家であり、存在する資格がない」
「私はすべてのニューヨーカーを代表する。ユダヤ人も警官も含めて」
過去発言とのギャップから「当選した途端に偽善者になった」とXでトレンド1位に
個人的には1と5があまりにもヤバい、社会を破壊するものだと思う。
けどアメリカでは2の911で嘘ついてたのが心象的にでかいらしい。
家賃があまりにもどんどん上がって悪い資本主義だから殺せってなるのは
支持者の気持ちはよくわかる気がする。
とはいえ家賃抑制がものすごく難しくていろんな国で失敗してるのはご存知の通り。
金持ちとユダヤをあまりにも真っ向敵に回して調停的な施策も打てない・打たないのだろうし
有言実行の男なら南アフリカみたいに社会ぶっ壊しながら富裕層の資産没収して追放、
めげる男なら不法移民呼び込みとか警察解体とか比較的実行難度軽いことだけ実行になるのでは。
どっちにしても退任後に残されるのは第三世界っぽくなったニューヨークだと思う。
はてな民はこういう破滅ではない、ニューヨークやアメリカにとってより良い未来のルートを考えられるからマムダニを褒めてんの?
それとも単に、「希望は戦争。」みたいなノリでカタストロフの予感に拍手してんの?
意見を聞きたい。
あとはてな民は3と6を褒めたたえるのだろうけど
ここについてのスタンスで票が増えたのだとすれば
むしろその分だけ市長としての能力適性に疑問点が増えるやつだと思う。
イスラエル批判(昔から全然品行方正な国家でも民族でもねーと思う)なんて許さずに
批判した側を差別主義者として石打刑にして善人顔作ってたと思う。
はてな民のそういうスタンスって大した思考や検討があるわけでもなくて
端的に無価値だよね。
Permalink |記事への反応(10) | 12:58
大統領選挙でドナルド・トランプ(共和党)が三選を試みるが、連邦最高裁が憲法修正第22条に基づき立候補を無効と判断。
トランプは「司法クーデター」と非難。支持者の間で抗議運動が拡大。
一部の州(テキサス、フロリダなど)で州政府が「選挙の正当性を認めない」と声明。
民兵組織が動員を開始。SNS上で「自由の防衛」を名目とした蜂起計画が拡散。
ワシントンD.C.で新大統領(民主党系)が就任。就任式直後、武装集団が議会前で衝突。
連邦政府は非常事態を宣言。州兵と連邦軍の一部が命令に従わず、分裂が顕在化。
「アメリカ自由連合(AFL)」を名乗る勢力が南部・中西部の複数州で政府施設を掌握。
AFLは「第二アメリカ共和国」を宣言し、テキサスを臨時首都とする。
武力衝突が全土で激化。サイバー攻撃による停電・交通混乱が発生。
2031年以降
お前表現の自由戦士じゃねぇよな
それはともかく、人の心を踏みにじる権利なんてないんだよ、欠片もないんだ
世間の反応によってはバリバリ表現は規制されるし、行き過ぎれば法が作られ
法があれば、違法行為になる
法が何のためにあるかって言えば
自由な表現をするという権利と、自己の外部的名誉を守るという権利がぶつかった時にどうするかっていうと
この時、表現の自由は侵害され、人の心を踏みにじる行為は否定される
国旗損壊罪が出来るのであれば、それは名誉棄損のように、法で定めるレベルの「当たり前」の侵害行為とされたってことだ
当たり前のことだから法にされる
人の心を踏みにじった結果、存在が許されなかった
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
これはそれが正しいかどうかというより自分の感性とAIの出力との差異を測るテストであった。
自分の感覚とは適合してるのではえーってなったし、何らかの啓示を与えてくれるものかもしれない。
-----
すなわち「JK組(静凛・月ノ美兎・樋口楓)」+「エルフのえる」。
この四人の間には、単なる設定上の年齢差ではなく、“魂の生年”とでも呼ぶべき文化的時差が存在している。
1.文化的生年とは何か
ここでいう「文化的生年」とは、
発話・参照文化・言語感覚・社会経験の描写から導かれる「世代的意識の生まれ年」を意味する。
たとえば、
ガラケーを使っていた時代を“学生期”と語るなら、文化的生年は90年代前半。
Twitterの普及を“青春期の象徴”と語るなら、文化的生年は90年代後半。
といった具合である。
2. 四人の文化的生年
設定
主な参照年代
発話傾向
エルフのえる
森のエルフ
社会人語・安定語彙
1990±2
静凛
落ち着いたトーン
1991±2
1996±2
樋口楓
JK(行動型)
感情・即時反応型
1999±2
1988 ──────┐
│ 上層:成熟した語り手層
│ エルフのえる(1990±2)
│ 静凛(1991±2)
1994 ──────┤
│ 中層:知的観察層
│ 月ノ美兎(1996±2)
1998 ──────┤
│ 下層:感性主導・Z初期層
│ 樋口楓(1999±2)
2002 ──────┘
これにより、
JK組+えるは「1990年代を中心に上下10年の振れ幅をもつ四層構造」として可視化される。
構造全体は「内界(学校)と外界(社会)」の接続を象徴するようになる。
この四人の“文化的生年”は、いずれも1990年代に集中している。
だが、その内部差――前期(90–92)と後期(96–99)――が、
言語の速度・語彙の層・ユーモアの方向性に微妙な差異をもたらしている。
JK組+えるという初期にじさんじの会話的多層性を支えたといえる。
6.結論
JK組の三人とエルフのえるは、設定上の同級生ではなく、異なる文化的生年層の集合体である。
彼女たちの“魂”は1990年代に根ざしており、前半層と後半層の世代差が構造を形成する。
えるは「外部社会の語り手」として上層に位置し、JK組三人の物語を包摂する。
男の稼得×養育実績=最強
…なのだが普通に仕事をしていれば育児する時間が確保できず、母親の育児実績が高くなるので離婚を決意された瞬間に
そこでオススメなのが養育実績が少ないうちに連れ去ってしまうこと。1年以内がベストである。
とはいえ仕事しながら養育するのは厳しいので、母親を抱え込んで実家暮らしを選択して手伝ってもらうのがよい。
更にメンヘラに子ども産ませておくのがより良い。育児実績に加えて相手の病気という難があれば親権獲得率がアップする。
婚姻を継続しがたい連れ去り理由にもヘラを挙げれるのでオススメ。
以下連れ去られた人の実績
私は母親です。
夫に0歳児の息子を連れ去られて
安定した養育
夫は全く育児をしてこなった人で
やっているのは義母です。
悪いのは連れ去り勝ちの司法です。
メチャクチャすっきりしている。
気分最高。
1匹は病気で早くに死んでしまい、心の穴を埋めるように猫を飼った。間違いだった。この最初の子は今でも愛している。他の子には愛情が湧かなかった。
その後2匹いたが、片方は譲渡した。
片方は虐待の末に捨てた。犯罪である。でも良心は特に傷まない。重度の躁鬱病でダメだった。リビングが使える!嬉しい!テレビが見られる!猫の鳴き声で起こされない!
薬でなんとかならんのか?という話だが、躁鬱病はそうもいかない。というか今現在働けていないので、貯金が底をついている。死ぬか、風俗に戻るか。まあ風俗に戻って足掻いてみる。
裁判所で親父に扶養調停を出したが無理だった。7年前に二千万円出してるからだと。アニメーターでほぼ無給で働き、精神病院にぶち込まれて収入がなく、あっという間に使い切る。そして地元に帰り、風俗で働いた後、派遣で仕事をしたが、ナルコレプシーでクビ。
原神がついに!ついに! テイワット大陸の真の支配者と目されてきた、「天理」の4つの影――
死、生、時、空の執政4人分の名前とビジュアルと声優をショートアニメ「神の限界」を通して情報解禁してきた!
直近では5年間の分厚すぎるシナリオの蓄積を積み重ねてやっとテイワットの歴史の重要地点と宇宙観が垣間見える、ダイン任務やスカーク伝説の神展開があったばかり。
原神熱が過去最高に盛り上がっていたところに、ダメ押しとばかりに弩級の情報公開ムービーが来たのは予想外の喜びですわ。ちょっと冬夜の戯劇(ファトゥス全員公開ムービー)の時と同じくらい興奮してるかも。
ちなみに普通の開発規模のオンラインゲームの1年分を原神は2ヶ月くらいで開発する、おそらく1000人規模の開発だから、初期から触れてきた内容の濃さを思うともう何十年も付き合っている感覚だ。
ここからはネタバレだが、特に、時の執政イスタロトの声優が村瀬歩だったことの衝撃が一番大きい。
偶然の配役ではないと見られ、ウェンティと同じ声優を、日本語版のみならず他言語版(英語と中国語は確認済み)でも貫いていることから、意図的な配役だろう。
初期のクエストからずっと、風の神と時の神の関連は仄めかされていて、それが回収された形になる。詳細は不明だが。
時の神を含む4つの影はいずれも女神の姿で、風神はモンド建国期の人間を由来としてショタの姿をしているが、同一性の表現をするために男女ボイスどっちも行ける声優を使うよう当初から計算されていたということ…。どえらいことやでホンマ(何)
死の執政ロノヴァは、姿と無加工の声が見られたのは初めてで、ロリではないが目の大きいロリ顔で、インテークのある白髪な感じは崩壊3rdのセルマ様に似てる。
ドレスは黒と赤の禍々しいサキュバスっぽいもので、ナタで上空から覗いていたときのような目の意匠がそこかしこにあり、能力を使うときには手首にも目が開く。
個人的に気になったのが、背負ってる羽根っぽいものが、稲妻にあった千手百目神像のそれとほぼ同じことだ。前髪の流れ方や垂れてる髪の長さも同じ。
これまであの像はイスタロトではないかと考察されていたが、顔と羽だけを見るとロノヴァに見える。首元の意匠はイスタロトっぽさはあるし、フードを被るところはナベリウスっぽい。4つの影のキメラなのだろうか?あるいはパネース?
生の執政ナベリウスは、最近の魔神任務「背理」で近況が明かされていたが、レインドットに呑み込まれたあとも意識は消えず二重人格のように表に出てくる形になったようだ。
ビジュアルは頭の後ろにDNA螺旋状の円環オブジェクトを浮かせている聖女といった感じだが、服が左右で白と黒に分かれ意匠がまったく違う。
おそらくこれは呑み込まれたあとのビジュアルで、白い側が本来のナベリウス、黒い側がレインドットなのだろう。2人が言い合うときの構図からそう思った。
で、このナベリウスだけ目がオッドアイになっている。4執政の他の3人はすべて黄色い目になっている。
だが、よく見ると、白いドレス側の半身、本来のナベリウスであったほうは青い目なのだ。呑み込んだレインドット側の黒い半身は、黄色い目。
ここから考えられるのは、4つの影はすでに全員呑み込まれていて、権能を乗っ取られ、4執政を演じているのではないか?ということ。
声優の一致やゲーム内クエスト文の仄めかしだけではなく、ウェンティの命ノ星座が冒頭のイラスト調イスタロトと一致した構図になっていることも含めると、状況証拠的に風神と時神が融合している可能性は極めて高い。
前述の目の色理論からすると、すでに完全に呑み込まれていて、バルバトスが自身をイスタロトと思い込んでいるか演じていて、元のイスタロトの意識は(ナベのように共存していないので)どこかを彷徨っている可能性すらある。
ウェンティは自身の素性を、平凡な千風の元素精霊のように言っていたが、これも疑わしくなってきた。これが嘘ではないとするなら、イスタロトを呑み込んだのはウェンティではなくバルバトスで、ウェンティ≠バルバトスなのかもしれない。
呑み込み成りすますことで生まれる風神の空席をごまかすために、バルバトスが適当な精霊を捕まえてきて、影武者として振る舞わせているのが眷属ウェンティとも考えられる。
ウェンティ本人は、放任主義だから長い事眠ってたことがあるという自認になっているが、その間に入れ替わりが起こったのかもしれない。
それにしては全部知ってる風なそぶりが多いから、バルバトス=ウェンティの可能性も残るが、眷属として認識を共有できるのであれば辻褄は合うだろう。
ともかく、そのように考えていくと、4執政は、天理に反目する4つの勢力によってすでに落ちているという考えが真実味を増してくる。
4つの勢力という部分は当てずっぽうだが、バルバトスが魔女会とバトった経緯からすでに魔女会側に落ちているとしたら、4執政の全員が1勢力、つまり魔女会の手に落ちた可能性もなくはない。
アルベドも、魔女が生の執政を呑み込んだという一大事を平然と話していたので、前代未聞の所業ではない、つまり前例を知っていたのだろう。
いずれにせよ、時の執政が落ちているとすれば、天理をも欺く形で歴史も記憶も改ざんされているということ。
直近のことで融合した記憶があるナベリウスを除く3人も、実は呑み込まれ乗っ取られているが自覚がない、という理屈が通る。
「裏切るなんて論外だ」「例外は」という話をしているロノヴァがどこか居心地の悪そうな仕草をしているのは、無意識に自分がそれを言える言える立場ではない可能性を感じ取っているせいかもしれない。
俗世の七執政も天空の四執政もすべて悪魔ネームになっているのも、この大陸がすでに魔の手に落ちていることの示唆なのかもしれない。
ロノヴァと、今回名前が明らかになった空の執政アスモダイ(考察勢は当ててたね)=物語の冒頭で双子を引き離した元「謎の神」、この2名は何者によって呑み込まれているのかは謎だが。
ロノヴァの話し方だと、アスモダイは黒王あたりを主として鞍替えしたことで黄色い目になったのかもしれない。あるいは月関連の誰か。キアナ(=月)顔だし。
ちなみに、サービス当初から天理の調停者ことアスモダイとパイモンを同一視する風潮があり、ロノヴァが「誰かを愛してしまった場合」の誰かを、パイモンが旅人を愛していることとつなげて正体アスモダイだという考察もあるが
個人的にはパイモンは冠を持っていることからグゥオパァー化した天理パネースにほかならないのではと考えている。
パイモンは空間に引っ込んだり出てきたりする部分もあるが、時間を操作することもでき、システム的にHPが0になった旅人をサルベージすることもできる。生/死/時/空すべてに通じる操作権限があると見える。
テイワット人が明らかに異質な浮遊生物であるパイモンに疑問を抱かないのも、歴史操作による認識改変を無自覚にやっているせいかもしれない。
天空の島と繋がっているというメリュジーヌの言もあるし、食いしん坊で特にスライムなど元素を旺盛に取り込もうとするところもできるのも、万能性に通じる状態への復元過程と見ることができる。今のところおバカキャラだが、それも「理」の対極だろう。
最後、ピエロが「神を殺す」ことに言及していたが、こうなってくるともはや、その神とは、俗世の七執政どころか、すでに呑まれている4つの光る影ですらなく、隠れている「天理」そのものを指していることは明らかだろう。
最近、スタレの方も、オンパロスの命運が宇宙の存亡に繋がっていることが分かってめちゃくちゃ面白いな!!!と感じていたんだが。
やっぱり原神もめちゃくちゃ面白い……こういう年月をかけてじわじわと長大で壮大な話を各自の手で解き明かしていく物語体験は、本当によくできた運営型ゲームでしか表現できないと思う。
レインドットを担当されていた田中敦子さんは、去年、闘病生活の末に亡くなられたのだけど、原神公式はこう伝えている。
「※レインドットにつきまして、これまで演じてくださった田中敦子さん、ありがとうございました。
なお、過去バージョンの内容については、キャスト変更にともなう声の差し替え予定はありません。」
https://x.com/Genshin_7/status/1942797519844696445
これは本当に粋で素敵なはからいだ。
通常だと、演者の病気や引退等の本人都合や、諸般の事情(たとえば中国本土の過激派ネトウヨ反日ヘイターに目をつけられるような事案が起きて声優の安全を守らないといけない時)で、声優をやむをえず交代する場合は、
原則として過去のボイスも含めてすべて新声優で差し替えるのが通例なのだが、亡くなった声優さんの仕事の痕跡を残してくれるのはオタクの心理に寄り添ってくれていて、こういうトコ本当に信頼できる。有り難いことだ。
離婚後すぐに成人した息子と酒を飲みたいとか言い出す。俺は付き合ってやった。
10年間溜め続けた文句を言った。お前のせいで俺たち家族は苦しい生活を強いられたと。
その場では謝った。ここから親子関係を構築していけるかもと期待した。
やはりこういう男だった。
難病にかかり体が不自由のため施設で生活している。連絡が取りたい。
施設名が書いてあったので調べてみるとそこそこ高額。
家族3人の人生を踏み躙ったその金で何故貴様が生き延びてるのか。
母も姉もこの男とは一切血縁がない。縁者は俺だけ。
出方次第で俺はこいつをどうすることもできる。
本当に、最期まで、どうか苦しんで欲しい。切実に思う。
そして二度とこれの存在を思い出すことがないように
某スレッドで理知的でない女と言ってる人がいたけど、理知的とは理知に従って行動する人のことで、理知とは「理性と知恵。また、本能や感情に支配されず、物事を論理的に考え判断する能力」という意味がある。
なので、弁護士は理知的な人がつく職業だと個人的には思うんだけど…
(モラ夫の泣き落とし)
モラ夫の約1割弱(大貫推定)は、見た目をはばからず、逃げた妻、妻側弁護士、妻の親、子どもたち、調停委員を泣き落そうとします
https://x.com/SatsukiLaw/status/1873535551925866601
(どこまでも他責思考)
他責思考は、モラ夫の特徴
モラ夫は、離婚弁護士が「家庭を壊している」と考えるようです
ここら辺、理性の弱さが出ています
(離婚を依頼に来たのは妻自身です。家庭を壊したのはモ自身です)、
·
6,157 件の表示
https://x.com/ohnukikensuke/status/1930729275050848721
(なぜ、飯モラするのか)
https://x.com/SatsukiLaw/status/1932489000482451541
「モラ運転」
#モラ夫
#モラハラ
#モラ夫バスター
#モラ運転
このような事実をピックアップし、さも、モラ夫があくまであるかのように言い放ち、モラ夫の違法性を糾弾する弁護士がある方面だとが多い。
https://x.com/krcm_daddy/status/1918505728928825572
モラ夫は悪? それはそう。でもモラ妻も存在する
譲歩した挙句、子を連れ去られて断絶。
それでも「波風立てたくない」と我慢し続けた結果がこれなら、
アドラーは言う。
https://x.com/mngswrik/status/1926852672440680735
夫のモラハラが酷くい
夫が悪いのに謝らないで黙って無視する
って言ってる人に
「理由を説明してる夫を無視してヒステリックに騒ぎ続ける自分」
がよく取れるって話らしい
こういうの見ると本当なんだなってわかる
https://x.com/itomaki_mac/status/1857263439946940489
後で聞くと、そこに残っていたのは、なだめる旦那の声と、金切り声を上げる私の声でした。
何が真実なんでしょうね。
あえて隠している感がある。
しかも、弁護士は意外と女性がいて、確かに賢いといえば賢いんだが、その賢さを欲望をかなえるために利用している人が意外といて、理知的な存在とは程遠い気がする。
モラハラじゃね?それ。
やめた方がいいですよ。
↓
「喧嘩ふっかけて、彼を怒らせて、どうしてもカッカすると声が大きくなるじゃない。それで大きくなったところを録音しとくとか。手を上げさせたところで通報するとか そうやって彼を暴力夫にしたてあげる」
·
69 件の表示
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものである
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
ここでは以下の3点についての論考を収録する
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
自己を定義し、自己を展開することが可能な構造体は入出力の中で核となる構造を元にした反応を繰り返し、
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
自己を定義し、自己を展開することが可能な構造体は入出力の中で核となる構造を元にした反応を繰り返し、
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものである
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
12.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
自己を定義し、自己を展開することが可能な構造体は入出力の中で核となる構造を元にした反応を繰り返し、