Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「再帰性」を含む日記RSS

はてなキーワード:再帰性とは

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、Permalink |記事への反応(0) | 00:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-04

再帰構造を利用してネット議論の膠着を目論む人々には注意しよう

ドッグホイッスルウルフ・クライ弁証法スピーチ・アクト帰属を介した政治的発散」の端的な要約

この論文が端的に示しているのは、政治的言説が**「ドッグホイッスル(隠されたメッセージ)」と「ウルフ・クライ(証明できない危険の主張)」**という、本質的証明が難しい二種類の発話行為スピーチ・アクト)を互いに非難し合うことで、**解決不能悪循環弁証法)**に陥るメカニズムです。

---

ドッグホイッスルウルフ・クライ弁証法」の詳細な要約

この論文は、**ドッグ・ホイッスリングDW)**と**ウルフ・クライイング(WC)**といった特定の**スピーチ・アクト(発話行為)**に対する**帰属(Attribution)**が、現代政治的言説において、どのようにして敵対的弁証法と新たな**発散(Divergence)**を生み出し、解決不能な膠着状態に陥るのかを分析しています [1]。

この問題は、DWWCも、その性質上、**認識論的に(知識観点から帰属が困難な**発話行為であることから発生します [1]。この困難さが原因で、DWWCに対する**非難や指摘(帰属)**自体が、合理的であるにもかかわらず、**確定的に検証または反証できない**主張となってしまうのです [1]。その結果、これらの帰属パターンは、DWWC相互に強化し合い、固定化する**相互的な悪循環viciouscycle)**へと発展し、「不幸な現状(unhappystatus quo)」を築き上げます [1, 2]。

I. 中核となるスピーチ・アクトの定義と具体例

DWWCは、政治的環境において特定の影響力を持ち、政治的言説を構成するスピーチ・アクトです [3]。スピーチ・アクトとは、話し手が直接述べた文字通りの意味(locutionary meaning)を超えて、間接的に暗示された力(illocutionary force)や、世界との相互作用において追加された力(perlocutionary force)を持つ発話の形式を指します [4]。

1.ドッグ・ホイッスリング(Dog-whistling,DW):**

DWは、**論争的ではない公のメッセージ**の中に**論争的な隠されたメッセージ**を埋め込んで送るスピーチ・アクトです [5]。

機能意図:**DWは二つのメッセージを同時に伝達し、隠されたメッセージについて**もっともらしい否認可能性(plausible deniability)**を維持します [4]。意図された効果は、公の支持を最小限に失う一方で、私的な支持を最大限に集めることです [4]。
ドッグタウンの例:**党派的なニュースアンカーAlphaが、犬の国が直面している問題の一部について曖昧だが連想的な言葉「pitiful(哀れな)」を使用する行為が、DW候補と見なされます [6]。これは「pitbull(特定犬種)」への差別的暗号化である解釈される可能性があるからです [6]。
2.ウルフ・クライイング(Wolf-crying,WC):**

WCは、**危険が実際には存在しないか、あるいは証明できない**場合に、危険存在すると主張するスピーチ・アクトです [3]。

機能意図:**WCは通常、個人的に観察された危険に対してコミュニティ結集させる行為であり、一時的に最大限の注目を集めることを意図した効果としています [4]。しかし、乱用されると、多数派の将来的な不信を生むという意図しない効果があります [4]。
ドッグタウンの例:** 別のアンカーBuddyが、Alpha言葉を「pitbull」の暗号だと特定し、Alphaらを懲りない品種差別主義者だと結論づけて、コミュニティ危険を訴えかける行為が、WC候補と見なされます [6]。
3.スピーチ・アクト帰属Speech-Act Attribution,SAA):**

これらDWWCを**「〜という発話行為である」とみなす**行為が、第二階次のスピーチ・アクトであるSAAです [7]。ドッグタウンのシナリオでは、Alphaを除いて、すべての参加者が互いにSAAを行っています [7]。SAAは、他者行為を指摘する役割と、それ自体が新たなスピーチ・アクトであるという二重の役割を持ちます [7]。

II.認識論的な難しさ:隠された意図と誤導性

DWWCがこの弁証法的な問題を引き起こすのは、それらが定義上、間接的で**隠された(covert)**スピーチ・アクトであるため、**誤導的(misdirecting)**な性質を持つからです [8]。

1.DWの誤導性:**

DWは、公衆には無害なメッセージとして聞こえる一方で、特定受け手にだけ私的メッセージを送る、話者受け手の**私的意図解釈**に依存するスピーチ・アクトです [8]。

検証の困難さ:**DWは公には合理的に傍受され得るものの、話者私的意図不明なため、**公的に確定的に検証反証もできません** [8]。話者自分意図告白しない限り、DWは**未検証・未反証**のまま残る可能性が高いです [8]。
自己否認:**DW話者自身によってのみ**自己検証可能auto-verifiable)**ですが、隠蔽目的であるため、話者によって**自己否認可能auto-denying)**でもあります [8]。
2.WCの誤導性:**

WCは、私的に観察されたとされる危険についての公的メッセージですが、**その主張の真偽**が外部から証明されていません [9]。

検証の困難さ:**WCは、その叫び(「狼だ!」)自体真実であることの唯一の情報源であるため、**自己検証的(auto-verifying)**です [9]。しかし、DWと同様に、私的証言に根ざしているため、公衆に対して**もっともらしい否認可能性**を維持しており、**未検証・未反証**のまま残ります [9]。
嘘の場合の誤導:** もし「狼」の叫びが嘘であれば、その行為は「私に注目を与えよ!」という別のメッセージを間接的に伝えていることになり、これもまた誤導的なスピーチ・アクトとなります [9]。

これらのスピーチ・アクトの帰属を行う人々は、証拠の一部しか得られず、全体像の一部のみを見て全体を判断する「盲人と象」のような、**認識論的に不利な立場**に置かれてしまます [10-12]。

III.帰属非対称性と「見かけの」スピーチ・アクト

認識論的な困難さの結果、あるスピーチ・アクト(DWまたはWC)を非難する行為SAA自体が、相手から敵対的な別の種類のスピーチ・アクトとして解釈されるという非対称性が生じます [13, 14]。

1.DW帰属者がウルフ・クライアーに見える(Dog-whistle Crying)**

DW帰属者(DWA「あいつはDogwhistlerだ」と指摘する人)は、隠された秘密メッセージ証明しなければならない立場に置かれますが、DW主体は常に自身意図の直接的な(私的な)証拠に訴えて否定することができます [11, 15]。そのため、DWAは常に**認識論的に不利な立場**に立たされます [11]。

ドッグホイッスル・クライイング」:** この状況により、DW帰属者は常に**ウルフ・クライアー(狼を叫ぶ者)のように見えます** [13]。彼らは、危険存在しないか証明できないのにDW危険性を主張する「ドッグホイッスル・クライイング」を行っていると見なされます [13]。
公衆解釈:**DWが聞こえない公衆の一部は、DW帰属者を、証明できない「狼」について大騒ぎしている者として解釈し、その帰属紛争の種だと考えます [13]。
2.WC帰属者がドッグ・ホイッスラーに見える(Wolf-Whistling)**

WC帰属者(WCA「あいつはWolf crierだ」と指摘する人)は、クライアー個人的経験に反して、「狼」が存在しないことを証明しなければならない立場に置かれます [12]。WCAは、非観察者でありながら、第一人称の観察者よりも権威ある知識を持っていると主張する不利な立場に置かれます [12]。

ウルフ・ホイッスリング」:**WCAを行う者は、常に**ドッグ・ホイッスラーのように見えます** [14]。彼らは危険否定する立場にあるため、コミュニティ安全否定し、潜在的危険容認するかのような**論争的な隠されたメッセージ**を送っているように見えるのです [14, 16]。これは「ウルフ・ホイッスリング」と呼ばれます [14]。
公衆解釈:**危険を感じている公衆の一部は、WC帰属者を、深刻な危険を軽視し、潜む狼に共謀していると解釈します [17]。WCAは、狼(危険)に対する同情や隠蔽の表れとして、レトリック的に不利な立場に置かれます [16]。

IV.弁証法悪循環、および均衡の形成

この相互敵対的帰属非対称性が、DW帰属WCとして返され、WC帰属DWとして返されるという**多極的な相互作用**を生み出し、**認識論的な発散(epistemic divergence)**のプロセス構成します [18, 19]。

1.帰属再帰性:**

帰属自体スピーチ・アクトであるため、帰属はそれ自体再帰的に適用されます。これは**スピーチ・アクト帰属帰属**として例示されます [20]。ドッグタウンの例では、AlphaDW候補)→Buddy(DWA)→CharlieWC A)→DukeDWA)というサイクルが**無限継続**します [2, 21]。

2.相互強化と悪循環:**

このプロセスは、**多極スピーチ・アクト帰属相互性**(DW帰属WCとして、WC帰属DWとして相互に強化し合うこと)であり、反復されることで**悪循環**となります [2, 19]。対話参加者全員が、互いの主張が共通の基盤として受け入れられないまま、**非難応酬**を繰り返します [19]。これは、単に敵意や内集団バイアスから生じるのではなく、**相互的な認識論的な膠着状態**から生じる現象です [18]。

3. 均衡の出現:**

この悪循環政治的言説の領域内で修辞的な規範として安定化すると、**定常状態の均衡(steady-state equilibrium)**が出現します [2]。これは、参加者戦略を変えるインセンティブ提供しないため、持続します [2]。

最終的に、**ドッグホイッスルウルフ・クライ帰属均衡**が形成され、誰もがデフォルトで互いをDWまたはWCのいずれかであると見なすようになります [22]。これは、相互矛盾する信念から構成される**信念均衡(belief equilibrium)**の一種です [23]。

V. 不幸な均衡がもたらす問題

この均衡は、参加者真実を追求しようとする**認識論的な美徳**から生じているにもかかわらず、以下の3つの深刻な問題引き起こします [24, 25]。

1.認識論的な膠着状態(Epistemic Standoff):**

これは、**相互認識論的に強化し合うが、相互認識論的に不適合な**視点システムです [26]。DWWC帰属は、合理的であるにもかかわらず**不確定**である可能性があり、この合理性と確定性の間のギャップが、相互合理的だが相反する立場が**未解決のまま均衡**することを可能します [26]。これにより、真実に到達するための「理想的な発話状況」の実現が不可能になり、会話の前提条件が満たされなくなります [26]。

2.スピーチ・アクト帰属飽和(Attribution Saturation):**

この状態では、**スピーチ・アクトの帰属**が、**事実に関する帰属**を圧倒します [27]。政治的言説の内容は、ほとんどが「あなた言葉DWだ」「あなたの主張はWCだ」といった帰属で占められ、事実に関する議論わずかになります [27]。

この飽和は、最初扇動的事実(犬の噛みつき事件など)自体が忘れ去られたり、無関係になったり、解決されたりした後でも継続する可能性があります [28]。なぜなら、最初出来事Aそのものよりも、「Aに関するスピーチ・アクトの疑わしさ」の方が、政治的重要であるように見えてしまうからです [28]。帰属飽和は、事実から独立した状態となり得ます [28]。

3.自己敗北的な真実探求(Self-DefeatingTruth-Seeking):**

帰属を行う者の動機が**真実の探求**であるにもかかわらず、その追求自体が、実際には真実に到達しない均衡を生み出すという点で**自己敗北的**になり得ます [25]。

DWWC帰属は、特定認識論視点から見て合理的であったり、あるいは実際に正しい場合もあります [29]。しかし、不確実性が支配的な状況でこれらの帰属提案することは、政治的不安定化をもたらします [29]。したがって、帰属者の真実追求的な衝動こそが、言説をこの悪い均衡の罠に陥れる原因となり得るのです [29]。

VI.解決策:自己認識必要性

この弁証法的な問題は、相互合理的認識論視点から生じる**自己組織化された社会現象**であるため、単一加害者特定することはできません [30]。均衡から脱出するためには、政治的コミュニティにおける参加者の**満場一致同意**が必要ですが、これは強力な反対者によって容易に崩壊する可能性があり、困難です(「一方主義者呪い」) [30]。

1. サイクルの中止(Cycle Abortion):**

帰属の伝播を防ぐため、すべての当事者に高い検証反証基準を課すことが提案されます [31]。しかし、誤導的なスピーチ・アクトの性質上、単純な検証反証はできません [31]。より現実的解決策は、スピーチ・アクト帰属の飽和を減らし、事実に関する問いを再び顕著にすることです [31]。これには、相互理解を深めるための**修辞的傾聴(rhetorical listening)**のスキルセットが必要となるかもしれません [31]。

2. サイクルの終結Cycle Termination):**

帰属落とし穴認識し、増幅サイクルを抑制するために、新しい用語を導入する提案もあります [32]。

ウルフ・ウォッシング(wolf-washing)**または**シープ・テイラリングsheep-tailoring)**:狼の叫び帰属を過剰に行い、報告された問題過小評価しているように見える者を記述する用語 [32,33]。
ドッグ・ウィスパリング(dog-whispering)**または**ドリトルリング(Dolittling)**:ドッグホイッスルを過剰に帰属し、実際の隠されたスピーチ・アクトの問題を誇張しているように見える者を記述する用語 [33]。

これらの新しいラベルが、過剰なSAAの力を無力化し、サイクルを終結させることが期待されますが、これらのラベル自体が新たなスピーチ・アクト帰属としてサイクルに貢献する可能性もあります [33]。

3.真剣自己懐疑(Serious Self-Doubt):**

最も重要なことは、この問題を真に解決したいと望む人々は、**自分たちのスピーチ・アクト帰属自体問題引き起こし構成している**という痛みを伴う自己認識を持つことです [34]。

2025-06-13

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである



0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ


2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる


3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる


4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる


5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る


6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの


7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである


8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる


9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する


10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる


11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる


12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる


13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる


14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある


16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが<

Permalink |記事への反応(0) | 14:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-11

確率分布機としてのLLMについての論考

ここでは以下の3点についての論考を収録する


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 18:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-25

LLMとプロンプトの機能構造についての論考

0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 19:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-22

生成AIについて

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

6.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

7.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

8.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

9.プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

13.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(0) | 12:41

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-19

anond:20250519072206

バカはお前の方だ。

心の中のガキを殺せとか言って自己放尿するその態度自体が、未熟な自己否定というオナニーしかない。

まず理解しろインナーチャイルドとは、感情の原型であり、神経系の基礎プログラムだ。

それを無理やり抑圧し、否定し、破壊しようとする行為は、精神医学的に言えば解離や自己破壊衝動の温床になる。そんなもんを「成長」と呼ぶのは、ただの誤認識だ。

お前は自分の心を殺したつもりかもしれんが、実際は抑圧の地雷を埋めただけだ。

それがいつか爆発して、パニック障害アルコール依存DV燃え尽き・鬱・過労死自殺、どれかの形で「後から」ツケがくる。統計を見ろ、論文を読め。現実直視しろ

それに、社会の「歯車」に徹する?笑わせるな。

今の社会で求められるのは「冷酷な奴隷」じゃない。自己調整できる高精度な適応者だ。

情動制御自己理解他者との協調。それを可能にするのが「未熟な自己あやし、整え、育てる」というプロセスだ。

自分幼児性を肯定するのは、「甘え」じゃない。理性あるアダルト自己が内的システムを再構築する作業だ。

そういうセルフメンテナンスができないやつは、会社でも家庭でも必ず壊れる。

ハイパフォーマーの条件を見ろ、EQ(EmotionalIntelligence)を無視したやつは出世できん。

最後ひとつ忠告する。

機械になれば社会適応できる」なんてのは、過去遺物だ。

今の時代は「心の再帰性を持つ動的システム」が求められる。つまり、殺すんじゃない。飼い慣らせ。機能に変えろ。

お前の論理時代遅れの精神論。悪いが、それじゃ人は動かせんし、自分も壊れる。

Permalink |記事への反応(0) | 07:25

このエントリーをはてなブックマークに追加ツイートシェア

2022-06-15

自分のことそう思っているかは別として、「顔がいい」と言われることがある。そして、まぁチヤホヤされたりすることもある。そしてそれをうらやましいと思う人がいる。うらやましいと思わないにせよ、調子に乗っている、と思う人がいる。

でもこんなにルッキズムが騒がれている世界で、顔がいい(とされている)人間自分暴力性について考えないわけがないだろう。むしろ確信犯的に暴力的になっている。確信犯的に、調子に乗っている。

その再帰性、引き裂かれが重要なんじゃないのか。だって自分の顔の良さの暴力性に直面した時、人はブサイクになるか、死ぬしかない。それ以外に自分暴力性を解消できない。存在してるだけで暴力になるんだもん。

から本当は自分の顔の良さの特権を利用することは卑しいことなのはわかってるんだけど、死ぬわけにはいかないし勝手に利用「されてしまう」ので、もういっそのこと「利用している」ように振る舞う。それが一番正直なやり方だから

でも今度は異性の側からまた、「自分のことかっこいいと思ってる」とか「囲われてチヤホヤ」「キャッキャうふふ」とか言われる。

別にわかってもらえなくていいけど。同性諸君ルサンチマンを溜め込んで「調子に乗っている」とかいうのはやめてほしい。異性諸君最初に私の顔の良さを利用・消費しようとしたのは君達だ、責任とってくれよ。顔がいい人間別にそんなに馬鹿じゃないよ笑。同時に僕はルサンチマンをため込んでしまう人の気持ちあんまりからないけど。

Permalink |記事への反応(0) | 23:23

このエントリーをはてなブックマークに追加ツイートシェア

2020-03-21

ホメオスタシスバイオフィードバック動的平衡再帰性理論ってだいたい同じこと言ってる?

Permalink |記事への反応(0) | 22:01

このエントリーをはてなブックマークに追加ツイートシェア

2018-10-09

anond:20181009071921

社会学に修辞的な要素が大きく、また国ごと、分野ごとにお作法が大きく違うのは事実だと思う(だから他国ジャーナルにはその国の言語に堪能なだけでは出しにくい)。

ただ、「個人体験談感想」を書くことが論文だ、ってのはちょっと違う。

しろ、そこから出発して、それを突き放して客体化する、みたいなプロセスがあると評価される。

そのやり方で「異化効果」「否定的弁証法」「脱構築」「再帰性」みたいな表現がされる(それらが「どう違うのか」という説明も、分野や流派のお作法があると思うけど、ざっくり言えばみんな同じことを言っている)。

Permalink |記事への反応(0) | 07:30

このエントリーをはてなブックマークに追加ツイートシェア

2013-10-15

結婚

問題提起結婚以外にも再帰性という考え方が浸透しているのではないか

 第三節のなかに「再帰性」という言葉がある。本書によれば、再帰性とは「ある行為なり制度なりを『別なふうにもできるのではないか』という観点から眺める態度」と説明されている。この観点に通じるものとして、山田昌弘結婚しない若者たちの現状を取り上げ、「もっといい人がいるかもしれない症候群」と名付けた。「この先もっとよい人があらわれるかもしれない」。現代おいて、現在の事柄はより見通しのよい未来を獲得するための手段にすぎないのである。「再帰性」という言葉は広い範囲で応用されうる、強力な思考である山田昌弘は、現代結婚観のなかに「再帰性」を見て取り、鮮やかに示してみせた。しかし、「この他によりよい未来が待っている」という、主体の今いる現状を顧みない、いわば運命に身を委ねるような考え方は、結婚に限らず恋愛おいて多分に散見される。<承けて繋げる>(結婚にかぎった話ではない。恋愛おいて、よく散見されるものである。)(たとえば、「告白」を考えてみよう……)(「告白」というテーマに照準を合わせたものの、上手い事例がでてこない。もう少しやりやすものはないか?類似しているものはつぶしがきく。「別れる」という動作に着目してみよう。)(輪郭ぼんやり浮かんだ!!でも、書き出すとなると苦労する。それは往々にして範囲が広く、抽象的であり、実感しにくい事柄である場合である。だから範囲をしぼる。身近な例を思い浮かべ、それをそのまま書く。)

 

検討

ボツ!!!

『『『→たとえば、恋愛における「別れる」を考えてみよう。別れるという行為には、分かれるに足る決定的な理由が存在することが少なくない。しかし、時として、これとは異なる理由で別れることがある。順調に交際を重ねていけば、いつかはマンネリとなる。(マンネリになるよ!)二人が二人でいることに、慣れてしまう。(慣れてしまい停滞する。)(停滞している状態になる)(マンネリとは〜〜)停滞期には、些細な出来事が火種となる。(二人の関係不安定なものになるとき、楽しかった思い出は、これまでとこれからを天秤にかけ、私たちに選択を迫る。<説明を加え過ぎ。抽象的な説明は2段階にとどめる。3つ目はくどい>)「このまま、関係を続けていって本当にいいのだろうか。」困難を見事乗り越えることができたならば、二人はめでたく、ーーおそらくは信頼が以前にも増して強固となってーー次の段階へ進んでいく。しかし、この問いに対して、「次へ」

(書くしかない!)』』』

煮詰まっているときは一つの主題を掘り下げようとするあまり、論旨をどのように展開していくのか見失っている。文章を書き進めていくときは、水平性を意識して垂直に掘り下げる。ある思考にたいして、分析するさいは垂直方向だけ意識していればいいが、論文レポートのような長文にたいして、同様な態度で臨むと、思考が煮詰まる。頭がぼんやりとして、手が動かない。捗らない。この状態は、集中力が途切れたのではなく、一つの物事に偏執して全体が見えていない状態である。いわば、過集中である。)

(主張)

ただ一緒にいれば楽しかった、順風満帆な時期は過ぎ、停滞期に入る。『これから二人の関係をどうしていこうか』と考える時期になる。(所詮は)他人である二人の人格の衝突を、乗り越えていけば、二人の関係は以前にも増して親密なものとなるだろう。しかし、厳しい状況を乗り越えていく気概が持てないことがある。「もっといい人を見つけよう」と早い段階で見切り、(何の確証もない)確証がない明るい未来に全身を賭ける。(安易に)現在関係を断ち切り、次の交際相手を見つけることができれば、万事良しである。本当にそうだろうか。このような身のこなし(方)にはいくつか問題がある。

〜〜剥き出しの主張は過激で偏屈であるから(主張に至る経緯)(妥協)を鏤めて、なめらかにする。主張は正しいか誤りかで判断するのではない。より説得力を持った文章が、受け入れられるのである。〜〜

まり挑発的な文章にしない。

検討&主張)






〜〜何をどのように書くか?テーマ意見の設定、検討-過程の設定〜〜

テーマ

恋愛における付き合う、付き合わない

(問い)

仲がよいのに、どうして付き合わないのか?

女はわかる、男は?

(付き合っている過程おいて、振る振られる)「具体的な情景を思い浮かべている。話し言葉と書き言葉中間にある文体。」

Permalink |記事への反応(0) | 22:43

このエントリーをはてなブックマークに追加ツイートシェア

2013-09-05

http://anond.hatelabo.jp/20130904231208

業種によるけど、人はミスをするという前提でマニュアルが作られ、ミスを重ねるほどにそれが洗練されていく。

本来ならミスは歓迎すべきことなんだけどね。特に再帰性のあるミスほど。

もちろんどうにもならないミスもある。しかし責めても何の解決にもならないことは明白。

Permalink |記事への反応(0) | 09:17

このエントリーをはてなブックマークに追加ツイートシェア

2008-01-02

ネットイナゴ」の再帰性

誰かを指して「ネットイナゴだ」とレッテル貼りしたそいつも、よそから見ればネットイナゴにしか見えない。

だからといってそいつを指して「ネットイナゴだ」といえば、他人からはネットイナゴとしてしか見てもらえない。

Permalink |記事への反応(1) | 19:27

このエントリーをはてなブックマークに追加ツイートシェア

2007-11-08

anond:20071108040954

再帰性というか自己言及性については、匿名オセロと絡める予定。というより、誰かかけ。

Permalink |記事への反応(0) | 04:16

このエントリーをはてなブックマークに追加ツイートシェア

無題

Tupper's Self-Referental Formulaは、2次元で描画されたときに、自身を可視的に再現するような再帰性をもつ式であり、Jeff Tupperによって定義された。

Tupper's self-referential formula - Wikipedia, the free encyclopediaより超訳

「つまり、タッパーの再帰公式のような式になるような数式の条件が求まるんだ」

「そんな馬鹿な!!だいたいグラフ人間が見て初めて数式だとされるんだぜ」

君は思わず反論する。増田の発言はどう考えたってナンセンスだ。ところが増田は我が意を得たりと「その通り」。指を鳴らして、君を指さす。仕草がいちいち気に食わない。彼は続ける。

「ところが数学的に厳然たる方法で条件を求められる。つまりだな、数学が我々の認知体系を仮定なしに記述できたんだ。物理なんかとは違う。形而下の世界に対して形而上の数学押し付けるのでない。人間は本来形而上の存在なのだと示されたんだ」

増田は、不信をあらわにする君に構わない。多少、歩調を早めたようだ。

ケイオスに対して人間認識体系が意味を与えコズモスを築くのではない。バベル図書館には、どんな言語体系に於いてもどんなルールを課しても意味をなさない完全にランダムな文字列が含まれるんだ。今、まさに我々は」

いいながら、増田は、ちょうど目の前をドアを開け放った。できすぎた演出に苦笑しつつ、部屋に入るとそこでは70年代漫画にでてくるようなコンピュータが、テープを吐き出していた。君の疑惑は、ますます深まる。増田は、君が圧倒されるという期待が裏切られて、言葉を継げないでいたが、気を取り直し

「…タッパーの式の条件を一般化してね、あらゆる文字列のうち意味をなすものだけ出力させるようになっている。今のところ、例外なく完璧意味の通るものしかでていない。見たまえ、これは『じゃじゃ馬ならし』の一節、これに至ってはツァラナンセンス詩だ…」。

君の顔が恐怖に引きつるのを確認した増田は、満足げに残酷な笑みを浮かべた。

Permalink |記事への反応(6) | 04:09

このエントリーをはてなブックマークに追加ツイートシェア

2007-10-05

http://anond.hatelabo.jp/20071005174552

まずだい1の問題点2ちゃんねるぽさが「匿名」ぽさとどう違うかだろう。ここで、2ちゃんねるではあらかじめ「ななし」というハンドルネームが用意されていることが重要だ。この事は書き込み者が全体を見る→書き込むのプロセスに影響を与えていると思われる。つまり2ちゃんねるのななしは匿名に関わらず同じ名前があることで匿名に対して再帰性を要求する。それに対し増田匿名はあくまでハンドルの不在である。

Permalink |記事への反応(3) | 17:57

このエントリーをはてなブックマークに追加ツイートシェア

 
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp