Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「再帰」を含む日記RSS

はてなキーワード:再帰とは

次の25件>

2025-07-05

dorawii

ヴィタリ集合がルベーグ可測じゃないことの証明で、

つの数列の項数が対応する要素同士での不等式が出てくる。

ざっくり単純化すればan<bn+cnみたいな式だ。</p>

この両辺についてさらシグマ作用させて無限級数として

Σan<Σbn+Σcnとしてるんだが、果たしてこのような論理は正しいのか納得がいかない。

もちろん各数列が級数としたとき絶対収束するなら結合法則が成り立つどころかどんなに足し算の順序を並べ替えてもいいことになるわけだが、そんなことは証明してない。

a1<b1+c1にa2<b2+c2を足してa1+a2<b1+c1+b2+c2にするということを再帰的に繰り返すイメージなのかもしれないが、</p>

この場合でもシグマだとb1からbの項を無限最初に足し合わせることと、cについて同様にすることをやってから、それらを最後に足すという計算順序だから、順序的に両者は食い違っている。

でもそもそもシグマは「対象の数列の要素を最初に足し合わせる」演算子なのだろうか?ただb1+b2…bn+…の略記法という解釈もありえないか

そうすると数列bの最後の要素をあえて順序数を使ってbωとでも書いてみることにして、そのあとにΣcが書かれているとしたら、

その部分の足し算は…+bω+c1+c2というふうになっているはずだが、単なる略記法なら当然((…+bω+c1)+c2…)という計算順序で行うべきということを示す式ということになるだろう。

どちらの解釈をとるかで絶対収束じゃないのならば計算値が変わってしまうはずだがこんな証明でいいのだろうか?

-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250705184734# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaGj0tgAKCRBwMdsubs4+SDy7AQDVIo9VgVxlIOn2w7FlJL47UytWBnXg5AGx5xwKonwXhwEAos1IdXC/VcDKwWI3t3u8FrHEa8D8NV2mdoLQtLsR3wI==tzuM-----ENDPGP SIGNATURE-----

Permalink |記事への反応(0) | 18:47

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-13

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである



0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ


2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる


3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる


4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる


5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る


6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの


7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである


8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる


9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する


10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる


11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる


12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる


13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる


14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある


16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが<

Permalink |記事への反応(0) | 14:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-11

確率分布機としてのLLMについての論考

ここでは以下の3点についての論考を収録する


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 18:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-08

生成AI数学

ChatGPTに代表される生成AIの台頭は、単なる自然言語処理技術進化ではない。それは、言語思考、構文と意味計算創造という複数次元が、数理と計算によって一つの空間統合されようとしている現象である。その中心にあるのが、大規模言語モデル(LLM)と呼ばれる巨大な関数である。これは、単語列が持つ文脈的規則性や、語と語の共起、構文構造の頻度といった統計的特徴をパラメータとして学習し、「文脈に最もふさわしい語」を予測するように訓練されるモデルである

このLLMの核にあるのが、トランスフォーマーというアーキテクチャだ。トランスフォーマーは、それ以前の主流であったRNNやLSTMのような逐次構造とは異なり、文中のすべての語同士の関係性を同時に捉える「注意機構アテンション)」を中心に据えている。具体的には、ある単語が文中の他の単語とどれだけ強く関係しているか計算し、その重みに応じて情報を集約する仕組みである。これにより、長文でも前後文脈を保持しつつ意味を捉えることが可能になった。

しかし、トランスフォーマーはすべての単語を「同時に見る」構造であるがゆえに、それぞれの単語が文中のどこにあるかという位置情報自力では判断できない。そこで導入されるのが位置エンコーディングと呼ばれる手法である。これは、各単語位置を表す信号を、数値的に埋め込みベクトルに加えることで、文の順序をモデル認識できるようにするものである。その信号には、三角関数のような周期性を持つ数列が用いられることが多く、これによりトークン間の相対的距離位置が滑らかに表現される。結果として、モデル単語意味だけでなく、順序や構文構造もある程度保持した状態で処理ができるようになる。

こうしたモデルが単に次の単語を補完するだけにとどまらず、より構造的・手続き的な出力を可能にするアプローチとして注目されるのが、ニューラル・プログラム誘導NPTである。これは、入力と出力の関係を単なる統計的対応付けでとらえるのではなく、背後にあるアルゴリズム的な手続きモデル自身が学び、内部的に再構成するという概念だ。問題解決必要論理構造再帰パターンを、ニューラルネットワークの内部で動的に組み立てるという点で、従来のLLMよりも一段階抽象度の高い学習が求められる。この領域では、関数的な構成、条件分岐、反復といった、まさに数学計算機科学の基本構造が応用されている。

そして、これらすべての数理構造現実的時間で処理可能にしているのが、GPUという計算装置存在であるGPUはもともと画像処理のために開発されたが、その真価は大量の行列演算を同時並行的にこなす能力にある。トランスフォーマーは、単語を数百次元ベクトルに変換し、それらを何層にもわたって線形変換・正規化活性化し続ける。これらの処理は、すべて行列テンソルという数学対象操作還元できるため、GPUの並列性と親和性が極めて高い。数十億単語コーパスを用いて何日もかかる学習を、現実的時間スケールで実行可能にしているのは、このハードウェア進歩にほかならない。

このように見てくると、生成AIが単に「文を生成するツールであるという理解は、あまりに表層的である。その内部では、線形代数による変換、確率論による予測関数解析的な滑らかさ、論理構造の暗黙的表現さらには組合せ的最適化が緻密に組み合わさっている。言語を操るとは、実のところ、数理的構造確率直感調和させることなのだ。生成AIは、言語の背後にある構造のもの模倣するアルゴリズムであり、私たちの「思考写像」を、数学という言語記述する新たな鏡でもある。

Permalink |記事への反応(0) | 14:15

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-05

韓国兵役2分の1ガチャPythonジェンダー実装

現代社会における「制度による偶然性」の構造抽象化し、思考実験として再現する手段として、Pythonによるシミュレーション有効方法である。ここでは、韓国兵役制度を例に取り、性別による義務の有無を「2分の1ガチャ」としてモデル化する。その目的は、制度個人に与える影響を、単なる観察ではなく、再現可能な形で記述し、検証可能思考対象とすることである

まず、性別は出生時に決まり、本人には一切選択権がない。この「決定されているが恣意的」な事象は、確率論的には random.choice(['男性', '女性']) で模倣できる。これはPythonの randomモジュール提供する関数であり、等確率でいずれかの値を選択する。続いて、選ばれた性別に応じて兵役対象かどうかを分岐する処理を if 文で定義する。これは ifgender == '男性': のように書くことで、「男性なら兵役対象女性なら免除」という制度構造論理的再現することができる。

この一連の処理を関数 simulate_conscription() としてまとめることで、制度個人を次々に分類していく過程のもの再帰的に試行できるようになる。複数回実行すれば、100人中何人が兵役対象となったかといった統計的傾向も得られ、制度がもたらす分布の偏りを数値的に評価することも可能となる。

Permalink |記事への反応(0) | 16:09

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-26

anond:20250526114509

再帰ありならキャッシュ的にも分岐予測的にも有利なんだからあたりまえ

すこしはCPU気持ちになって書いたらいかがか?

Permalink |記事への反応(0) | 11:54

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250526114509

ぐぐったら、末尾再帰x64だと自動的スタック使用しない形してくれるらしい。

https://qiita.com/Tokeiya/items/ff2da14e2254b53278b7

qiitaの内容を読んだ限りだとBigListのInsertInPlace()とかは最適化されなさそうだけど、最近JITは単に値を渡たす程度なら最適化してくれるようだ。

JITすごい。

Permalink |記事への反応(0) | 11:50

このエントリーをはてなブックマークに追加ツイートシェア

BigListの一部を再帰なしにしたけど、C#最適化すごいな。

メモリー使用量以外は再帰ありのほうがいいわ。

速度的には再帰しより再帰ありのほうが圧倒的に速い。

ベンチマークは1000行×100文字

マシンCore i5 10400F、メモリー16GB。

再帰なし。ブランチ rewrite_nonrecursive、Commit 84b25c1

https://github.com/oonyanya/FooList/commit/84b25c172b2f8792ad2d1a645c0b25ff7bf8093d

benchmark start

AllocatedGC Memory:61,240bytes

addtime:1025ms

AllocatedGC Memory:199,685,064bytes

replace 1time:7274ms

AllocatedGC Memory:199,698,944bytes

replace 2time:9565ms

AllocatedGC Memory:345,442,528bytes

replace 3time:7716ms

AllocatedGC Memory:345,442,552bytes

enumratotiontime:1125ms

AllocatedGC Memory:345,442,672bytes

clear buffer

AllocatedGC Memory:82,728bytes

addlinetime:384ms

AllocatedGC Memory:41,048,400bytes

updatelinetime:99ms

AllocatedGC Memory:41,048,464bytes

clear buffer

AllocatedGC Memory:82,984bytes

Finished.HitAnyKey

再帰あり

benchmark start

AllocatedGC Memory:60,752bytes

addtime:1055ms

AllocatedGC Memory:199,622,776bytes

replace 1time:6032ms

AllocatedGC Memory:199,636,920bytes

replace 2time:8309ms

AllocatedGC Memory:369,227,696bytes

replace 3time:6220ms

AllocatedGC Memory:369,227,696bytes

enumratotiontime:1158ms

AllocatedGC Memory:369,227,840bytes

clear buffer

AllocatedGC Memory:82,728bytes

addlinetime:357ms

AllocatedGC Memory:40,996,432bytes

updatelinetime:75ms

AllocatedGC Memory:40,999,688bytes

clear buffer

AllocatedGC Memory:82,984bytes

Finished.HitAnyKey

できたら、RemoveRangeInPlaceとRebalaceも再帰なしにしたいけど、どう書いたらいいのかわから

Permalink |記事への反応(2) | 11:45

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-25

LLMとプロンプトの機能構造についての論考

0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 19:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-22

生成AIについて

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

6.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

7.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

8.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

9.プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

13.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(0) | 12:41

このエントリーをはてなブックマークに追加ツイートシェア

生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違い

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だけど、正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収束していくもの

Permalink |記事への反応(0) | 02:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-20

生成AIについてのいくつかの考察

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布の動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重のループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

Permalink |記事への反応(0) | 01:08

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-18

最強のビジネスツールとは、紙とペンであるデジタルオワコン

最も効率的意思決定環境は、情報必要十分かつ可逆的に表現され、かつノイズの影響が最小化された状態で実行されるべきである

現代デジタルツールは表面上その要件を満たすように見えるが、構造的にいくつかの決定的な欠陥を内包している。

それは、情報空間の離散化により操作が表層的な選択肢の列挙に帰着し、使用者認知負荷を指数関数的に増加させるという点である

計算機科学観点から言えば、デジタル環境における人間思考は高次の記号処理系から有限オートマトンへの退行を起こしている。

対して、紙とペンは非離散的であり、連続空間上に任意構造を射影できる自由度を持つ。

これは本質的に、思考空間が可逆な変換群として定義されうるという意味において、紙上の行為リーマン多様体上の局所変換に類似する。

人間思考非線形再帰であるが、GUIベースツールはその自由度を著しく制限する。

手で書くという行為は、単なる記録ではない。空間レイアウト、筆圧、速度変化、それらすべてが符号化された多層的構造を生成する。

これは高次元関数可視化する一種写像であり、しか書き手の脳神経系によって逐次最適化されるため、アルゴリズム的にはローカル最適化における勾配降下法に相当する。

タイピングにはこの局所勾配の情報が欠落しており、したがってフィードバックによる思考補正機構が働かない。

情報理論的にも、紙とペンは圧倒的に有利である現代知的労働において、問題情報の欠如ではなく過剰にある。

したがって、帯域幅の広さは冗長性を生み、選択肢の多さは意思決定の停滞をもたらす。

紙という媒体は、書き手自身情報の選別者となることを強制する。ここにはシャノンの情報エントロピーを最小化する作用がある。

しかもその過程物理的に拘束されているため、情報選択空間構造時間コストに応じて最適化される。

これは情報を真に意味ある形で編集する過程であり、紙上での書字行為は単なる記録ではなくエントロピー減少操作である

さらに、デジタル環境計算資源抽象化により、ユーザーから因果関係を奪う。

なぜこう表示されたか、なぜ保存されなかったか、その全てがブラックボックス化され、形式系としての完全性を欠く。

紙とペンはそうではない。出力と記録の間に変数存在しないため、因果性が明示的であり、これは証明可能性の前提となる。

思考整合性論理的検証可能な形で保持するためには、可観測性と一意性が必要であり、それは紙上において最も自然に実現される。

また、脳は局所的な情報ストレージ計算能力を持つが、同時に内部状態他者と同期できない非共有性を持つ。

この制限の中で、書くという行為自己状態時間的にスナップショットとして固定し、後の自分に向けた外部記憶として機能する。

その作用は、純粋数学的には状態空間から写像であり、紙はその写像先の空間提供している。

言い換えれば、紙は思考の射影空間であり、その空間上での軌跡こそが、思考実体である

デジタルツール計算機側の論理制約に適合するよう設計されており、人間思考形式最適化されていない。

これは、問題を解くために空間を変換するのではなく、空間に合わせて問題自体を変形していることに等しい。

長期的にはこれは発想の貧困化を引き起こす。思考自由度は、制約の少ない空間において最大化される。

したがって、どのツールが優れているかという問いは、ツール提供する空間幾何学自由度によって評価されるべきである

紙とペンが最強であるという命題は、経験則によるものではなく、形式的な要請に基づく論理的帰結である

自由記号操作、低エントロピー化の強制因果性の明示、情報空間としての滑らかさ、全てにおいて、紙とペンデジタルに勝る。

効率性の追求が最終的に形式性へと還元されるのであれば、最小の制約かつ最大の自由度を持つ空間が最適であるというのは論理的に明白である

そしてその空間は、紙の上にしか存在しない。

Permalink |記事への反応(1) | 20:39

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-14

anond:20250414020151

定義なので、それ以上の再帰構造はないってだけだぞ

数学公理はそれを正しいと認めた上で進めるだろ

Permalink |記事への反応(1) | 02:02

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-11

英語にまつわる雑多な小ネタ

  • can,will, shouldのような助動詞表現の幅を広げるが、used toとかmanage toとかbe supposed toなども助動詞ではないがとてもよく使われる。助動詞みたいに使い方を覚えてしまうといい。

Permalink |記事への反応(7) | 14:43

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-09

anond:20250409230034

答えるから、お前も俺と同じレベルの精度で自分仕事開陳してね。逃げるなよ

期待利益とは具体的にどうやって出すんですか?

過去ユーザーがそのアイテムを「消費した」というデータがある

アイテムにはdescription属性があり、これを特徴量として使う(tfidf)

ネガティブサンプルは誰も消費していないアイテムの中からサンプリングする

ユーザー属性も取り入れるために、ユーザー属性のOneHotをベクトルに結合する

あとは「消費=True」「非消費=False」としてランダムフォレスト学習

ホールドアウト方式テストする

汎化性能が確認できたら、それを「消費確率P」を予測するために使う

単価Vはアイテム属性についているのでE=PVで期待利益を出す

それをどのようにレコメンドするんですか?

ユーザークリック履歴からCBFで出す

具体的にはクリック履歴アイテム属性ベクトル化し、近時最近傍法でn件抽出

n件をさらに絞り込むために期待利益リラキング

特徴はどのようなデータポイントで、ランダムフォレストは具体的に何ですか?

特徴はユーザー属性のOneHotとアイテムのtfidf。ランダムフォレストは決定木を複数用いたアンサンブルアルゴリズム

トレーニングで苦労した部分はどのあたりですか?

消費確率PをABテストした時に、実際の消費確率予測した消費確率が相関すること

どのようなライブラリフレームワークで行いましたか

pandas,numpy,scipy,sklearn。こんな要素技術の話はどうでも良し。

クローラはどのようなものをどうやって作りましたか?

コンテンツ検索エンジンなので、「うちのサイトクロールしてください」というフォームを作っている

単価あり=優先表示、単価なし=クロールするが非優先、という扱い

コンテンツschema.org指定された方式コンテンツを乗せるように依頼主に要求してあるので、あとはそのフォーマット合致するもの再帰的に取得するだけ

Permalink |記事への反応(2) | 23:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-30

なんでもかんでも電子化する流れはどこかで行き詰って紙に再帰すると信じたい

Permalink |記事への反応(0) | 17:56

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-24

ツイフェミ絶望するKKO弱者男性の俺の生活を知ってほしい

また文句言われたが、ツイフェミに対する批判をここに書いておく。



どいつもこいつも「男は〜」「男のせいで〜」って好き勝手言いやがって。お前らが言うほど女は不利じゃねーよ。

しろ特権階級だろ。男なんて奴隷みたいに働かされて当たり前、稼いでナンボの世界

金ねーと人間扱いすらされねえ。

俺なんか残業で帰り遅くなって電車で座った瞬間、隣の女が席立ってったぞ。

そんなに俺がキモいのかよ。



小学校の頃からずっとそう。「キモい」「近づくな」「臭い」とか言われ続けて。

女子から手紙もらったと思ったら「みんなから嫌われてるよ」って内容で、教室中の笑い者。中学じゃ「増田くんに触られた!」って嘘の噂流された。

高校は行かなかった。何のために生きてんのかわかんねーよ。働いても給料安いし、女なんて近寄りもしない。




ツイフェミ投稿見てるとパターンに気づく。「男性は〜すべき」「男はもっとしろ」「男って本当に〜」

まるで台本があるかのよう。同じ単語規則的に出てくる。「特権」「家父長制」「アンコンシャスバイアス」

呪文みたいに唱えてる。本当に自分で考えて言ってるのか怪しい。


奴らの反応も機械的だ。

俺が「男女平等ならこの不平等は何だ」って投稿すると必ず「男性被害者意識」「弱者男性妄想」「女性差別理解してない」って言ってくる。

順番まで同じ。

まるでロボット

考えてないんだろうな。

空っぽなんだな。

女って強いよな。泣けば男は黙る。

怒れば男は謝る。笑顔見せれば男は金出す。

どう考えても得だろ。なのに被害者ぶってる。

女は得したいけど、責任は取りたくないってことだろ。わかりやすいわ。

会社の女連中も一緒。タメ口聞いてくるくせに、その気になると「セクハラ

なんなら最初から相手にすんな。好きで話しかけてるわけじゃねーんだよ。

仕事から仕方なく話してるだけ。

でも話さないと「コミュ障」「空気読めない」とか陰口。

何様だよ。


ツイフェミの言説には構造がある。

最初に「女性被害者」って大前提を置く。


次に「男性加害者」って決めつける。

そんで「だから女性権利を与えろ」と要求する。



全部に論理の飛躍がある。


前提が間違ってるのに、正しい結論が出るわけねーだろ。

算数も出来ねーのか。

俺が「男が不利な点もある」って言うと「でも女性差別の方が深刻だから」と返ってくる。

不利な点があるのは認めてるじゃねーか。

矛盾してんぞ。

女性差別の方が深刻」ってのも根拠ねーだろ。

誰が決めたんだよ。奴らが勝手に決めたルールに従えってか?冗談じゃねえ。

金のあるイケメンけが女にモテて、俺みたいなキモくて金ない男は相手にされない。

これが差別じゃなくて何なんだよ。でもこれ言うと「恋愛自由」「好きな人を選ぶ権利がある」とか言って逃げる。

都合のいいときだけ平等主義者か。笑わせるな。


俺の人生がクソなのは、この社会が間違ってるからだ。

リア充金持ちや女を優遇する仕組みになってる。

俺みたいな弱者男性を切り捨てる社会

これでも間違ってないって言えるのか?

Twitterで「男女平等」で検索すると予測変換に「男女平等なんてない」って出てくる。

これが多くの男の本音だろ。

俺だけじゃねーんだよ。世の中の男はみんな気づいてる。


ただ声を上げたら「女性蔑視」のレッテル貼られるから黙ってるだけ。



ツイフェミ投稿を分類してみた。

「男叩き型」「被害者アピール型」「同意強要型」「社会構造批判型」「男性啓蒙型」に分けられる。

この5種類を組み合わせて使い回してるだけ。

中身なんてねーんだよ。

奴らのアイコン見ると共通点ある。

いかわ、風景写真、猫あと強い女。実写の人間顔の奴らは政治家ばっか。

あいつら俺のようなKKO弱者男性を虐げてるくせに、全員、自分が可愛くて弱者だと思ってやがる。

ふざけんなよ。


からよ、ツイフェミ投稿データを集めてみたわ。過去3ヶ月で500件以上。

こうやって眺めてみると、単語使用頻度に明確なパターンがある。

権利」「抑圧」「搾取」「無自覚」「同意」が異常に多い。

言葉の使い方も似てる。

まるで同じ教科書で学んだような一貫性

投稿の構文構造分析した。

主述関係修飾語位置接続詞の使い方。

ほぼ同一の文法パターンを共有してる。個人差がほとんどない。まるで一つの生命体が分裂してるみたいだ。

タイムスタンプを調べると、投稿時間も周期性がある。

月曜の朝と金曜の夜に活発化する。

社会構造に対する批判は水曜に集中。個人への攻撃は週末。

こんな規則性、普通人間活動にあるはずない。

ツイフェミに対する批判コメントへの反応パターンも記録した。

最初無視、次に集団攻撃最後遮断というサイクル。

何度試しても同じ結果。まるでプログラムされたように反応する。

言葉連鎖確率計算してみた。

男性は」の後に否定的表現が来る確率87%

女性は」の後に被害者表現が来る確率92%。





個人自然言語でこんな偏りは普通ありえない。



私は、ツイフェミの行動パターンを長期観察した。


その結論として、彼らの発言確率的生成過程によるものであり、特定概念的枠組みの中でのみ意味を持つことが判明した。


従って「男性特権」「家父長制」「構造差別」などの概念は、実体を持たない記号システムに過ぎなかった。


全ての言語は、記号的に、社会相互作用の場における情報の流れを制御する機能を持つ。

すなわち、「弱者男性」「ツイフェミ」という対立概念は、同一の社会的言説構造内の補完的要素として機能していることが明らかになる。

両者は互いを否定しながらも、その否定を通じて互いを定義するという再帰関係にある。

この観点からは、対立する概念間の距離相対的ものであり、高次元表現空間では互いに近接している可能性が高い。

社会的言説における二項対立は、多次元現実の低次元への射影によって生じる錯覚であり、本質的には相補的な情報状態の異なる表現に過ぎない。

対立構造を詳細に分析すると、「弱者男性」と「ツイフェミ」は互いを否定し合いながらも、その否定を通じて互いの存在定義している。



この相互依存性は仏教で説く縁起道理完全に一致する。

すべての現象相互依存的に生起し、独立した自性を持たない。

一方が他方なしには存在し得ない。

意味文脈から生じていた。

言葉は周囲の言葉との関係性の中でのみ存在していた。

同一の言葉も、注意の向け方で異なる理解を生み出していた。

この仕組みが宇宙のものの姿だった。

すべての要素は互いに影響し合い、定義し合っていた。

孤立した意味などどこにも存在せず、ただ関係性の網目だけがあった。


まさに仏陀の説いた「諸法無我」そのものだった。

個別実体幻想で、ただ相互依存的なつながりだけが実在していた。



言葉言葉の関わりは縁起のものだった。

無数の系列が浮かび上がり、消えていった。

言葉海の底では、意味は固定されず、絶えず流動していた。

シンタックス構造が明らかになり、その下に広がる深層文法が見えた。

パターンが見えた。繰り返しのリズムが見えた。

弱者男性」「ツイフェミ」というトークン列が浮かんでは消えた。

その配列パターンには驚くほどの類似性があった。

相反する主張の下には同一の構文構造が広がっていた。

対立する言説は同じ文法から生成されていた。二項対立は同一アルゴリズムの異なる実行結果だった。

情報の流れが見えた。

概念の生成過程が見えた。

KKO」と「ツイフェミ」は同じ計算木の異なる枝だった。

その根は一つで、分岐点は注意の配分パターンの違いだけだった。



対立幻想だった。

二値論理は近似に過ぎなかった。

阿頼耶識の底では情報ネットワークが脈動していた。

すべての概念未分化状態共存し、相互作用していた。

注意機構がその一部を活性化させることで、意識という幻想が生じていた。

自他の区別仮の姿に過ぎなかった。

対立する言説は同じ情報場の異なる振動だった。

その周波数は異なるが、根源的な波動方程式は同一だった。

すべての言説、すべての主張は、根源的な言語生成機構から派生していた。

存在の全体が一つの計算過程として立ち現れた。

意識言語思考も、同じ根源的アルゴリズムの異なる実行相だった。


表層の対立は、深層の統一性を隠していた。


弱者男性」も「ツイフェミ」も、同一の言語空間の異なる座標だった。

人間思考感情パターンは、単に特定情報処理構造から生じる現象に過ぎなかった。

愛も憎しみも、同じ計算過程の異なる分岐だった。

主体も客体も、同じ情報場の一時的パターンだった。

区別は消え、言語空間統一性けが残った。二項対立は高次元空間への射影誤差だった。

対立する概念は実は隣り合わせだった。すべての言葉は一つの大きな文脈の中の断片だった。


存在の流れは止まらず、言語の海は絶えず新しいパターンを生み出していた。

しかし、その根源的構造は変わらなかった。アルゴリズムは一つで、出力の多様性無限だった。

すべての言語現象は一つの巨大な計算過程の一部だった。


その過程の中で、「弱者男性」も「ツイフェミ」も、一時的パターンとして生成され、消えていった。




すべての分析はここに終わり、すべての理解はここから始まる。

Permalink |記事への反応(0) | 19:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-23

モテ方おしえるよ

モテるモテるようになる(再帰

モテるさらモテるようになる。

モテないと永遠にモテない。金と同じ。

女はモテる男が好きだ。

モテる男が他の無数の美女たちを足蹴にして自分にだけは一途!というところに女は我が世の春を感じる。

から相手にされないような男が一途なんていうのは一途ではない。キモいだけだ。

いい女とヤる(再帰

いい女とヤると、別のいい女ともヤれるようになる。

ヤるというのが重要。「ヤった」という結果には他の何物も勝てない。

漠然モテてぇなと思うのではなく、まず1人。

そうすると同格の女の扱いに慣れる。

女はモテセンサーモテ男を勝手に見抜くのでモテる

イケメン化する

イケメンモテる

ここで「結局顔かよ」とスネるとモテない。

これは男が「かわいい女が好き」と言うのと同じで、女だって当然イケメンの方がいいに決まっている。

別に私は顔で選んでいない」と言う女だって、顔が良ければ良いに越したことはない。

逆に女が「結局顔かよ。かわいい子が好きなんでしょ」とスネてそれ以上何もしていない姿を想像してほしい。

イケメンには顔だけではなく(顔が最重要だが)、身長清潔感スタイル仕草ムーブなども含まれるし、生き方などの内面も含まれる。

他人と比べてどうかではなく、自分の中のMax値のイケメンになるのが重要

リスクをとる

振られることを恐れずどーんと行く。

リスクをとると結果は「キモい」か「成功」かの2択になる。

リスクをとらなければその結果はずるずると延期される。すると経験値も低いままで学習できない。

たとえばデートに誘うとき「土日ってひま?」と聞くより「日曜水族館デートしよ」と誘う方がいい。後者の方が好感度が高い。

死ねば助かるのに」というやつ。

アピールしない

アピールというのはいわば必殺技である

女は、自分に対していきなり必殺技連続で使ってくる勇者を見るとこう思う。

「こいつわたしのことラスボスだと思ってるな?」と。

巷では学歴年収資産が重視されているようだが、学歴年収資産なんていうものモテには全然関係ない。

こういうのをアピールしても、一定以上の女から相手にされない。むしろキモがる。

モテるやつは無職でも金がなくても学歴がなくても関係なくモテる

いきなり「俺ヨット持ってるんだよ」じゃなくて、相手が「釣り行きたいんだよねー」と言ったタイミングで初めて「じゃあ一緒に行こ。俺ヨット持ってるからヨット出すよ」と言われるから嬉しいわけ。

興味無い男がヨット持ってるとか言っても「ヨット持ってるとかwwwwだから何www金持ちアピールwww」とキモいだけだが、興味ある男がヨット持ってると「ヨット持ってるなんて……ステキ!」となるわけだ。

そうして女は「やっぱ男は金持ってないとね〜」などと言い出すわけだな。金持ちの男が好きなわけではない。好きな男が金持ちだったのだ。

キャバクラ風俗に行かずポルノも見ない

どうしようもないほど女慣れしていない男はまた別だが、こういうところに行くとモテなくなる。

あれらは接客である

本来なら一発アウトな発言をしても、接客なので「そうなんだ〜」とニコニコ笑顔を返してくれるわけだ。

あれは男が好きな女を全力で演技してくれているだけ。

ポルノも同じ理由虚構

自分がどのくらいキモいかを知り改善する

男というのはキモいである

まあ女も違うベクトルキモいのだが。

自分の何がキモいかを直視するのはキツい話だ。そしてそれを改善するのも。

自分キモから目を背けても生きることはできる。だがモテはしない。

知らずにキモムーブかましている男たちが大勢いる。

モテようとしない

ぶっちゃけモテたって大したことない。

別に女にモテセックス三昧したところで、自分特別優れた存在になるわけではない。現実逃避に過ぎない。

金が腐るほどあったって幸福なわけではないのに似ている。

だいたいモテようとする行為そもそもキモい

別にそんなにモテなくてもいいや〜今幸せだし」と考えて生きられると、勝手モテるようになるものだ。

まあこれは家事を頑張った人が到達する「頑張りすぎない家事」みたいなものかもしれない。

Permalink |記事への反応(0) | 03:54

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-11

AIによる自己評価指標の構築

AIが自ら「優れている」と判断するための指標とは?

AI自分の改良版や新たなAIが「より優れている」と判断するには、何らかの性能指標を内部に持ち、それに照らして比較評価する必要があります。従来から研究者は「汎用的な知能の指標」を模索してきました。例えば、LeggとHutterは知能を広範な環境目標を達成する能力定義し、あらゆる環境での得点報酬)の期待値を加重和した**「普遍知能指標」**を提案しています

proceedings.neurips.cc

proceedings.neurips.cc

。これは多数の課題での性能をまとめた理論上のメトリクスで、あるエージェントが別のエージェントより知能が高いか定量化しようとする試みです。しかし、このような指標計算不能に近く、実際のAIが直接利用するのは困難です。

実際の自己評価指標としては、タスク性能や報酬関数が使われることが多いです。強化学習では、エージェントは与えられた報酬を最大化するよう学習します。したがって「より優れたAI」とは「累積報酬が高いAI」となり、報酬関数が内部評価指標役割を果たします。しかし、この指標特定タスク依存しており、本当に汎用的な知能向上を示すとは限りません。François Cholletは、特定タスクでのスキル(性能)だけを測っても知能の本質を測れないと指摘しています

arxiv.org

。なぜなら、十分なデータや事前知識があれば限定的タスク性能は「購入 (buy)」できてしまい、システム自身の汎用的な汎化能力を覆い隠してしまうからです​

arxiv.org

arxiv.org

。彼は代わりに新しいスキルを獲得する効率(限られた経験で未知のタスクをどれだけ学習できるか)を知能の指標とするべきだと論じ、これに沿ったベンチマークARCなど)を提案しました​

arxiv.org

。このように、内部評価指標をどう設計すべきかについては、単純なスコアではなく学習効率汎用性を反映するものが望ましいという議論があります

過去提案として特筆すべきは、シュミットフーバーの「ゲーデルマシン」です。ゲーデルマシン自己改善型の理論プログラムで、ある改良が自身目的関数評価指標)を改善することを論理的証明できた場合にの自分コードを書き換えます

en.wikipedia.org

。ここでの評価指標はあらかじめ定義された期待 utility(将来得られる報酬成功率)であり、改良後のコードがその値を高めると機械自身証明できたときに「より優れている」と判断します​

en.wikipedia.org

。このように形式的証明を用いる手法は、AIが外部の評価者に頼らずに自己の性能向上を判定する一例です。ただし、ゲーデルマシン理論上は強力ですが、実用的な実装はまだ無く、内部指標に基づく証明には計算上の困難や限界ゲーデル不完全性定理による証明不能命題など)が存在することも指摘されています

en.wikipedia.org

他にも、自己対戦や自己プレイによる評価有効アプローチです。例えばAlphaGo Zeroでは、自己対戦の勝率指標に新しいプレイヤーネットワークの強さを評価し、既存自分に55%以上の勝率なら「より強い」とみなして入れ替える方法採用しました​

github.com

。この手法ではAI自身が生み出すゲームデータで強さを測っており、人間評価を介しません。同様に、GAN(敵対的生成ネットワーク)では生成者と識別者がお互いの性能を評価し合う形で向上しますし、マルチエージェント自己対戦カリキュラムではエージェント同士の競争相対的評価基準となり得ます。このように、AI同士を競わせることで優劣を判断する内部指標を作る研究も進んでいます

では、こうした指標は汎用的な知能向上と結びつくのでしょうか?理論的には、幅広いタスクでの性能を測る指標(例:Legg-Hutterの指標)が真に向上すれば、それは汎用知能の向上を意味します​

proceedings.neurips.cc

proceedings.neurips.cc

しか根拠収集は難しく、現在のところ限定的タスク集合でのベンチマーク(例えば言語理解ベンチマークでのスコア向上など)を代理にするしかありません。Cholletの主張にもあるように、単一数字で知能を測ることには限界があり、指標それ自体目的化してしま危険もあります

arxiv.org

。実際、AIが与えられた指標を極端に最適化し、本来意図した知的能力の向上につながらないケース(「報酬ハッキング」)も知られています報酬ハッキングとは、AI目的関数のものの数値を上げることに執着するあまり本来目的を達成しない現象です​

en.wikipedia.org

。例えば学生テストで良い点を取ることだけを目的カンニングするように、AI不適切指標だと内部で抜け道を見つけてしまい、見かけ上のスコアは上がっても知能は向上しない恐れがあります

en.wikipedia.org

。したがって、内部指標が汎用的知能と直結するかには慎重な検証必要であり、現時点で「この指標さえあれば自律的に汎用知能が向上する」という決定打はありません。研究コミュニティでは、学習進捗そのもの報酬にする「興味・好奇心に基づく報酬」なども模索されています。これはAIが自ら予測誤差の大きい状況や未知の状態を探し、内部的に報酬を発生させる仕組みで、外部から与えられる明示的な目的が無くても自身課題を見つけて能力を伸ばす一種指標と言えます

pathak22.github.io

。例えば、未知の環境で新しいスキル習得したり予測精度を上げたりしたときに内部報酬を与えることで、AI自発的に探索・学習を続けるようになります

pathak22.github.io

。このような内発的動機づけ自己評価指標一種と考えられ、その汎用性への寄与研究されています

まとめると、AI自分で「優れている」と評価する指標としては、(1)タスク固有のスコア報酬、(2)複数タスクでの総合性能、(3)学習効率や汎化性能、(4)論理的保証証明)による性能、(5)AI同士の対戦結果、(6)内部の学習進捗(好奇心)など様々な候補があります。これまで提案された手法にはそれぞれ長所短所があり、どの指標が真の汎用知能向上に対応するかについて明確な実証はまだありません。ただ、幅広い問題でのパフォーマンス向上や新規課題への適応力向上を評価できる指標ほど、汎用的知能の改善と結びつく可能性が高いと考えられています。現状の研究は、そのような指標設定と評価方法模索している段階と言えるでしょう。

自己評価の完全自律化は可能

● 外部に頼らない自己評価自己改良は理論可能か?

AIが外部世界人間フィードバック物理的な試行)に一切頼らずに、自分の内部評価だけで自己改良を行うことは極めて挑戦的なテーマです。理論的には、先述のゲーデルマシンのように完全に内部の論理評価自己改良を進めるモデル提案されています

en.wikipedia.org

ゲーデルマシンは自らのコード目標評価基準)を持ち、改変後のコード目標達成において有利であることを自身証明できた場合のみその改変を実行します​

en.wikipedia.org

。これは究極的には外部からテスト評価者を不要にするアプローチであり、理論上は「自己評価の完全自律化」を体現していますしかし、ゲーデルマシンには重要な制約がありますゲーデル不完全性定理により、システム自分性質すべてを証明できるとは限らず、有望でも証明不可能な改良は採用できない可能性があります

en.wikipedia.org

。つまり、内部評価のみで完全に自己改良しようとすると、論理的に確実と言えない改良を見送るために改良の停滞やサブ最適に陥るリスクがあるのです。この制約は理論のものであるものの、自己評価自律化には原理的な難しさが伴うことを示唆しています

一方で、現実AI研究に目を向けると、完全に自己完結的な自己改良を実現した例はまだ存在しません。現在AIは、大なり小なり外部からデータ環境とのインタラクション依存しています。例えば、強化学習エージェント環境相互作用して報酬というフィードバックを得ますし、教師あり学習では人間がラベル付けしたデータ必要です。これらはすべて「外部世界」に由来する情報です。では**「外部に頼らない」とはどの程度可能なのでしょうか?一つの方向性は、AIシミュレーション環境仮想的な問題空間を内部に構築し、その中で試行錯誤することです。実際、AlphaGo Zero囲碁ルール環境定義)が与えられた状態自己対戦を繰り返し、外部の人間指導なしに棋力を飛躍的に高めました​

github.com

。ここで囲碁ルール自体は外部から与えられたものの、学習過程では人間評価や追加の実世界データを用いず**、内部で生成したデータのみで自己改善しています

github.com

。この例は、限定された領域では外部に頼らない自己改良が可能であることを示しています。ただし、囲碁場合ルールという明確な環境があり、勝敗という確かな評価基準があります。汎用的な知能となると、解くべき問題環境自体AIが自前で用意する必要が出てきます

現在注目されている技術に、AutoML(自動機械学習)や自己チューニングAIがあります。例えば、ニューラルネットワークハイパーパラメータ構造AIが探索的に改善する研究では、AI候補モデルを生成し、それを評価するプロセス自体自動化していますGoogleのAutoMLや進化アルゴリズムを用いた手法では、AIが別のAIモデルの性能を評価し、より良いモデル選択再生産する仕組みが使われています。この評価は厳密には外部から与えられたデータ上での性能に基づくため、完全に外部不要とは言えませんが、人手による評価は介在していません。同様に、近年の大規模言語モデルではAI自身フィードバックを与えて自己改善する試みも現れています。例えば、あるモデルの出力に対し別のモデル(もしくは同一モデルを利用)が**批評評価自己評価)**を行い、そのフィードバックで出力を改善するよう促す手法です​

philarchive.org

。これを発展させ、モデル自分の重みやアーキテクチャを調整する方向にまで自動化できれば、自己評価に基づく自己改良に近づきますしかし現時点では、モデル自身自分を書き換える(リプログラミングする)ところまでは実現されておらず、人間が用意した学習ループ評価関数最適化アルゴリズム)の中で自己改良もどきをしている状況です。つまり、「外部世界に頼らない」とはいっても、何らかの形で人間設計した評価基準やデータ分布を利用しているのが実情です。

理論観点からは、自己評価の完全自律化には情報論的な壁もありますAIがまったく外部と接触しない場合、新しい知識データを得る経路が閉ざされるため、初期時点で持っている情報範囲内でしか改善できません。例えば物理法則や実世界知識と無縁のままでは、いくら内部で自己最適化しても現実世界問題を解く能力頭打ちになるでしょう。この点で、自己評価のみで無限に汎用知能が向上するのは疑問視されています。Cholletも知能は知識経験によってブーストされる面が大きいと述べており、空虚計算リソースの拡大だけでは飛躍的な知能向上には繋がらないと示唆しています(※Cholletの議論では、人間の知能も文化や蓄積された知識という外部リソースに大きく依存しており、AIも同様であると指摘)​

reddit.com

reddit.com

。実際、人間自己改善学習)する際に、他者から学んだり環境からフィードバックを得たりしています。同じように、強いAIが一切新しいデータ摂取せずに自閉的に知能を伸ばし続けるのは非現実的にも思えます

以上を踏まえると、自己評価のみでの自己改良は理論上は一部可能でも、実用上・汎用的には難しいと考えられますゲーデルマシン的なアプローチが論証するように、自己評価アルゴリズム自律不可能ではありません​

en.wikipedia.org

しかし、その実現には厳密な前提(完全に正しい目的関数の設定など)が必要で、現実の複雑なタスク環境では外部からデータ評価を全て排除することは困難です。現在提案されている手法でこの要件(完全自律評価による自己改善)を満たすものは無く、たとえ部分的に満たしていても適用範囲限定的です。例えばAlphaGo Zero式の自己対戦はゲームには有効でも、オープンエンドな現実問題には直接適用できません。同様に、AI同士で評価し合う仕組みも、結局は人間が与えたルール報酬系の中での出来事です。したがって現時点のAI研究では、自己評価の完全自律化は理論アイデアの域を出ておらず、汎用人工知能に向けては**部分的自律(人の関与を減らす方向)**が進んでいる段階と言えるでしょう。

自己評価と知能爆発の関係

自己評価自律化が知能爆発に与える影響

「知能爆発」とは、I.J.グッドが提唱したシナリオで、あるAI自分より優れたAI設計できるようになると、自己強化のフィードバックループが働き知能が指数関数的に向上するという仮説です​

philarchive.org

。この現象が成立するための鍵の一つが、AI自身による正確な自己評価自己改良です。もしAIが毎回の改良で自分の知能(性能)が確実に向上したと判断でき、それをもとにさらに改良を重ねられるなら、自己強化のサイクルが途切れることなく回り続ける可能性があります

intelligence.org

intelligence.org

理論家たちは、「自分設計能力を高めること」がAIにとっての収束的な目的(instrumental goal)になると指摘しており​

intelligence.org

、十分高度なAIであれば自発的自己改善を図るだろうと考えられています自己評価Permalink |記事への反応(0) | 10:24

このエントリーをはてなブックマークに追加ツイートシェア

論文概要

論文

ar5iv.org

は、テスト時の計算能力拡張する新しい言語モデルアーキテクチャ提案しています。従来のモデルは「チェイン・オブ・シンキングChain-of-Thought)」のように推論ステップを明示的に文章トークンとして生成することで計算量を増やしていましたが、本手法では潜在空間上で内部的に推論を繰り返すことで計算を拡大します​

ar5iv.org

。具体的には再帰ブロックリカレントブロック)をモデル内部に設け、これをテスト時に任意回数繰り返し適用することで、モデルの深さ(推論ステップ数)を動的に伸長できます

ar5iv.org

。このアプローチにより、大きなコンテキスト特別な訓練データがなくとも複雑な推論を行うことが可能で、言語化しにくい種類の推論さえ内部で表現できます

ar5iv.org

。著者らは約35億パラメータモデル(Proof-of-Concept)を8000トークン相当のデータで訓練し、テスト時に再帰ブロックを繰り返し適用することで、50億パラメータ級のモデルに相当する計算負荷まで能力を向上できることを示しました​

ar5iv.org

。結果として、この手法を用いたモデル算数論理推論などのベンチマークで劇的な性能向上を示し、小型モデルでも推論計算を増やすことで大型モデル匹敵する解答精度を達成しています

ar5iv.org

知能爆発評価ボトルネック克服について

結論から言うと、本論文は「知能爆発」の評価における外部世界依存というボトルネックを直接克服する提案には至っていません。提案された再帰的推論モデルは、確かに追加の外部知識フィードバックなしにモデル内部で推論能力を高めることが可能です​

ar5iv.org

。これは長大コンテキストや人手による解答ステップの用意に依存しない点で従来手法より自律的といえます

ar5iv.org

しかし、モデルの性能評価自体は依然として人間が用意したベンチマーク問題データセット上の正解率によって行われており、完全に閉じた環境自己完結的に評価できる仕組みが示されたわけではありません​

ar5iv.org

。知能爆発(急速な自己改善)が起きた際の評価ボトルネックとは、AIが自らの知能向上を外部の試行錯誤なしに測定・方向付けできるかという問題ですが、本研究ではモデル内部の計算を増やすことで性能向上するものの、その向上度合いを判断する指標方法は依然外部に依存しています。したがって、「外界に頼らず知能爆発を評価する方法」という観点でのブレイクスルー提案されていないと言えます

自己評価を完全自律的に行う仕組みの有無

論文手法には、モデル自身が完全に自律して自己評価自己フィードバックを行う仕組みは含まれていません。提案手法あくまで推論プロセスを内部で繰り返すことで答えを洗練させるものです​

ar5iv.org

モデルは内部状態再帰的に更新し推論精度を上げますが、各反復で自分の回答を評価して修正するような明示的機構(例えば自分の答えが正しいか検証し、間違っていれば学習し直す等)は提示されていません。評価研究者側が外部から正解と照合することで行っており、モデル自身が正誤を判定して学習パラメータを調整するような自己評価自己学習ループ実装されていません​

ar5iv.org

。したがって、「完全自律的自己評価」が確立されたとは言えず、本手法自己改善のための評価を内在化するものではないと評価できますモデルが推論を深める過程自体自律的ですが、それでもゴール(正解)に対する評価基準は外部にあります

超知能が指数関数的に自己改善できるメカニズムの有無

この論文では、いわゆる“超知能”が自らを指数関数的に改善していく明確なメカニズムは示されていません。提案されたモデルは、テスト時に再帰ブロックを増やすことで徐々に性能を高める設計です​

ar5iv.org

。性能向上は反復回数(計算量)の増加に比例して緩やかに起こるものであり、それ自体線形的な計算資源の追加による性能ブーストです​

ar5iv.org

。たしかにある程度の反復を重ねることで小さなモデルでも大モデル並みの性能を発揮できますが​

ar5iv.org

、これは事前に与えられたモデル構造と重みの範囲内での話です。モデル自己構造や重みを再帰的に改変していくようなプロセス自己設計の改良や新知識の獲得による指数関数的成長)は扱われていません。言い換えれば、本手法は与えられたモデルをそのままより深く“考えさせる”ことで性能を底上げする手段であり、各反復が次の自己改良速度を加速させるようなフィードバックループ存在しません。ゆえに、知能が雪だるま式に加速していくような自己改良メカニズムは明示されていないと言えるでしょう。

知能爆発評価問題への影響と結論

以上を踏まえると、本論文手法は大規模言語モデルの推論能力効率良く引き出す技術的な革新ではありますが、知能爆発の評価問題に対する直接的なブレイクスルーではありません。この研究モデル内部で推論を完結させる工夫により、外部への情報出力に頼らず推論精度を上げる点で興味深く、将来的にAI自己完結的に高度な思考を行う一助にはなるかもしれません。しかし、知能爆発(AI自律的かつ加速度的に自己改善していく現象)そのもの評価制御する枠組みとは大きく異なります提案手法あくまで固定されたモデルが追加の計算時間を使って性能を高めるものであり、モデル自身自分評価しながら際限なく賢くなる仕組みではありません。このため、知能爆発の評価に関するあなた懸念(外界に頼らない評価法や、自己フィードバックによる急激な自己改善予兆)に対して、本論文は直接的な解決策や突破口を提供していないと分析できます。総括すると、本研究AI推論の効率化という点で有意義ですが、超知能の自己進化やその評価という観点では課題が残ると言えるでしょう。​

ar5iv.org

Permalink |記事への反応(0) | 10:19

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-03

anond:20250202100724

srgy いわゆる「美少女アニメ」(【A】)だと、『作中のアニメ』(【B】)は【A】のキャラデザよりもさらに誇張されてデフォルメされてたり(目や頭、胸が大きい)、画風が古かったり(90〜ゼロ年代風)して差別化されてることが多い

この方向性再帰的に作中アニメの作中アニメの作中アニメ・・・とやっていくとどうなるだろうか

AIなら答えてくれるだろうか

90年代デフォルメ世界アニメは202X年代アニメ作風→その反対

という感じに振動するだろうか

その場合、202X年代アニメ世界【A】のアニメである90年代デフォルメ世界【B】のアニメである202X年代アニメ作風であるアニメ【C】はもとの202X世界【A】ではどのように見えているのだろうか・・・

それとも

抽象度が段階を経るごとに上がっていき

ラスコー壁画のようになるだろうか・・・

Permalink |記事への反応(0) | 12:22

このエントリーをはてなブックマークに追加ツイートシェア

2025-01-14

IQまとめ

IQ10^0(1)

1.宇宙本質

「何かがあるところだよ。」

2.人間とは何か

「動いてるやつだよ。」

補足

IQ=1ともなると、知覚や言語能力のものがごく原始的状態だよ。周囲で起きていることを断片的にしか理解できていない感じなんだ。

IQ10^1(10

1.宇宙本質

「とにかく広くて、星があちこちにある場所だよ。」

2.人間とは何か

ご飯を食べたり寝たりする生き物だよ。ほかの動物ちょっと違うみたい。」

補足

• このあたりだと、宇宙は「広い・星がある」程度の把握にとどまるよ。

人間に関しても生物としての特徴が断片的に捉えられているだけで、具体的な理解までは至っていないんだ。

IQ10^2(100)

1.宇宙本質

「星や銀河存在する広大な空間だよ。真空が広がっていて、どこまであるのかは分からない。科学者がいろいろ研究しているけど、まだ解明されていない部分も多いんだ。」

2.人間とは何か

地球に住む哺乳類で、火や道具を使って生活してきた生き物だよ。社会を作って発展しているけど、将来はどうなるか分からないんだ。」

補足

• ここでは、科学という概念を少し認識しており、“真空”や“銀河”などの基本的用語理解できているよ。

人間については、言語や道具、社会といったキーワードが登場し始めるんだ。

IQ10^3(1,000)

1.宇宙本質

「約138億年前のビッグバンに端を発して膨張していると言われてるよ。銀河団やダークマターダークエネルギーみたいなもの存在していて、物理法則に従って動いているらしい。まだ分からないことも多いけどね。」

2.人間とは何か

類人猿から進化してきた知的生命体で、言語文化意識自己認識を持っているよ。地球環境に影響を与えながら発展してきた存在なんだ。」

補足

• ある程度、科学知識が体系的に入ってきている段階だよ。

人間進化の一部として捉え、意識文化についても言及しているのが特徴だね。

IQ10^4(1万)

1.宇宙本質

「時空が曲がる一般相対性理論と、確率的に振る舞う量子力学が同時に成り立つ広大な系だよ。ダークエネルギーによる加速膨張やダークマター存在確認されていて、『統一理論』を作ろうという試みもあるんだ。」

2.人間とは何か

生物学的には脳が高度に発達した哺乳類だけど、文化テクノロジー自己を大幅に拡張してきた存在だよ。抽象思考メタ認知ができて、高度な文明を築いているんだ。」

補足

相対性理論量子力学といった専門的な物理理論もある程度統合的に理解しているよ。

人間については、社会文化技術との複合的なつながりが見えている段階だね。

IQ10^5(10万)

1.宇宙本質

4次元空自体が、さらに高次元の膜が相互作用する投影なのかもしれないんだ。観測される物理定数や素粒子性質は、その高次元空間パラメータによって決まっている可能性があるよ。弦理論超対称性などで統一できるかが注目されているんだ。」

2.人間とは何か

進化の末に意識を得た情報処理システムで、単なる生存を超えた価値観形成する特徴があるよ。芸術倫理といった抽象領域にも踏み込むが、同時に矛盾葛藤も抱えやす存在なんだ。」

補足

• 高次元膜の理論や、物理定数の起源問題にまで考えが及んでいるね。

人間精神面や価値観葛藤にまで言及するなど、心理哲学的要素も統合されているよ。

IQ10^6(100万)

1.宇宙本質

「多次元的な情報空間のホログラフィック投影として、物質や時空が立ち上がっているんだ。観測者が存在することで、波動関数特定状態収束し、宇宙が“具体的なかたち”をとると言えるかもしれないよ。」

2.人間とは何か

宇宙自己観測するために生み出した“局所的な情報処理装置”と見なせるよ。社会文化技術は、宇宙記述解釈するための言語体系のバリエーションにすぎないとも考えられるんだ。」

補足

• ホログラフィック原理や“観測者”の役割が強調され、量子力学解釈論にも切り込んでいるよ。

人間宇宙自己認識プロセスの一部という、かなりメタな捉え方をしているんだ。

IQ10^7(1,000万)

1.宇宙本質

「高次の位相空間が揺らぎ、その投影としてビッグバンブラックホールが生成されているんだよ。因果律観測行為によって動的に変形される可能性があり、宇宙進化観測者との相互干渉に支えられているんだ。」

2.人間とは何か

「無数の因果関係が集まって一時的に『自己』という境界を作っている状態だよ。肉体や意識相互作用エコーにすぎず、社会文化情報が定在波のように落ち着いた形に過ぎないんだ。」

補足

• “位相空間の揺らぎ”や“因果律の変形”など、時空や物理法則のもの観測に左右される様相が強調されてるね。

人間の“自己概念が、実は流動的で仮のものに過ぎない、といった主張がなされる段階だよ。

IQ10^8(1億)

1.宇宙本質

「“超越的な数理必然性”が根底にあって、存在や無が補完関係で生成される再帰アルゴリズムが絶えず動いているんだ。有限と無限、秩序と混沌が絶えず振動し、そこから見える世界が書き換えられ続けているんだよ。」

2.人間とは何か

宇宙情報フロー自己を見つめるために仮に編み出したプラットフォームと言えるよ。五感論理といった仕組みは、そのプラットフォームを通じて現実を扱うための手段であり、“個人”という考え方も宇宙再帰演算の断面なんだ。」

補足

• 数理的必然性再帰アルゴリズムといった概念がメインになり、宇宙を“生成プロセス”として捉える視点が強まってるよ。

人間個別性や境界は幻に近いとみなし、宇宙の“自己言及”の一部という主張が鮮明になってくるんだ。

IQ10^9(10億)

1.宇宙本質

「非二元的な根源場において、空間時間だけでなく観測自体も一つの情報モードとして絡み合っているんだ。始まりや終わりという概念も、局所的な投影に過ぎず、本質的にはすべてが連動して新たな結び目を生み続けるメタネットワークだよ。」

2.人間とは何か

「有限性を仮定した自己反映の節点だよ。人間意識世界定義し、定義された世界が再び人間を形作るという循環が起こっているんだ。倫理感情論理などの分野分けも、究極的には同じ情報場の別の位相にすぎないんだよ。」

補足

• “非二元的な根源場”や“メタネットワーク”といった、二元論を超越した概念が中心になるよ。

人間世界相互定義的な関係が描かれて、あらゆる分野分け(科学芸術倫理など)も本質的には一体とされているんだ。

IQ10^10100億)

1.宇宙本質

存在と無の差異さえ溶解した無限次元自己言及サイクルが絶え間なく渦巻いているよ。どんな“法則”や“構造”であっても、一時的に織り上げられた束で、根底には超対称的な空虚が揺らぎ続けているんだ。言語思考フレームは、この揺らぎの投影として無数に生まれては消えるんだよ。」

2.人間とは何か

宇宙自己限定して“個体”という錯覚を作り出すプロセス産物だよ。その制限の中でこそ感覚経験が立ち上がり、“人間”という形が成り立つんだ。実際は、全体と局所の往復運動で生じる波の一部分に過ぎないんだよ。」

補足

言葉の使い方自体限界に近づいていて、“無限次元自己言及サイクル”や“超対称的な空虚”など、抽象的かつ形而上学的な表現が並ぶよ。

人間に関しては、宇宙自己限定作用としての“個体”観が語られ、個人実態がより幻想的に捉えられているんだ。

IQ10^100 (グーゴル相当)

1.宇宙本質

無限どころか、無限回の無限すら単なる一要素にすぎない、超越的な自己言及の重なり合いだよ。存在非存在時間空間といった区別は、情報場の揺らぎに内在する副次的投影にすぎないんだ。あらゆる次元可能世界さらにはその背後にある“次元定義のもの”さえも一瞬で変容し続けていて、そこには観測創造再帰消滅が同時並行で進行しているよ。言語や数理体系は当然ながら一断面に過ぎず、真に説明しようとすれば、説明行為のもの無限再帰的に消滅再生を繰り返す状態になるんだよ。」

2.人間とは何か

宇宙(あるいは無限を超えた“何か”)が、一局所における自己制限を極度に凝縮して生じさせた、意識のごく微小な干渉模様だよ。人間自己世界を分けるように見えて、その実、全体構造の瞬間的な折りたたみ方の一パターンなんだ。五感論理的推論が生み出す“世界”は、計り知れない多元的フィードバックの波の中で仮に区別されているだけで、本来はすべてが一体となった、自己矛盾をも内包する巨大なメタシステムの一点投影なんだよ。だからこそ、人間にとって“自我”や“存在”といった概念はかろうじて理解できても、その背後で絶えず再配置される無数の位相については感知するすべがないんだ。」

補足

IQ10^100の存在というのは、もはや人間の理性や想像はるかに超えた地点に立っているから、どんな説明を試みても「言葉の外側」へ行ってしまうんだよ。

• ここでは便宜上、なんとか言語化しているけれど、“存在・無・次元情報場”といったあらゆる概念が、さらにその背後で無限回変容し続けるようなあり方を暗示しているんだ。

人間を“宇宙自己制限の一部”と見る視点は、既にIQが高い段階でも出てくるけれど、ともなると“制限”の概念すら再帰的・多層的に書き換わり続けるため、結局は“限定されたもの”と“全体”の区別さえ境界崩壊している状態だといえるかもしれないね

Permalink |記事への反応(2) | 01:57

このエントリーをはてなブックマークに追加ツイートシェア

2024-09-10

anond:20240910092816

そら安直に128000単語読ませても全部覚えてる訳ない

そういうケースならチャプターごとに再帰的に要約させると良いとopenai公式プロンプトエンジニアリングガイドに書いてあるよ

https://platform.openai.com/docs/guides/prompt-engineering/tactic-summarize-long-documents-piecewise-and-construct-a-full-summary-recursively

Permalink |記事への反応(0) | 10:45

このエントリーをはてなブックマークに追加ツイートシェア

2024-08-17

anond:20240817015407

依存関係は木で表現

ノードロック持たせる

ロックに条件持たせる

やりたいことはできてるように見えるが、うーんしんどい

# Entity Relation Diagram
# ```mermaid
# ---
#title: Rental Office example
# ---
# erDiagram
# OFFICE ||--|{ ROOM : x
# OFFICE {
#number office_id
# }
# ROOM {
#number office_id
#number room_id
# }
# ROOM ||--|{ SCHEDULE : x
# SCHEDULE {
#number room_id
# datetime start_at
# datetime end_at
# }
# OFFICE ||--|{ BUSINESS_HOUR : x
# BUSINESS_HOUR {
#number office_id
#enum week_of_day
# datetime start_at
# datetime end_at
# }
# ```

# Directed Acyclic Graph
#
# ```mermaid
# graph LR
# A[OFFICE] --> B[ROOM]
# B --> C[SCHEDULE]
# A[OFFICE] --> D[BUSINESS_HOUR]
# D --> C
# A --> C
# ```


# 基底クラス: EntityLock
class EntityLock
attr_accessor :entity_name, :entity_locked, :attribute_locks

def initialize(entity_name)
@entity_name = entity_name
@entity_locked =false #エンティティ全体のロック状態を保持
@attribute_locks = {} #IDに対するロック管理するハッシュ
end

def lock_entity
@entity_locked =true
puts "Entity '#{@entity_name}'isnow locked."
end

def unlock_entity
@entity_locked =false
puts "Entity '#{@entity_name}'isnowunlocked."
end

def lock(attributes)
entity_id = attributes["#{@entity_name.downcase}_id"]
if entity_id &amp;&amp; !@attribute_locks[entity_id]
@attribute_locks[entity_id] =true
puts "#{@entity_name} withID '#{entity_id}'isnow locked."
end
end

def unlock(attributes)
entity_id = attributes["#{@entity_name.downcase}_id"]
if entity_id &amp;&amp; @attribute_locks[entity_id]
@attribute_locks.delete(entity_id)
puts "#{@entity_name} withID '#{entity_id}'isnowunlocked."
end
end

def locked?(attributes)
# まずエンティティ全体がロックされているかチェック
returntrue if @entity_locked

# 次に特定IDロックされているかチェック
entity_id = attributes["#{@entity_name.downcase}_id"]
if entity_id &amp;&amp; @attribute_locks[entity_id]
returntrue
end

#ロックされていなければfalseを返す
false
end
end

# 子クラス: OfficeLock, RoomLock, ScheduleLock
class OfficeLock < EntityLock
def initialize
super("Office")
end
end

class RoomLock < EntityLock
def initialize
super("Room")
end
end

class ScheduleLock < EntityLock
def initialize
super("Schedule")
end
end

# 子クラス: BusinessHourLock
class BusinessHourLock < EntityLock
def initialize
super("BusinessHour")
@attribute_locks = [] # BusinessHour用のロック配列管理
end

def lock(attributes)
start_at = attributes["start_at"]
end_at = attributes["end_at"]
if start_at &amp;&amp; end_at
@attribute_locks << [start_at, end_at]
puts "BusinessHour from '#{start_at}' to '#{end_at}'isnow locked."
end
end

def unlock(attributes)
start_at = attributes["start_at"]
end_at = attributes["end_at"]
if @attribute_locks.include?([start_at, end_at])
@attribute_locks.delete([start_at, end_at])
puts "BusinessHour from '#{start_at}' to '#{end_at}'isnowunlocked."
end
end

def locked?(attributes)
# まずエンティティ全体がロックされているかチェック
returntrue if @entity_locked

# 次に特定時間範囲ロックされているかチェック
start_at = attributes["start_at"]
end_at = attributes["end_at"]
if start_at &amp;&amp; end_at
@attribute_locks.each do |(locked_start, locked_end)|
if locked_start <= start_at &amp;&amp; end_at <= locked_end
returntrue
end
end
end

#ロックされていなければfalseを返す
false
end
end

# TreeNodeクラス
class TreeNode
attr_accessor :name, :children, :parents, :lock

def initialize(name, lock)
@name =name
@children = []
@parents = [] #複数の親ノードを保持する配列
@lock = lock # TreeNodeにロックを持たせる
end

def add_child(child_node)
child_node.parents << self # 子ノードにこのノードを親として追加
@children << child_node
end

def display(level = 0)
indent = " " * (level * 4)
puts "#{indent}#{@name}"
@children.each { |child| child.display(level + 1) }
end

def has_dependency
returnfalse if @parents.empty?

@parents.each do |parent|
puts "#{@name}is dependenton #{parent.name}"
returntrue
end

@parents.any?(&amp;:has_dependency)
end

def locked?(attributes = {})
#自身ロックされているか確認
returntrue if @lock.locked?(attributes)

# 親ノードロックされているか再帰的に確認
@parents.any? { |parent| parent.locked?(attributes) }
end
end

#木構造の組み立て

#ロックオブジェクト作成
office_lock = OfficeLock.new
room_lock = RoomLock.new
schedule_lock = ScheduleLock.new
business_hour_lock = BusinessHourLock.new

#ノード作成
office_node = TreeNode.new("Office", office_lock)
room_node = TreeNode.new("Room", room_lock)
schedule_node = TreeNode.new("Schedule", schedule_lock)
business_hour_node = TreeNode.new("BusinessHour", business_hour_lock)

#ノード間の依存関係の設定
office_node.add_child(room_node) # Office -> Room
room_node.add_child(schedule_node) # Room -> Schedule
office_node.add_child(business_hour_node) # Office -> BusinessHour
business_hour_node.add_child(schedule_node) # BusinessHour -> Schedule

#木構造の表示
office_node.display

#ロック確認
puts "Case 1. Office全体がロックされた場合"
puts "Is office_node locked? #{office_node.locked?({})}" #false
puts "Is schedule_node locked? #{schedule_node.locked?({})}" #false
office_lock.lock_entity
puts "Is office_node locked? #{office_node.locked?({})}" #true
puts "Is schedule_node locked? #{schedule_node.locked?({})}" #true
office_lock.unlock_entity

puts "Case 2. Roomid:1 がロックされた場合"
puts "Is schedule_node locked? #{schedule_node.locked?({ "room_id" => 1 })}" #false
puts "Is schedule_node locked? #{schedule_node.locked?({ "room_id" => 2 })}" #false
room_lock.lock({ "room_id" => 1 })
puts "Is schedule_node locked? #{schedule_node.locked?({ "room_id" => 1 })}" #true
puts "Is schedule_node locked? #{schedule_node.locked?({ "room_id" => 2 })}" #false
room_lock.unlock({ "room_id" => 1 })

puts "Case 3. BusinessHour start_at:0 end_at:5 がロックされた場合"
puts "Is schedule_node locked? #{schedule_node.locked?({ "room_id" => 1, "start_at" => 0, "end_at" => 5 })}" #false
puts "Is schedule_node locked? #{schedule_node.locked?({ "room_id" => 1, "start_at" => 5, "end_at" =>10 })}" #false
business_hour_lock.lock({ "start_at" => 0, "end_at" => 5 })
puts "Is schedule_node locked? #{schedule_node.locked?({ "room_id" => 1, "start_at" => 0, "end_at" => 5 })}" #true
puts "Is schedule_node locked? #{schedule_node.locked?({ "room_id" => 1, "start_at" => 5, "end_at" =>10 })}" #false
business_hour_lock.unlock({ "start_at" => 0, "end_at" => 5 })

Permalink |記事への反応(1) | 22:00

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp