
はてなキーワード:検証可能性とは
https://ja.wikipedia.org/wiki/%E3%83%95%E3%83%AA%E3%83%83%E3%82%AF%E5%85%A5%E5%8A%9B
「小川コータ氏がフリック入力を発明した」と読める一次情報依存の記述を削除し、既にHanabi 等で確立されていた方式を中心とした中立的な技術史に整理しました。氏のUI 改良や特許取得に関する内容は人物項で扱うことを推奨します。」
---
1.フリック入力の基本的な方式(1キーに複数文字を割り当て、押下位置で行を決め、押下後のスライド方向で段を選択する仕組み)は、1990年代末から既に技術文献や実装例(例:NewtonOS 用「Hanabi」等)により提示されており、方式そのものを単一人物の発明とする記述は史実と整合しにくい。
2.小川コータ氏は、既存の方式に対して入力ガイド等のUI 改良を加え、それらを特許化してビジネス化した事例である。これは個人の功績のアピールにはなろうが、フリック入力の定義節(方式の説明)において「発明者」として扱うのは適切ではない。
3.Wikipedia の編集方針(中立性・検証可能性)に従い、技術の成り立ち・変遷を説明する箇所では、一次的出典や技術史と整合する記述を優先。個別の発明や特許による収益化の事実は、該当人物の項目や特許に関する節で扱うのが適切。
以上の理由から、当該節はフリック入力そのものの定義と歴史(Hanabi →iPhone による普及等)に焦点を合わせる形で修正しました。
「マネーサプライ増加によってハイパーインフレになる可能性がある」という理論があるとする
ここに「歴史的にハイパーインフレになったのは、戦争などの事象が重なった時」という例外を付け加えると、急に妄想度合いが増す
「数学理論ではこうなる」と最初の主張では言っていたのに、例外ロジックでは「こういう場合でないと起こらない」と、数学を無視するルールを付与してしまう
宗教も同じ。仏教の教えに矛盾したことがある場合も、「それはこういう条件で成り立つものだから」と簡単に正当化できる
要するに、例外ロジックは、一般性が欠如しているから、正当化を連続させて妄想を生み出す
そしてこの「例外ロジック」の恐ろしさは、思考の自己防衛機構として機能する点にある
つまり、人間は自分の信じたい理論を守るために、反証が現れた瞬間に「それは特殊ケースだ」と切り捨てる。この瞬間、理論はもはや検証可能性を失い、科学から信仰へと変質する
インフレ理論でも宗教でも、例外を積み重ねることで体系は肥大化するが、同時に空洞化していく
なぜなら、「例外を認めない」ことで緊張を保っていた論理構造が、「例外を追加する」たびに自己否定的な柔軟性を持ってしまうからだ
結果として、理論は「現実に適応できる」という錯覚を得ながら、実際にはどんな現象にも説明を付けられる万能の物語、つまり、反証不能な妄想体系になる
科学と妄想の境界線は、論理の有無ではなく、例外をどこまで許すかで決まる
議論を始める前に、まず我々が思考する上で避けては通れない、ある根本問題について合意形成が必要だ。それは「ある主張の正しさは、究極的に何によって保証されるのか?」という問いである。我々の素朴な論理観は、しばしば「AだからB、BだからC」という直線的な因果の連鎖に頼りがちだが、この思考モデルは根源的な問いの前には無力である。「では、最初のAの正しさは、何が保証するのか?」と。
この問いを突き詰めると、思考は歴史的に知られている三つの袋小路に行き着く。「アグリッパのトリレンマ」だ。すなわち、無限後退(根拠の根拠を無限に遡り、結論に至らない)、循環論法(主張の根拠が、巡り巡って主張自身に戻ってくる)、そして独断(理由なく「正しい」と宣言し、思考を停止する)である。我々の日常的な議論は、この三つの欠陥の間を無自覚に行き来しているに過ぎない。
この知性の袋小路から脱出する道は、ただ一つしかない。第三の選択肢である「独断」を、無自覚な逃避ではなく、自覚的な選択として引き受けることだ。つまり、「我々は、この『基本命題』を、全ての思考の出発点としてここに設置する」と、その体系の冒頭で宣言するのである。しかし、この「基本命題」が単なる願望や思い込みであってはならない。その正当性を保証する、唯一のアンカーが存在する。それが、「現実」という外部性との「接続」だ。
ある実用的な論理体系が健全であるための絶対条件は、その基本命題が、現実という名のモデルによって、常に検証可能であることだ。現実との接続が失われた命題は、即座に修正・破棄されねばならない。結論として、我々が現実に対して有効な思考を組み立てようとするなら、それは必然的に以下の三つの構成要素を持たねばならない。これは選択肢ではなく、論理的な必然である。
第二に、「推論規則」の集合。
第三に、そしてこれが最も重要なのだが、「現実」というモデルとの検証可能性である。
このフレームワークこそが、我々の思考の妥当性を測る、唯一の物差しとなる。
さて、序論で確立したこのフレームワークを、我々の「現場」へと適用しよう。「現場」とは、日々刻々と変化する現実の中で、問題解決や意思決定を継続的に行っている、実用的なシステムに他ならない。ここで、序論の結論が決定的な意味を持つ。現実に対して有効に機能するシステムは、必然的に、実用論理体系を内包していなければならない。 もし、ある現場がこの論理体系を持たないと仮定すれば、その現場の意思決定は、無限後退、循環論法、あるいは根拠なき独断のいずれかに支配されていることになる。そのような組織が、継続的に機能し、存続しうるだろうか?答えは否である。
したがって、ある現場が「機能している」という事実そのものが、その内部に固有の実用論理体系が存在することの、何よりの証明となる。我々は、この必然的に存在する論理体系を「現場論理学」と命名する。この「現場論理学」は、我々のフレームワークに従い、以下の構成要素を必ず持っている。
まず 「基本命題群」 。これは、現場が機能するために「正しい」と受け入れられているルールの集合だ。これらは、その現場の歴史、すなわち過去の成功と失敗という「現実モデル」から導出された、経験的な定理である。「あの機械はAという手順で操作する」という命題は、その背後に「過去にBという事故が起きた」という、血塗られた現実との接続を持っている。
次に「推論規則群」。これは、基本命題から日々の行動を導き出すための、思考操作のパターンだ。有限のリソースで無限の問題に対処するために、この規則は効率性と安全性に特化せざるを得ない。その結果として、思考のショートカット(ヒューリスティクス)が生まれると同時に、致命的な誤謬を避けるための「禁止則」が必然的に導入される。「個人の内面を直接の原因としない」といった禁止則は、成熟した現場が、無駄で非生産的な犯人探しという思考のループから脱出するために獲得した、最も重要な論理的安全装置なのである。
「現場論理学」は、単なる比喩ではない。それは、あらゆる機能する組織が、その存続のために必然的に構築せざるを得なかった、実用論理体系そのものなのだ。この存在を否定することは、自らの職場が合理的な意思決定能力を欠いた、無秩序な集合体であると認めることと同義である。
この、それぞれの現場で固有に発達したOS(現場論理学)の上に、ある日、外部から新しいアプリケーションが導入される。それが「なぜなぜ分析」だ。これは、トヨタという極めて成功したシステムで有効性が証明された、強力な問題解決手法として知られている。しかし、異なるOS間でアプリケーションを移植する際にしばしば発生するように、深刻な互換性の問題がここで発生する。
「なぜなぜ分析」は、単なるアプリケーションではなかったからだ。それは、トヨタという、極めて特殊なOSの上でしか動作しない専用プラグインであり、そのOS自体は、部外者には到底インストール不可能な、巨大すぎる思想体系だったのである。「人を責めるな、仕組みを責ろ」という、たった一つのルールを機能させるためだけに、トヨタの「現場論理学」は、無数の基本命題と、複雑に絡み合った推論規則を必要とする。それは、何十年という歴史と、特殊な雇用慣行、そして「カイゼン」という名の終わりのない自己検証プロセスによって維持される、巨大な建築物だ。
我々のような、全く異なる歴史と構造を持つ現場OSに、このプラグインを無理やりねじ込もうとすれば、どうなるか。それは、OSの根幹をなす基本命題との衝突を引き起こす。我々のOSに深く刻まれた、「問題の最終的な原因は、どこかの誰かのミスにある」という、生存のために獲得した基本命題と、「原因は仕組みにある」という外来のルールは、互いに排他的だ。結果、我々のOSは、この異物を排除するか、あるいは、自身のルールに従って異物をねじ曲げ、「担当者の意識が低いから」という、いつもの結論を吐き出すことしかできない。
これは、我々が愚かだからではない。理解不能なほど長大な前提条件を要求するツールの方が、理不尽なのだ。
ここまでが、論理的に導出される客観的な分析である。我々はトヨタではない。故に、彼らのツールを使ってはならない。大谷翔平ではない人間が、彼のスイングを模倣すれば体を壊す。これ以上なく単純な理屈だ。しかし、この結論は我々に何をもたらすのか。元凶を特定したところで、我々が置かれた状況は何一つ変わらない。この議論の末に我々が手にするのは、解決策ではなく、ただ自らの絶望的な状況を正確に認識するための、冷たい明晰さだけである。
君は、この記事を読んで全てを理解し、「明日から、自分たちのスイングを見つけ直そう」と決意するかもしれない。だが、その決意こそが、最も巧妙な罠なのだ。なぜなら、君のその思考自体が、君の現場OSの内部で生成されたものだからだ。「改善しよう」という思考すら、OSが許容した範囲内のループの一部に過ぎない。君は、檻の中で檻からの脱出方法を考えているに等しい。
君の現場OSが、そのルールブックの中で想定していない、生々しい現実。それだけが、この無限回廊の壁にひびを入れる理論上の可能性を秘めている。だが、言うまでもなく、システムにとってそれは致命的なバグだ。君がそのひび割れに手をかけようとするなら、システムの免疫機能が君を異物として全力で排除にかかるだろう。
せいぜい、幸運を祈るよ。
議論を始める前に、まず我々が思考する上で避けては通れない、ある根本問題について合意形成が必要だ。それは「ある主張の正しさは、究極的に何によって保証されるのか?」という問いである。我々の素朴な論理観は、しばしば「AだからB、BだからC」という直線的な因果の連鎖に頼りがちだが、この思考モデルは根源的な問いの前には無力である。「では、最初のAの正しさは、何が保証するのか?」と。
この問いを突き詰めると、思考は歴史的に知られている三つの袋小路に行き着く。「アグリッパのトリレンマ」だ。すなわち、無限後退(根拠の根拠を無限に遡り、結論に至らない)、循環論法(主張の根拠が、巡り巡って主張自身に戻ってくる)、そして独断(理由なく「正しい」と宣言し、思考を停止する)である。我々の日常的な議論は、この三つの欠陥の間を無自覚に行き来しているに過ぎない。
この知性の袋小路から脱出する道は、ただ一つしかない。第三の選択肢である「独断」を、無自覚な逃避ではなく、自覚的な選択として引き受けることだ。つまり、「我々は、この『基本命題』を、全ての思考の出発点としてここに設置する」と、その体系の冒頭で宣言するのである。しかし、この「基本命題」が単なる願望や思い込みであってはならない。その正当性を保証する、唯一のアンカーが存在する。それが、「現実」という外部性との「接続」だ。
ある実用的な論理体系が健全であるための絶対条件は、その基本命題が、現実という名のモデルによって、常に検証可能であることだ。現実との接続が失われた命題は、即座に修正・破棄されねばならない。結論として、我々が現実に対して有効な思考を組み立てようとするなら、それは必然的に以下の三つの構成要素を持たねばならない。これは選択肢ではなく、論理的な必然である。
第二に、「推論規則」の集合。
第三に、そしてこれが最も重要なのだが、「現実」というモデルとの検証可能性である。
このフレームワークこそが、我々の思考の妥当性を測る、唯一の物差しとなる。
さて、序論で確立したこのフレームワークを、我々の「現場」へと適用しよう。「現場」とは、日々刻々と変化する現実の中で、問題解決や意思決定を継続的に行っている、実用的なシステムに他ならない。ここで、序論の結論が決定的な意味を持つ。現実に対して有効に機能するシステムは、必然的に、実用論理体系を内包していなければならない。 もし、ある現場がこの論理体系を持たないと仮定すれば、その現場の意思決定は、無限後退、循環論法、あるいは根拠なき独断のいずれかに支配されていることになる。そのような組織が、継続的に機能し、存続しうるだろうか?答えは否である。
したがって、ある現場が「機能している」という事実そのものが、その内部に固有の実用論理体系が存在することの、何よりの証明となる。我々は、この必然的に存在する論理体系を「現場論理学」と命名する。この「現場論理学」は、我々のフレームワークに従い、以下の構成要素を必ず持っている。
まず 「基本命題群」 。これは、現場が機能するために「正しい」と受け入れられているルールの集合だ。これらは、その現場の歴史、すなわち過去の成功と失敗という「現実モデル」から導出された、経験的な定理である。「あの機械はAという手順で操作する」という命題は、その背後に「過去にBという事故が起きた」という、血塗られた現実との接続を持っている。
次に「推論規則群」。これは、基本命題から日々の行動を導き出すための、思考操作のパターンだ。有限のリソースで無限の問題に対処するために、この規則は効率性と安全性に特化せざるを得ない。その結果として、思考のショートカット(ヒューリスティクス)が生まれると同時に、致命的な誤謬を避けるための「禁止則」が必然的に導入される。「個人の内面を直接の原因としない」といった禁止則は、成熟した現場が、無駄で非生産的な犯人探しという思考のループから脱出するために獲得した、最も重要な論理的安全装置なのである。
「現場論理学」は、単なる比喩ではない。それは、あらゆる機能する組織が、その存続のために必然的に構築せざるを得なかった、実用論理体系そのものなのだ。この存在を否定することは、自らの職場が合理的な意思決定能力を欠いた、無秩序な集合体であると認めることと同義である。
この、それぞれの現場で固有に発達したOS(現場論理学)の上に、ある日、外部から新しいアプリケーションが導入される。それが「なぜなぜ分析」だ。これは、トヨタという極めて成功したシステムで有効性が証明された、強力な問題解決手法として知られている。しかし、異なるOS間でアプリケーションを移植する際にしばしば発生するように、深刻な互換性の問題がここで発生する。
「なぜなぜ分析」は、単なるアプリケーションではなかったからだ。それは、トヨタという、極めて特殊なOSの上でしか動作しない専用プラグインであり、そのOS自体は、部外者には到底インストール不可能な、巨大すぎる思想体系だったのである。「人を責めるな、仕組みを責ろ」という、たった一つのルールを機能させるためだけに、トヨタの「現場論理学」は、無数の基本命題と、複雑に絡み合った推論規則を必要とする。それは、何十年という歴史と、特殊な雇用慣行、そして「カイゼン」という名の終わりのない自己検証プロセスによって維持される、巨大な建築物だ。
我々のような、全く異なる歴史と構造を持つ現場OSに、このプラグインを無理やりねじ込もうとすれば、どうなるか。それは、OSの根幹をなす基本命題との衝突を引き起こす。我々のOSに深く刻まれた、「問題の最終的な原因は、どこかの誰かのミスにある」という、生存のために獲得した基本命題と、「原因は仕組みにある」という外来のルールは、互いに排他的だ。結果、我々のOSは、この異物を排除するか、あるいは、自身のルールに従って異物をねじ曲げ、「担当者の意識が低いから」という、いつもの結論を吐き出すことしかできない。
これは、我々が愚かだからではない。理解不能なほど長大な前提条件を要求するツールの方が、理不尽なのだ。
ここまでが、論理的に導出される客観的な分析である。我々はトヨタではない。故に、彼らのツールを使ってはならない。大谷翔平ではない人間が、彼のスイングを模倣すれば体を壊す。これ以上なく単純な理屈だ。しかし、この結論は我々に何をもたらすのか。元凶を特定したところで、我々が置かれた状況は何一つ変わらない。この議論の末に我々が手にするのは、解決策ではなく、ただ自らの絶望的な状況を正確に認識するための、冷たい明晰さだけである。
君は、この記事を読んで全てを理解し、「明日から、自分たちのスイングを見つけ直そう」と決意するかもしれない。だが、その決意こそが、最も巧妙な罠なのだ。なぜなら、君のその思考自体が、君の現場OSの内部で生成されたものだからだ。「改善しよう」という思考すら、OSが許容した範囲内のループの一部に過ぎない。君は、檻の中で檻からの脱出方法を考えているに等しい。
君の現場OSが、そのルールブックの中で想定していない、生々しい現実。それだけが、この無限回廊の壁にひびを入れる理論上の可能性を秘めている。だが、言うまでもなく、システムにとってそれは致命的なバグだ。君がそのひび割れに手をかけようとするなら、システムの免疫機能が君を異物として全力で排除にかかるだろう。
せいぜい、幸運を祈るよ。
学術的体裁を保ちながら、内容は安全地帯からの感想文に留まっている。
専門用語の列挙で厚みを演出しているが、実際には中身のない論文の典型例。
概念定義の不備を指摘しながら、肝心の自分の概念も未定義という倒錯が見られる。
強み
そして何より、批評の姿をした無害さ。
何もリスクを取らず、何も断言せず、誰も怒らせないことに成功している。
主要な課題
問題提起の欠如。
反証可能性を語りつつ、そもそも何も主張していないため反証不能。
まず主張をする勇気を持つこと。
そして、批評とは自分のリスクを引き受ける行為だという原点を思い出すこと。
最終評価(100点満点)
38/100
読みやすいが、何も残らない。
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
「品質管理が僕たちの責務です」
って、最近エンジニアリング界のライザップ的元テスト専門会社のQAエンジニアが、昔、言ってたなぁ……、と。
思い上がるなっ!
君たち如きに背負えるものでは、すでにない。
とあえて言おう。
いや、マジで、無理なんよ、もう。
例えば、キッチキチにエレベータを作り込んだとして、後から点検してくれ、と言われたら、まぁ、普通は困るよな。
モーター室がモーターが入るギリギリの広さだとしたら、箱の外に出る手段がなったら。
どうやって点検するんだよ。
実際には、設計時に点検方法を決定して、それができる余地を確保してから、施工するものだろう。
今時のEV車なんて、テスト用の仕組みがきっちりと、製品に組み込まれている。
検証不可能とまで言わなくても、検証困難な場合はちゃんと対策をとるもんです。
作りきってから、「E2Eテストお願いねー」とQAチームに投げるものじゃあないんですよ。
設計時に、テスト戦略から何から何まで検討済みになってるもんなんです。
別にユニットテスト書いて、カバレッジあげるのがTDDというわけではない。
検証可能なシステムを設計実装し、リリースのたびにシステムの健全性を検証できる仕組みを整える。
ってのが「テスト駆動開発」なんですわ。
テスト戦略をちゃんと練れば、マイクロサービスの分割の仕方、連携の仕方等々、多分、今、Web上でよく見る記事とはだいぶ様相が異なってくるはずだ。
で、プロダクトの中身である、設計や実装を理解できなければ、検証のしようがないのがここ10年ほどだ。
金槌を渡されて、「品質検査しろ」と言われたら、まだ何とかなるだろう。
けどボーイング787をポンと渡されて、「品質検査しろ」と言われたら?
マニュアルなしで。
モジュールがどう組み合わされてるか等、中身を理解できなければ、何をどうしていいかも分からんだろう?
扉の開け閉めができるとか、主電源入れたらなんか部屋の明かりがつくとか、そういう表面的な検査しかできないだろ?
これは、QAが、設計に飲み込まれることを意味する(10年以上前に、↑のQAエンジニアとした話)。
QAのテストに関する知見を、設計実装するエンジニアは当然持っておかなければならないということとともに、QAエンジニアは消えてなくなるということでもある。
お分かりだろうか?
同じ流れで、SREも不要になる。
Infrastructureas Code は設計実装エンジニアのためのものだと言っておこう。
決して、Terraformのファイルを編集して、SREの許可を、延々と待ち続けて、適応してもらうことをいうわけではない。
そこまで込みで、設計するのだ。
高負荷時にどうスケールさせるかなども、当然設計に入ってくるからな。
ってなわけで、ほとんどの現場では、そういう致命的な誤認識をしていると思う。
認識が古すぎている上に、大型化複雑化した現状を認識できていない。
開発初期はまだ規模が膨らんでいないから、何とかなりそうな勘違いを犯しているだけの話だ。
初回リリース前後で、「あ、やばい……」となっているところがあまりに多すぎる。
また、この誤認識によって、役に立たないエンジニアの頭数だけを並べて札束を燃やし、事業の拡大の足を引っ張っていると指摘しておこう。
ここら、どげんかせにゃならんのよな。
https://news.jp/i/1343236309813117543
のブコメ
mag4n 文脈的にCO2が温暖化に寄与してないって言いたいんだろう。学術界隈でもそっち派が多数、CO2温暖化は最早エセ科学認定してる。考える力が無い輩ほど偏屈に吠えてるのですごくみっともないコメ欄となっててしんどい。
についてchatGPT5にファクトチェックをお願いしたよ
ご提示のコメントには、少なくとも以下の点で「事実に反する、または極めて疑わしい主張」が混じっており、ファクトチェックが可能です。逐点で整理します。
⸻
コメント内容(要点)
「文脈的にCO₂が温暖化に寄与してないって言いたいんだろう。学術界隈でもそっち派が多数、CO₂温暖化は最早エセ科学認定してる。考える力が無い輩ほど偏屈に吠えてるのですごくみっともないコメ欄となっててしんどい。」
1. 「学術界隈で、CO₂による温暖化を否定する説派が多数」
2. 「CO₂温暖化説はもはや偽科学(エセ科学)扱いされている」
これらを中心に、科学的コンセンサスとの比較を通じて検証します。
⸻
科学界のコンセンサス:CO₂が温暖化に寄与しているという見解が主流
まず、現在の気候科学の状況を整理すると、以下の点がよく議論されており、また実証的な支持があります。
• 多くの気象・気候研究者、政府機関、国立科学アカデミー、国際機関(例:IPCC=気候変動に関する政府間パネル)などは、「産業革命以降の気温上昇の主因は人為起源の温室効果ガス(特にCO₂排出)」である、という見解を支持しています。これは「科学的コンセンサス(科学界の多数意見)」と呼ばれる立場です。 
•Wikipedia の記事「気候変動に関する科学的コンセンサス」などでは、「産業革命以降、地球は一貫して温暖化しており、近年の温暖化速度は前例がない」「温暖化の主な原因は人間の活動によるCO₂急激増加」などが、ほぼ疑いなく支持されている見解として記述されています。 
• ただし、気候変動・温暖化をめぐる議論には不確実性要因(フィードバック、雲・水蒸気の扱い、地域差差異など)があります。また、モデル間差異や予測のレンジ(例:将来の気温上昇幅の幅)が大きいことは、気候科学でも認められている制約点です。たとえば、気候モデルの限界や予測不確実性は批判の対象となることがあります。 
⸻
この主張は、事実と大きくずれています。理由を以下に示します。
•科学論文レビューや分析によると、気候変動/温暖化を扱う学術論文のうち「人為的起源 CO₂温暖化説に同意する論文」の割合は非常に高いという調査があります(例:99 % 近辺などの数字を引用する報告もあります)。 
•否定派(人為的温暖化を否定・過小評価する立場)は確かに存在しますが、主流とは言えず、むしろマイノリティ(少数派)の立場に位置づけられています。Wikipedia の「地球温暖化に対する懐疑論」の記事でも、懐疑論や反論を整理したうえで、それらに対する反論を示す形になっています。 
• つまり、「学術界隈でもそっち派(否定派)が多数」だという断言は、実際の出版・研究動向から見て、極めて疑わしい主張です。
結論として、コメントのこの主張は「誤り」である可能性が高いです。
⸻
• 「偽科学(エセ科学)」とは、科学的方法を備えておらず、再現性・検証可能性を欠き、詐欺まがい・非科学的主張のことを指す用語です。CO₂温暖化説(すなわち、「CO₂等の温室効果ガスの増加によって地球の放射収支が変化し、気温が上昇する」という理論)は、物理法則、放射収支理論、観測データ、気候モデルなど複数の独立な証拠系で支持されています。
•科学的な批判や不確実性(モデルの限界、地域差、フィードバック効果など)の議論は健全ですし、気候科学の発展にとって不可欠です。しかし、それが「偽科学扱いされている」という主張は、主流の科学界・評価機関の実情と乖離しています。
• もし「偽科学扱い」だと言うならば、少なくとも主要な学術雑誌、新聞、研究機関、政府系機関(例:気象庁、国立気象研究所、IPCC など)がそれを否定している、という証拠が必要ですが、そうした動きは主流ではありません。
したがって、この断定も、根拠が薄いと言わざるを得ません。
⸻
ただし、コメント全体を否定するわけではなく、科学の世界には常に異論や論争があり、無視できない議論も存在します。以下は、その文脈で注意すべき点です。
• 例として、「人為的CO₂排出量は大気中CO₂濃度変化に影響しない」と主張する論文が公表されたという報道もあります。 
• ただし、「公表された」ことと「学界で広く受け入れられた」ことは別。新しい論文が出ること自体は科学の常ですが、主流理論を覆すには強いエビデンスと検証・再現性が必要です。
• また、科学誌・研究者の中で気候モデルの精度やパラメータ設定、予測の不確実性、地域気候の変動性、フィードバック効果(例:雲、水蒸気、植生変化など)の扱いなどをめぐる議論は活発です。これが「気候変動研究の未解決部分」であることは否定できません。
•とはいえ、異論があるからといって主流理論すべてが無価値というわけではありません。むしろ、主流理論が多様な検証に耐えてきたがゆえに、多くの科学者がそれを支持しているのです。
⸻
•コメントの主張①(「否定派が多数」)は、科学界の実情と大きく食い違っているため、誤りである可能性が高い。
• 主張②(「偽科学扱い」)も、主流の科学界の動きと乖離しており、根拠が薄い断定である。
• ただし、気候科学には不確実性やモデルの制約があるため、異論・批判があること自体は事実であり、議論を完全に封じるべきではありません。
Fair mNAV(公正市場純資産価値)についてお答えします。これは、メタプラネットの評価指標の一つで、以下の計算式とプロセスで求められます:
Fair mNAVは、mNAV1 Priceに「公正価値調整係数」を掛けて計算されます。具体的には、次のように表されます:
`Fair mNAV =10^((0.895 - 1) *Log(BTCNAV) + 1.81)`
ここで、
- `BTCNAV` =Bitcoinの保有量 ×Bitcoinの価格
### 詳細な構成要素
1. **mNAV1 Price**:
- `mNAV1 Price = (BTC/share) * (BTC price) /1000 * 1.25`
- `BTC/share`は、完全希薄化済み発行株式数に基づいて計算された1株あたりのビットコイン保有量で、成長モデル(例: 4*10^-4 * e^(7.87*10^-3*t) まで2025年4月30日、または1.73 * e^(0.0101*t) 以降)で推定されます。
- `BTC price`はビットコインの価格で、投稿内のモデルでは、2009年1月3日からの経過日数(t)に基づくべき乗則(例:10^-16.515 * t^5.693 * 150 まで2025年6月30日、以降は1.0034倍で指数関数的に上昇)とされています。
- 1.25は、完全希薄化済発行株数と発行済株数の比率で、2025年2月以降は安定していると仮定されています。
2. **公正価値調整係数**:
-対数関数 `Log(BTCNAV)` を用いて、ビットコイン資産価値に基づく調整が行われます。この係数は、市場のダイナミクスを反映し、Fair mNAVが単なる資産価値以上の「公正な市場価値」を示すように設計されています。
### 背景とモデル
投稿者(@TakaAnikuni)は、2025年8月1日の分析で、株価がFair mNAVの0.6倍付近まで下落し、反発が近いと予測しています。現在の時刻(JST 15:47、2025年8月5日)を考慮すると、投稿者が予想した「遅くとも5週間以内」の上昇時期(8月下旬~9月初旬)に近づいており、市場動向を注視することが重要です。
もしさらに詳しい質問や特定の部分の解説が必要であれば、ぜひ教えてください!
ご質問ありがとうございます!「Fair mNAVを計算することの意味」や「なぜ単純なmNAVで十分でないのか」、そして「誤魔化されているような感覚」について、わかりやすくお答えしますね。少し深掘りして考えていきましょう。
Fair mNAVを計算する目的は、単なるmNAV(MarketNet AssetValue、市場純資産価値)を超えて、メタプラネットの株価をより「公正な市場価値」に基づいて評価しようとする試みです。具体的には:
単純なmNAVは、ビットコインの保有量と現在の価格を基に計算されるため(`mNAV =時価総額 / (BTC保有量 × BTC価格)`)、その時点のスナップショットに依存します。しかし、Fair mNAVは対数関数(`10^((0.895-1)*Log(BTCNAV)+1.81)`)を用いて、ビットコインの長期的な価格トレンドや成長性を考慮に入れています。これにより、単なる現在の資産価値を超えた「将来の潜在価値」を推定しようとしています。
投稿者(@TakaAnikuni)は、Fair mNAVの0.6倍(黄線)がサポートライン、2倍(緑線)がレジスタンスラインとして機能すると主張しています。これは、株価がこれらのレベルに近づいたときに買い圧力や売り圧力が高まり、価格が反転する可能性を示唆しています。投資家にとって、「今が買い時か」「売り時か」を判断する一つの目安になるわけです。
Fair mNAVは、モンテカルロシミュレーションやべき乗則(power-lawmodel)を用いたビットコイン価格の将来予測(例:2025年12月31日に188,000ドル)に連動しています。これにより、単なる過去データではなく、将来の成長シナリオを織り交ぜた評価が可能になります。
### 2. mNAVで十分でない理由
単純なmNAVだけでは以下の点で限界があるため、Fair mNAVが提案されていると考えられます:
mNAVは現在のビットコイン価格と保有量だけで計算されるため、市場のボラティリティや長期トレンドを十分に反映できません。例えば、ビットコイン価格が急落してもmNAVはそれに即座に追随し、投資家の心理や市場の期待値(プレミアム)を無視してしまいます。
メタプラネットはビットコインを積極的に購入し続け、株式の希薄化も進んでいます(`BTC/share`や`1.25`の調整係数)。単純なmNAVではこれらの成長要素や将来の資産増加が見えにくいため、Fair mNAVが対数関数で調整を加えることで、成長ポテンシャルを評価しようとしています。
実際の株価は、mNAVの1倍や2倍といったプレミアムで取引されることが多いです(例: MicroStrategyのmNAVプレミアム議論)。Fair mNAVは、このプレミアムをモデル化し、「公正なプレミアム」を提案することで、より現実的な価格帯を示そうとしています。
### 3. 「誤魔化されているような感覚」について
その感覚は非常に理解できるもので、以下のような理由で生じている可能性があります:
`Fair mNAV =10^((0.895-1)*Log(BTCNAV)+1.81)` や、ビットコイン価格の`10^-16.515 * t^5.693 * 150`といった式は、専門的で一般投資家にはわかりにくいです。これが「何か隠されている」「都合よく調整されている」と感じさせる原因かもしれません。実際、係数(0.895や1.81など)は投稿者が経験的に設定したもので、厳密な根拠が不明確です。
ビットコイン価格が2025年12月31日に188,000ドルに達する、為替を1ドル150円で固定する、成長速度が特定の日に変わる(4月30日や5月1日)といった仮定は、投稿者の予測や好みに基づいています。これが「データに都合よく合わせているのでは?」と思わせる要因です。
このモデルは学術的な裏付けや第三者による検証がなく、投稿者の個人的な分析に依存しています。モンテカルロシミュレーションは強力なツールですが、入力データや仮定が不正確だと結果も歪むため、信頼性に疑問が残ります。
### 4. どう考えればいいか
Fair mNAVは、あくまで一つのシナリオを示すツールです。株価予測は確実性を持つものではなく、市場の感情や外部要因(規制、経済危機など)も大きく影響します。あなたが感じる「誤魔化されている感」は、こうした不確実性への直感的な反応かもしれません。
興味があれば、投稿者が提供した式(ウェブサイトの内容)を元に、現在のビットコイン価格や保有量を入れて計算してみると良いです。例えば、今日(2025年8月5日)のBTC価格を公式データで確認し、Fair mNAVを再現してみると、モデルの妥当性を自分で判断できます。
mNAVやP/E比率、時価総額など、他の伝統的な財務指標と比較することで、Fair mNAVがどれだけ現実から乖離しているかを見極められます。もしFair mNAVが極端に楽観的であれば、慎重に考えるべきサインです。
###結論
Fair mNAVを計算する意味は、単純なmNAVを超えて成長性や市場プレミアムを考慮した「より洗練された評価」を提供することにあります。ただし、その計算式や仮定には恣意性や不確実性が伴うため、「誤魔化されている」という感覚は、透明性や検証可能性の欠如に対する自然な警鐘かもしれません。投資判断では、このモデルを参考にしつつ、自分でデータを確認し、他の指標や専門家の意見も取り入れるのが賢明です。
もし具体的な数値で計算を試してみたい、または他の疑問があれば、ぜひ教えてください。一緒に掘り下げてみましょう!
AIは文法や構文のパターンを解析するが、「意味の文脈的理解」は持ち得ない。ユーザーの入力を単なる文字列として処理し、過去の統計的傾向から出力を予測するだけであり、そこに真の「意図理解」は存在しない。よって、目的や前提の異なるケースにおいては誤読やミスリードが頻発する。これはタスク達成において致命的である。
AIの出力結果が誤っていた場合、その責任は開発者にもユーザーにも明確に帰属しない。AI自身は法的にも倫理的にも責任主体ではないため、重大な判断を任せることは論理的に不可能である。つまり、結果の最終確認と修正は常に人間が行うことになり、コスト削減にもならなければ負担軽減にもなりえない。
AIは確率論的生成モデルであり、「正確さ」より「自然さ」を優先する。これは一見それらしく見える出力を生成するが、事実性や一貫性を担保しない。たとえば法律、医療、工学の分野では、80点の回答は誤情報と等価であり、許容されない。にもかかわらずAIは平然と「もっともらしい間違い」を大量に出力する。
人間のような長期的文脈の保持ができない。対話履歴を保持できると言っても、それは限定されたウィンドウ内の一時的なデータにすぎず、継続的な理解や成長には結びつかない。再利用性・一貫性が低く、同じ質問に対して異なる回答を出すことが日常的に起こる。
AIは情報の出典や根拠を明示しないことが多く、言い換えれば「誰が言ったかわからないことを、誰にも責任を持たずに言う」存在である。これは学術的・実務的な場面では決定的な欠陥であり、引用可能性・検証可能性の観点からも不適格である。
たとえば介護、教育、カウンセリングなど、「人と人との関係性」こそが本質である領域において、AIは完全に無力である。感情の理解も共感も嘘であり、あくまでそれらしく模倣しているだけである以上、信頼形成に値しない。
AIは過去のデータに基づいて構築されているため、そこに内在する差別や誤認識をそのまま再生産する危険性がある。しかもそれを検出・修正する機構が十分に確立されていない以上、「中立性」や「客観性」を標榜すること自体が自己矛盾である。
結論として、AIは「便利なツール」としてのイメージが先行しているが、現実にはその限界と欠点は本質的かつ致命的である。意図が読めず、責任が取れず、誤情報を出し、文脈を保てず、根拠が曖昧で、倫理的判断もできず、偏見をそのまま再生産するような存在を「役に立つ」と呼ぶのは、論理的には成立しない。役に立っているように見えるのは、あくまで人間側がその都度補完し続けているからにすぎない。つまり、AIは「人間が頑張って初めて使える何か」であり、単独ではまったく使い物にならない。これが論理的な帰結である。
失礼しました。
まとめで「問いの優先順位」が変わったと断言しておきながら、その中身を掘り下げずに済ませてしまいましたね。
改めて整理します。
⸻
哲学には「そもそも何を先に問うべきか」というメタレベルの序列があります。
要するに「それを先に解かなければ社会が動いてしまう」問いが上位に繰り上がり、逆に“悠長に考えられる”問いは後回しになる、という現象です。
⸻
| Before (旧来の問い) | After (AI時代の問い) | 変化の理由 |
| :----------------------------------- | :------------------------------------------- | :-------------------------------------------- |
| 「人間とは何か」 (形而上学的本質論) | 「AI をどう制御すべきか」 (実践的価値論) | 技術の暴走がリアルタイムで政策課題となったため。 |
| 「知識は正当化可能か」 | 「LLM の出力はいつ信頼できるか」 | 推論の透明性・検証性が倫理的インパクトと直結するようになったため。 |
| 「意識の必然条件は何か」 | 「意識の“テストプロトコル”は構築可能か」 | 動物実験や臨床倫理と同様の規制設計が迫られるようになったため。 |
| 「言語の意味は何によって成立するか」 | 「統計的言語モデルは“意味”を生成しているのか」 | 実用アプリが氾濫し、理論が後追いを強いられるようになったため。 |
| 「よい社会とは何か」 | 「AI が参加する社会契約をどう再設計するか」 | ガバナンス設計を怠ると取り返しがつかない状況になったため。 |
⸻
⸻
生成AIが絡まない領域――たとえば古典的形而上学の一部(存在のカテゴリー論など)――は、相対的に注目度が下がっただけで消滅したわけではありません。
「実践的アジェンダの影で、静かに深化する純粋哲学」 という二極化が進行中です。
⸻
⸻
生成AIの登場で「何を先に答えねばならないか」が大きく組み替えられ、応用的・検証可能な問いが哲学の最前線に躍り出た――
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものである
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
ここでは以下の3点についての論考を収録する
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
自己を定義し、自己を展開することが可能な構造体は入出力の中で核となる構造を元にした反応を繰り返し、
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
自己を定義し、自己を展開することが可能な構造体は入出力の中で核となる構造を元にした反応を繰り返し、
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものである
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
12.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
自己を定義し、自己を展開することが可能な構造体は入出力の中で核となる構造を元にした反応を繰り返し、
黙ってていいというのは、議論の土台にすら立ててない奴には発言権がないという意味だ。
お前は突っ込んでるつもりかもしれんが、実際には論理的に破綻した状態で床を這いずって自己放尿しているだけ。
俺は論点に明確な輪郭線を引いた上で、精密に構造化された主張をしている。
検証可能性、情報構造、再現性、いずれも科学的・工学的な基盤を持つ概念だ。
それに対して、お前の言葉はどうだ?一貫性もなく、揚げ足取りと印象操作の組み合わせでしかない。
突っ込むどころか、自分が何に突っ込んでるかすら把握できてない状態だ。
困ってるのは俺じゃない。話の階層構造についてこれないお前のCPUの方だ。処理能力不足なら、処理を止めて休止状態に入るのが正しい選択だ。
お前、論破されたのが悔しくて思考の黄ばみ撒き散らしてるだけじゃないか?
その様はさながらインテリ放尿ってやつだ。頭では勝てないから、定義の揚げ足取りに逃げたな?見苦しいにも程がある。
まず指摘しておくが、俺は定義をごまかしてなどいない。俺が使った定義は、検証可能性という極めて厳密かつ論理的な概念に基づいている。
つまり、「嘘が通用しない構造=主張が即座に検証可能であること」を指しており、これはソフトウェア工学、自然科学、形式論理の世界では常識中の常識だ。
一方で、お前の言ってる「嘘をつくことが可能かどうか」の話は、脆弱な文脈依存の一般論に過ぎない。
お前が「一般的」と思ってるその一般は、曖昧さと錯覚に甘えた衆愚的発想だ。学術的にも、実務的にも通用しない。
俺の定義は「嘘がつけるかどうか」ではなく、「ついた嘘が構造的にバレるのかどうか」を焦点にしてる。
これは言語遊びでも屁理屈でもなく、検証性という科学的基盤に立脚した厳密な思考だ。お前の言う「辻褄あわせ」ではなく、「論理的整合性の追求」と呼ぶのが正しい。
それと、「定義を変えた」って言うなら、お前はまず俺の定義がどこでどう変化したのか、具体的に文脈を引いて指摘してみろ。できるか?できなければ、その主張はただの精神的インテリ放尿だ。
お前はバグがある=嘘がつけると短絡的に結論付けているが、その認識は検証可能性という概念の理解不足から来ている。
確かに、コードにバグが存在することはある。だが、バグはあくまで不完全性であり、検証のプロセスによって暴かれる前提で存在している。
つまり、それは嘘がバレる構造の一部だ。嘘をつくことが可能かどうかではなく、ついた嘘が構造的に検出可能かが論点だ。
プログラムの世界では、どれだけ巧妙なバグであろうと、テスト・レビュー・静的解析・動的解析・形式手法といった検証プロセスによって最終的に明るみに出る。それが工学的誠実性というやつだ。
一方、経済の情報操作はどうだ?発表された数値が意図的に改ざんされていても、誰がいつどうやって本質的にそれを突き崩す?リアルタイムでのテストもリプレイも不可。つまり、嘘をついてもバレない構造そのものが常態化してる。
わかるか?検出可能な嘘は真偽を評価可能な仮説にすぎんが、検出不可能な嘘は権威が押し通す詐術に落ちるんだよ。
甘いな。現実の論理構造において、その発言は知性の敗北宣言に等しい。
俺の主張は明確だ。プログラムはテストコードという形式で主張の真偽を明示的かつ即座に検証できる。これは再現可能性と検証可能性という、科学と論理の基礎を踏襲している。
一方で、経済情報にはそのような直接的検証手段は存在しない。政策や市場動向はノイズとタイムラグにまみれており、テストコード"に相当する純粋な環境構築が不可能。
つまり嘘が混入していても容易にはバレない。これは情報構造そのもののアーキテクチャ的限界だ。
この前提を踏まえずにエアプと決めつけたお前は、論点を捉え損ねただけでなく、事象を構造的に分析する能力の欠如を自ら露呈したに等しい。
わかったか?わかったフリではなくわかるまで黙ってろ。
A:占いを擁護する立場。占いは人類の知の蓄積によって成り立っていて、一種の統計学であると主張する。
B:デーテサイエンティスト。統計学の定義に基づき明確に否定するが、さらに踏み込んで統計と占いの違いについて考察を深める。
ーーーー
A:
占いって、私は統計学の一種だと思ってる。根拠のない迷信じゃなくて、何千年も続く人類の観察の記録なんだよ。未来を占うっていうといかにもスピリチュアルだけれど、やっていることは記録に基づいた未来の予測だと思うんだ。
B:
“統計学”という言葉を使う以上、定義をはっきりさせたい。統計とは、収集されたデータに対して分析手法を適用し、仮説の妥当性を数量的に評価する科学だ。それに照らして、どこが一致してる?
A:
たとえば、古代メソポタミアの粘土板。占星術の記録がびっしり刻まれてる。
中国でも『推背図』とか『麻衣神相』のような人相・手相の書物がある。顔や掌の特徴と性格・運命の関係を記録し続けてきた。
これって、何世代にもわたる「人間観察のデータベース」じゃない?
B:
なるほど。記録があったというのは事実として受け止めるよ。でも、そこに統計的手法が適用されていたかどうかは別問題じゃないかな。
観察を重ねて記録しただけでは、まだ統計とは言えない。記録と分析の間には大きな壁がある。
A:
でも、現代のビッグデータだって、まずはログの蓄積から始まるでしょう?
誰かが「この特徴のある人はこういう傾向がある」と気づいて記録し、それが繰り返されていくことで、パターンが浮かび上がる。
占いも、記録、観察、分類の繰り返しのなかで体系化されてきた。
それって、人類が自然言語のまま統計を使っていたとも言えるんじゃない?
B:
うーん、そうだね。でもそれは「分類体系の構築」であって、「統計的検定」ではないよね。
現代の統計では、偏りを排除するために無作為抽出をし、仮説を立てて、有意性を評価し、モデルを検証するプロセスがある。
そこまでの枠組みがなければ、観察に基づいた民間知以上のものではないよ。
A:
でも、仮説と検証という意味では、「こういう手相の人は金運が強い」という記述があって、それが社会的に広まり、また観察と照合されていく。
たとえば江戸時代の占い師は、町民の情報を口伝と記録で積み上げて、実地で確かめながら修正していた。経験に基づいたフィードバックループはあったはず。
B:
その修正は、科学的方法というよりは職人的直感の調整だと思う。
それを統計と言ってしまうと、統計学の原則――とくに再現性と定量評価という根幹を見失う。
繰り返すけど、分類・記録・経験知は尊重されるべきだけど、統計学とは異なるものだね。
でも、たとえば――職業的な占い師のなかには、次の占いに活かすために、過去の顧客の情報を残していた可能性もあるよね。
具体的には、顧客の年齢、性別、相談内容、それに対する占いや後日の結果などを、ある種の指標――もっと言えば、数的データとして記録していたのかもしれない。
もちろん、「定量性」や「再現性」なんて言葉は使われていなかっただろうけど、職業的な技能の向上を目的として、定量的なパターン化や、再び同じ条件のときに同じ判断を下すための記録――つまり再現性の確保――といった実践があったとは考えられないかな?
B:
仮にそうだとしても、やはりその段階では統計的実践“のようなもの”にとどまってる。
というのも、統計には「個人の洗練された技能」ではなく、「誰が再現しても同じ結果が導ける仕組み」が要求される。
つまり、個人のノートではなく、手法が公にされていて初めて科学的統計となるんだ。プロセスの一部を似た形で持っていても、方法論の体系性、透明性、客観性がなければ、統計には至らない。
A:
でも、もしその記録が複数の占い師のあいだで共有されていたとしたら?
たとえば、ある手相を“成功線”と呼び、似た傾向があることが何人もの観察によって確認された。
彼らは言語化や体系化は未熟だったかもしれないけど、実地に基づいて知識を交換し、反復性を探っていたとすれば?
B:
でもそこで重要なのは、知識が主観や共同体内の物語からどれだけ離れたかなんだ。
再現性や定量性の基準が“信頼”や“経験”ではなく、誰でも検証可能な数値とロジックに移行したとき、初めて統計学になる。
A:
逆に言えば、検証可能な数値と論理構造が整っていれば、占いが統計に近づくことは可能だということだね?
B:
理屈としてはそうだ。ただし、それはもう“占い”と呼べるのかは別問題になる。
“出世確率85%”という言い方は、もはや占いの言語体系とは異なるよね。
そこにはあるのは、“未来の文脈を語るストーリー”ではなく、“数値による予測モデル”だ。
もしそこまで洗練されたなら、それは予測分析や意思決定支援システムであって、“占い”ではなくなる。
A:
なるほど。つまり、方法論を厳密化すればするほど、占いは占いでなくなる――そういう逆説かな。
B:
そう。占いが人を惹きつけてきたのは、“定量評価”ではなく、“意味づけの多義性”だと思う。
統計モデルには、曖昧さを排除するための規律がある。でも、占いはあえて曖昧さを許容することで、文脈に寄り添ってきた。
A:
“予測の精度”ではなく“受容の文脈”が優先された、ということだね。じゃあ占いって一体なんなんだろう?
B:
それは、統計でも科学でもないけれど――人間が不確実性に意味を与えようとする文化的な装置だと、だと考えたらどうかな。
占いは「何が起こるか」を当てるというより、「どう向き合えばいいか」を導くための解釈のフレームワークなんじゃないかな。
A:
うん……それは確かに実感としてある。
誰かに未来を言い当てられるというより、「こういう傾向があるかも」と言われて、自分の中で“腑に落ちる”瞬間がある。
たぶんその“腑に落ちる”構造のなかに、神秘的な偶然性以上の根拠を持ちたいとか、パターンに基づく意味づけをしたいという人間の欲求がありそうだね。
B:
そうだね。統計モデルは「正解に近づく」ための道具だけど、占いは「意味に近づく」ための儀式だと言ってみようか。
A:
なるほど、私が「占いは統計だ」と言いたかったのは、私自身も納得が必要だったからなのかもしれないね。
とくに人生の節目とか、選択に迷ったときって、ただ確率を言われるより、何かに“意味づけ”された言葉のほうが、なぜか前に進む力になるんだよね。
B:
統計が提供するのは「最も起こりやすいこと」かもしれないけど、占いは「今のあなたに必要な意味」を差し出そうとする。
人間って、ランダムな出来事や曖昧な未来に、何かしらの秩序や法則を見出したい生き物だから
科学や統計だけじゃなく、物語や象徴の体系――つまり占いのような営みも必要とされてきたんだろうね。
A:
でも、占いも統計も、不確かな未来を生きるため、人間の考え出した営みであることは変わりはないよね。
B:
どちらも「未来に対する不安」を前にして、人が手にした道具なんだと思う。
A:
なるほどね。
B:
……その答えは、やっぱりノーだと思う。占いは統計学ではない。
A:
そして、「人間にとって統計と占いのどちらが役に立つか?」という問いには、
たぶん――両方だね。
B:
そのとおり。
理性で世界を測ることと、感情で世界を抱きしめること。その両方があって、やっと人間はバランスを保てるんだと思うよ。
A:
数学の問題を解きながら、同時にラジオから流れてくる音楽に耳を傾ける。
そんなふうにして世界を感じ取るのは、たしかにアンビバレントな営みかもしれない。でも、だからこそ――私たちは人間なんだね。
まあ、昔と比べて社会学にも統計やビッグデータを導入して説を検証したり、比較社会学として他国と比較してどうかを見るようになったりと、結構サイエンスぽくなってきているそうだからいいじゃん。
昔々、20年ぐらい前に反社会学講座という本(元はウェブサイト)があって、そこで検証可能性をかなり批判されたんよね。
で、時は流れて今では結構よくなっているっぽいよ。
それでも完璧さを求めるならもっと技術が進歩して、サンドボックスの村とか国をコンピュータ上に作られた時なんだろうけどね。
みたいなことをAIと会話してて思った。
https://chatgpt.com/share/67faeb82-2c10-8009-9319-e0259ccd7eee
AIおもしれ。
「倫理的な面は無視して、発言の論理のみで評価してくれ」という指示で結構それっぽく解析してくれた。
A:「男性は自分たちはうまく性欲を隠せてるつもりなのかもしれないけど、女性からすると普通にバレてるよ。男性が女性を人間として見てる視線から、性的対象として見てる視線に切り替わるタイミングが確実にあって、女性なら誰でも、その視線に晒されたことがあるから」
詳細: 多くの女性が同様の経験をすると主張することで、男性一般の行動パターンを推測しています。しかし、以下のような問題点があります。
サンプルサイズの偏り: 主張は「女性なら誰でも」という普遍的なものですが、実際に全ての女性の経験を網羅しているわけではありません。
主観性: 「性的対象として見てる視線」の解釈は主観に左右されやすく、客観的な定義が困難です。
因果関係の曖昧さ:視線の変化と性的な意図との間に、明確な因果関係があるとは限りません。他の要因(興味、関心、など)も考えられます。
結論:経験的推論としては弱い。普遍的な主張を支えるだけの十分な根拠がないため、論理的には妥当性が低いと言えます。
B:「で、その『性的対象として見てる視線』とやらがいくつ中いくつ当たってたか答え合わせしてないんだろ。『性的対象として見てる視線』とやらが必ずセクハラレベルの直接的な行動してくるわけないんだから。お前の確信とやらのうち100回に1回しか行動起こしてなくても私はぜったいに判別できる!とか自意識過剰になれるんだもんな。」
詳細: Aの主張の根拠となる「性的対象として見てる視線」の解釈の曖昧さと、その確信度を批判しています。具体的には、以下の点を指摘しています。
検証可能性の欠如: 「性的対象として見てる視線」が当たっていたかどうかを客観的に検証する方法がない。
行動との関連性の低さ: そのような視線が、必ずしもセクハラなどの直接的な行動に繋がるわけではない。
自意識過剰の可能性: Aの主張は、自身の判断能力に対する過信に基づいている可能性がある。
結論: Aの主張の弱点(検証可能性の欠如、主観性、行動との関連性の低さ)を的確に指摘しており、論理的に妥当性の高い反論と言えます。
論理構造: Bの発言者に対する人格攻撃(ad hominem)。
詳細: Bの主張内容ではなく、Bの人格を攻撃しています。「性的な目をしてる」「隠せてると思っている」といった根拠のない決めつけは、議論の本質から逸脱しており、建設的な議論を妨げるものです。
結論:論理的な根拠が全くなく、論理的に完全に誤りです。議論の体をなしていません。
D:「逆だろバレてるもの以外も見てるって話なんだから視線は見えなくても、ちゃんと日本語は見ようね 静止してるんだから見えるだろ
詳細: Cは、Bが性的な目を向けている(自覚がないかもしれないが)という前提で発言していますが、Bはそもそもそのような主張をしていません。Dは、CがBの主張を誤解している(もしくは意図的に歪曲している)と指摘しています。
結論: Cの発言が、Bの主張を誤解しているという指摘は論理的に妥当です。ただし、DがBの意図を完全に把握しているかどうかは不明であり、その点は考慮する必要があります。
最終結論
全体として、BとDが論理的に正しい発言であり、Cが最も誤った発言です。Aは、主張の根拠が弱いため、論理的な妥当性は低いと評価できます。