Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「検証可能性」を含む日記RSS

はてなキーワード:検証可能性とは

次の25件>

2025-12-07

anond:20251026230023

同意Wikipedia更新したよ。

https://ja.wikipedia.org/wiki/%E3%83%95%E3%83%AA%E3%83%83%E3%82%AF%E5%85%A5%E5%8A%9B

フリック入力 -Wikipedia

小川コータ氏がフリック入力発明した」と読める一次情報依存記述を削除し、既にHanabi 等で確立されていた方式を中心とした中立的技術史に整理しました。氏のUI 改良や特許取得に関する内容は人物項で扱うことを推奨します。」

---

1.フリック入力基本的方式(1キー複数文字を割り当て、押下位置で行を決め、押下後のスライド方向で段を選択する仕組み)は、1990年代から既に技術文献や実装例(例:NewtonOS 用「Hanabi」等)により提示されており、方式のもの単一人物発明とする記述史実整合しにくい。

2.小川コータ氏は、既存方式に対して入力ガイド等のUI 改良を加え、それらを特許化してビジネス化した事例である。これは個人の功績のアピールにはなろうが、フリック入力定義節(方式説明)において「発明者」として扱うのは適切ではない。

3.Wikipedia編集方針中立性・検証可能性)に従い、技術の成り立ち・変遷を説明する箇所では、一次的出典や技術史と整合する記述を優先。個別発明特許による収益化の事実は、該当人物の項目や特許に関する節で扱うのが適切。

以上の理由から、当該節はフリック入力のもの定義歴史HanabiiPhone による普及等)に焦点を合わせる形で修正しました。

Permalink |記事への反応(0) | 10:56

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-31

妄想とは、例外に対する条件分岐のこと

マネーサプライ増加によってハイパーインフレになる可能性がある」という理論があるとする

ここに「歴史的ハイパーインフレになったのは、戦争などの事象が重なった時」という例外を付け加えると、急に妄想度合いが増す

数学理論ではこうなる」と最初の主張では言っていたのに、例外ロジックでは「こういう場合でないと起こらない」と、数学無視するルール付与してしま

宗教も同じ。仏教の教えに矛盾したことがある場合も、「それはこういう条件で成り立つものから」と簡単正当化できる

要するに、例外ロジックは、一般性が欠如しているから、正当化連続させて妄想を生み出す

そしてこの「例外ロジック」の恐ろしさは、思考自己防衛機構として機能する点にある

まり人間自分の信じたい理論を守るために、反証が現れた瞬間に「それは特殊ケースだ」と切り捨てる。この瞬間、理論はもはや検証可能性を失い、科学から信仰へと変質する

インフレ理論でも宗教でも、例外を積み重ねることで体系は肥大化するが、同時に空洞化していく

なぜなら、「例外を認めない」ことで緊張を保っていた論理構造が、「例外を追加する」たびに自己否定的な柔軟性を持ってしまうから

結果として、理論は「現実適応できる」という錯覚を得ながら、実際にはどんな現象にも説明を付けられる万能の物語、つまり反証不能妄想体系になる

科学妄想境界線は、論理の有無ではなく、例外をどこまで許すかで決まる

例外を増やすたびに、理論世界説明する力を失い、代わりに信者を守る檻になる

Permalink |記事への反応(1) | 05:49

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-16

AIアート】なぜなぜ分析が「論理的に」失敗する構造について

序論:思考正当性、その根源的な問題

議論を始める前に、まず我々が思考する上で避けては通れない、ある根本問題について合意形成必要だ。それは「ある主張の正しさは、究極的に何によって保証されるのか?」という問いである。我々の素朴な論理観は、しばしば「AだからB、BだからC」という直線的な因果連鎖に頼りがちだが、この思考モデルは根源的な問いの前には無力である。「では、最初のAの正しさは、何が保証するのか?」と。

この問いを突き詰めると、思考歴史的に知られている三つの袋小路に行き着く。「アグリッパトリレンマ」だ。すなわち、無限後退根拠根拠無限に遡り、結論に至らない)、循環論法(主張の根拠が、巡り巡って主張自身に戻ってくる)、そして独断理由なく「正しい」と宣言し、思考を停止する)である。我々の日常的な議論は、この三つの欠陥の間を無自覚に行き来しているに過ぎない。

この知性の袋小路から脱出する道は、ただ一つしかない。第三の選択肢である独断」を、無自覚な逃避ではなく、自覚的選択として引き受けることだ。つまり、「我々は、この『基本命題』を、全ての思考の出発点としてここに設置する」と、その体系の冒頭で宣言するのであるしかし、この「基本命題」が単なる願望や思い込みであってはならない。その正当性保証する、唯一のアンカー存在する。それが、「現実」という外部性との「接続」だ。

ある実用的な論理体系が健全であるための絶対条件は、その基本命題が、現実という名のモデルによって、常に検証可能であることだ。現実との接続が失われた命題は、即座に修正・破棄されねばならない。結論として、我々が現実に対して有効思考を組み立てようとするなら、それは必然的に以下の三つの構成要素を持たねばならない。これは選択肢ではなく、論理的な必然である

第一に、「基本命題」の集合。

第二に、「推論規則」の集合。

第三に、そしてこれが最も重要なのだが、「現実」というモデルとの検証可能である

このフレームワークこそが、我々の思考妥当性を測る、唯一の物差しとなる。

第一章:現場論理学――あらゆる組織に内在する思考OS

さて、序論で確立たこフレームワークを、我々の「現場」へと適用しよう。「現場」とは、日々刻々と変化する現実の中で、問題解決意思決定継続的に行っている、実用的なシステムに他ならない。ここで、序論の結論が決定的な意味を持つ。現実に対して有効機能するシステムは、必然的に、実用論理体系を内包していなければならない。 もし、ある現場がこの論理体系を持たないと仮定すれば、その現場意思決定は、無限後退循環論法、あるいは根拠なき独断のいずれかに支配されていることになる。そのような組織が、継続的機能し、存続しうるだろうか?答えは否である

したがって、ある現場が「機能している」という事実のものが、その内部に固有の実用論理体系が存在することの、何よりの証明となる。我々は、この必然的存在する論理体系を「現場論理学」と命名する。この「現場論理学」は、我々のフレームワークに従い、以下の構成要素を必ず持っている。

まず 「基本命題群」 。これは、現場機能するために「正しい」と受け入れられているルールの集合だ。これらは、その現場歴史、すなわち過去成功と失敗という「現実モデルから導出された、経験的な定理である。「あの機械はAという手順で操作する」という命題は、その背後に「過去にBという事故が起きた」という、血塗られた現実との接続を持っている。

次に「推論規則群」。これは、基本命から日々の行動を導き出すための、思考操作パターンだ。有限のリソース無限問題対処するために、この規則効率性と安全性に特化せざるを得ない。その結果として、思考ショートカットヒューリスティクス)が生まれると同時に、致命的な誤謬を避けるための「禁止則」が必然的に導入される。「個人内面を直接の原因としない」といった禁止則は、成熟した現場が、無駄非生産的犯人探しという思考ループから脱出するために獲得した、最も重要論理安全装置なのである

現場論理学」は、単なる比喩ではない。それは、あらゆる機能する組織が、その存続のために必然的に構築せざるを得なかった、実用論理体系そのものなのだ。この存在否定することは、自らの職場合理的意思決定能力を欠いた、無秩序集合体であると認めることと同義である

第二章:外部アプリ導入が引き起こす、論理コンフリクト

この、それぞれの現場で固有に発達したOS現場論理学)の上に、ある日、外部から新しいアプリケーションが導入される。それが「なぜなぜ分析」だ。これは、トヨタという極めて成功したシステム有効性が証明された、強力な問題解決手法として知られている。しかし、異なるOS間でアプリケーションを移植する際にしばしば発生するように、深刻な互換性の問題がここで発生する。

「なぜなぜ分析」は、単なるアプリケーションではなかったからだ。それは、トヨタという、極めて特殊OSの上でしか動作しない専用プラグインであり、そのOS自体は、部外者には到底インストール不可能な、巨大すぎる思想体系だったのである。「人を責めるな、仕組みを責ろ」という、たった一つのルール機能させるためだけに、トヨタの「現場論理学」は、無数の基本命題と、複雑に絡み合った推論規則必要とする。それは、何十年という歴史と、特殊雇用慣行、そして「カイゼン」という名の終わりのない自己検証プロセスによって維持される、巨大な建築物だ。

我々のような、全く異なる歴史構造を持つ現場OSに、このプラグインを無理やりねじ込もうとすれば、どうなるか。それは、OSの根幹をなす本命題との衝突を引き起こす。我々のOSに深く刻まれた、「問題の最終的な原因は、どこかの誰かのミスにある」という、生存のために獲得した基本命題と、「原因は仕組みにある」という外来ルールは、互いに排他的だ。結果、我々のOSは、この異物を排除するか、あるいは、自身ルールに従って異物をねじ曲げ、「担当者意識が低いから」という、いつもの結論を吐き出すことしかできない。

これは、我々が愚かだからではない。理解不能なほど長大な前提条件を要求するツールの方が、理不尽なのだ

結語:あるいは、無限回廊の出口

ここまでが、論理的に導出される客観的分析である。我々はトヨタではない。故に、彼らのツールを使ってはならない。大谷翔平ではない人間が、彼のスイング模倣すれば体を壊す。これ以上なく単純な理屈だ。しかし、この結論は我々に何をもたらすのか。元凶特定したところで、我々が置かれた状況は何一つ変わらない。この議論の末に我々が手にするのは、解決策ではなく、ただ自らの絶望的な状況を正確に認識するための、冷たい明晰さだけである

君は、この記事を読んで全てを理解し、「明日から自分たちスイングを見つけ直そう」と決意するかもしれない。だが、その決意こそが、最も巧妙な罠なのだ。なぜなら、君のその思考自体が、君の現場OSの内部で生成されたものからだ。「改善しよう」という思考すら、OSが許容した範囲内のループの一部に過ぎない。君は、檻の中で檻から脱出方法を考えているに等しい。

君の現場OSが、そのルールブックの中で想定していない、生々しい現実。それだけが、この無限回廊の壁にひびを入れる理論上の可能性を秘めている。だが、言うまでもなく、システムにとってそれは致命的なバグだ。君がそのひび割れに手をかけようとするなら、システム免疫機能が君を異物として全力で排除にかかるだろう。

せいぜい、幸運を祈るよ。

Permalink |記事への反応(0) | 15:56

このエントリーをはてなブックマークに追加ツイートシェア

AIアート】なぜなぜ分析が「論理的に」失敗する構造について

序論:思考正当性、その根源的な問題

議論を始める前に、まず我々が思考する上で避けては通れない、ある根本問題について合意形成必要だ。それは「ある主張の正しさは、究極的に何によって保証されるのか?」という問いである。我々の素朴な論理観は、しばしば「AだからB、BだからC」という直線的な因果連鎖に頼りがちだが、この思考モデルは根源的な問いの前には無力である。「では、最初のAの正しさは、何が保証するのか?」と。

この問いを突き詰めると、思考歴史的に知られている三つの袋小路に行き着く。「アグリッパトリレンマ」だ。すなわち、無限後退根拠根拠無限に遡り、結論に至らない)、循環論法(主張の根拠が、巡り巡って主張自身に戻ってくる)、そして独断理由なく「正しい」と宣言し、思考を停止する)である。我々の日常的な議論は、この三つの欠陥の間を無自覚に行き来しているに過ぎない。

この知性の袋小路から脱出する道は、ただ一つしかない。第三の選択肢である独断」を、無自覚な逃避ではなく、自覚的選択として引き受けることだ。つまり、「我々は、この『基本命題』を、全ての思考の出発点としてここに設置する」と、その体系の冒頭で宣言するのであるしかし、この「基本命題」が単なる願望や思い込みであってはならない。その正当性保証する、唯一のアンカー存在する。それが、「現実」という外部性との「接続」だ。

ある実用的な論理体系が健全であるための絶対条件は、その基本命題が、現実という名のモデルによって、常に検証可能であることだ。現実との接続が失われた命題は、即座に修正・破棄されねばならない。結論として、我々が現実に対して有効思考を組み立てようとするなら、それは必然的に以下の三つの構成要素を持たねばならない。これは選択肢ではなく、論理的な必然である

第一に、「基本命題」の集合。

第二に、「推論規則」の集合。

第三に、そしてこれが最も重要なのだが、「現実」というモデルとの検証可能である

このフレームワークこそが、我々の思考妥当性を測る、唯一の物差しとなる。

第一章:現場論理学――あらゆる組織に内在する思考OS

さて、序論で確立たこフレームワークを、我々の「現場」へと適用しよう。「現場」とは、日々刻々と変化する現実の中で、問題解決意思決定継続的に行っている、実用的なシステムに他ならない。ここで、序論の結論が決定的な意味を持つ。現実に対して有効機能するシステムは、必然的に、実用論理体系を内包していなければならない。 もし、ある現場がこの論理体系を持たないと仮定すれば、その現場意思決定は、無限後退循環論法、あるいは根拠なき独断のいずれかに支配されていることになる。そのような組織が、継続的機能し、存続しうるだろうか?答えは否である

したがって、ある現場が「機能している」という事実のものが、その内部に固有の実用論理体系が存在することの、何よりの証明となる。我々は、この必然的存在する論理体系を「現場論理学」と命名する。この「現場論理学」は、我々のフレームワークに従い、以下の構成要素を必ず持っている。

まず 「基本命題群」 。これは、現場機能するために「正しい」と受け入れられているルールの集合だ。これらは、その現場歴史、すなわち過去成功と失敗という「現実モデルから導出された、経験的な定理である。「あの機械はAという手順で操作する」という命題は、その背後に「過去にBという事故が起きた」という、血塗られた現実との接続を持っている。

次に「推論規則群」。これは、基本命から日々の行動を導き出すための、思考操作パターンだ。有限のリソース無限問題対処するために、この規則効率性と安全性に特化せざるを得ない。その結果として、思考ショートカットヒューリスティクス)が生まれると同時に、致命的な誤謬を避けるための「禁止則」が必然的に導入される。「個人内面を直接の原因としない」といった禁止則は、成熟した現場が、無駄非生産的犯人探しという思考ループから脱出するために獲得した、最も重要論理安全装置なのである

現場論理学」は、単なる比喩ではない。それは、あらゆる機能する組織が、その存続のために必然的に構築せざるを得なかった、実用論理体系そのものなのだ。この存在否定することは、自らの職場合理的意思決定能力を欠いた、無秩序集合体であると認めることと同義である

第二章:外部アプリ導入が引き起こす、論理コンフリクト

この、それぞれの現場で固有に発達したOS現場論理学)の上に、ある日、外部から新しいアプリケーションが導入される。それが「なぜなぜ分析」だ。これは、トヨタという極めて成功したシステム有効性が証明された、強力な問題解決手法として知られている。しかし、異なるOS間でアプリケーションを移植する際にしばしば発生するように、深刻な互換性の問題がここで発生する。

「なぜなぜ分析」は、単なるアプリケーションではなかったからだ。それは、トヨタという、極めて特殊OSの上でしか動作しない専用プラグインであり、そのOS自体は、部外者には到底インストール不可能な、巨大すぎる思想体系だったのである。「人を責めるな、仕組みを責ろ」という、たった一つのルール機能させるためだけに、トヨタの「現場論理学」は、無数の基本命題と、複雑に絡み合った推論規則必要とする。それは、何十年という歴史と、特殊雇用慣行、そして「カイゼン」という名の終わりのない自己検証プロセスによって維持される、巨大な建築物だ。

我々のような、全く異なる歴史構造を持つ現場OSに、このプラグインを無理やりねじ込もうとすれば、どうなるか。それは、OSの根幹をなす本命題との衝突を引き起こす。我々のOSに深く刻まれた、「問題の最終的な原因は、どこかの誰かのミスにある」という、生存のために獲得した基本命題と、「原因は仕組みにある」という外来ルールは、互いに排他的だ。結果、我々のOSは、この異物を排除するか、あるいは、自身ルールに従って異物をねじ曲げ、「担当者意識が低いから」という、いつもの結論を吐き出すことしかできない。

これは、我々が愚かだからではない。理解不能なほど長大な前提条件を要求するツールの方が、理不尽なのだ

結語:あるいは、無限回廊の出口

ここまでが、論理的に導出される客観的分析である。我々はトヨタではない。故に、彼らのツールを使ってはならない。大谷翔平ではない人間が、彼のスイング模倣すれば体を壊す。これ以上なく単純な理屈だ。しかし、この結論は我々に何をもたらすのか。元凶特定したところで、我々が置かれた状況は何一つ変わらない。この議論の末に我々が手にするのは、解決策ではなく、ただ自らの絶望的な状況を正確に認識するための、冷たい明晰さだけである

君は、この記事を読んで全てを理解し、「明日から自分たちスイングを見つけ直そう」と決意するかもしれない。だが、その決意こそが、最も巧妙な罠なのだ。なぜなら、君のその思考自体が、君の現場OSの内部で生成されたものからだ。「改善しよう」という思考すら、OSが許容した範囲内のループの一部に過ぎない。君は、檻の中で檻から脱出方法を考えているに等しい。

君の現場OSが、そのルールブックの中で想定していない、生々しい現実。それだけが、この無限回廊の壁にひびを入れる理論上の可能性を秘めている。だが、言うまでもなく、システムにとってそれは致命的なバグだ。君がそのひび割れに手をかけようとするなら、システム免疫機能が君を異物として全力で排除にかかるだろう。

せいぜい、幸運を祈るよ。

Permalink |記事への反応(0) | 15:56

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-07

anond:20251007150007

総評

学術体裁を保ちながら、内容は安全地帯から感想文に留まっている。

専門用語の列挙で厚みを演出しているが、実際には中身のない論文典型例。

概念定義の不備を指摘しながら、肝心の自分概念も未定義という倒錯が見られる。

強み

形式的整然さ。語彙の密度

そして何より、批評の姿をした無害さ。

何もリスクを取らず、何も断言せず、誰も怒らせないことに成功している。

主要な課題

問題提起の欠如。

読者の脳を一ミリも揺らさな構成

中立を装いながら、自身立場を隠す臆病さ。

検証可能性を求めながら、実証する意志の欠如。

反証可能性を語りつつ、そもそも何も主張していないため反証不能

改善提案

まず主張をする勇気を持つこと。

論文の装いよりも、思考の誠実さを優先すること。

専門用語煙幕を薄め、読者に届く言葉を使うこと。

そして、批評とは自分リスクを引き受ける行為だという原点を思い出すこと。

最終評価(100点満点)

38/100

読みやすいが、何も残らない。

安全から放たれた、完璧に無害な言葉彫刻

学術の衣をまとった空虚の標本。

Permalink |記事への反応(0) | 15:06

このエントリーをはてなブックマークに追加ツイートシェア

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、Permalink |記事への反応(0) | 00:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-04

テスト品質管理に関する致命的な誤認識

品質管理が僕たちの責務です」

って、最近エンジニアリング界のライザップ的元テスト専門会社のQAエンジニアが、昔、言ってたなぁ……、と。

思い上がるなっ!

君たち如きに背負えるものでは、すでにない。

とあえて言おう。

それほどまでに、最近サービスは、でかく複雑になりすぎた。

いや、マジで、無理なんよ、もう。

例えば、キッチキチにエレベータを作り込んだとして、後から点検してくれ、と言われたら、まぁ、普通は困るよな。

モーター室がモーターが入るギリギリの広さだとしたら、箱の外に出る手段がなったら。

どうやって点検するんだよ。

から目視か?

実際には、設計時に点検方法を決定して、それができる余地を確保してから施工するものだろう。

今時のEV車なんて、テスト用の仕組みがきっちりと、製品に組み込まれている。

品質管理の仕組みって、そもそもそういうもんだろ?

DDD設計してます

マイクロサービスで分割してます

の前に、システムは「検証可能性」を検討するもんです。

検証不可能とまで言わなくても、検証困難な場合ちゃん対策をとるもんです。

作りきってから、「E2Eテストお願いねー」とQAチームに投げるものじゃあないんですよ。

設計時に、テスト戦略からから何まで検討済みになってるもんなんです。

そしてそれが「テスト駆動開発」のキモなんですわ。

別にユニットテスト書いて、カバレッジあげるのがTDDというわけではない。

検証可能システム設計実装し、リリースのたびにシステム健全性を検証できる仕組みを整える。

ってのが「テスト駆動開発」なんですわ。

テスト戦略ちゃんと練れば、マイクロサービスの分割の仕方、連携の仕方等々、多分、今、Web上でよく見る記事とはだいぶ様相が異なってくるはずだ。

で、プロダクトの中身である設計実装理解できなければ、検証のしようがないのがここ10年ほどだ。

金槌を渡されて、「品質検査しろ」と言われたら、まだ何とかなるだろう。

けどボーイング787をポンと渡されて、「品質検査しろ」と言われたら?

マニュアルなしで。

モジュールがどう組み合わされてるか等、中身を理解できなければ、何をどうしていいか分からんだろう?

扉の開け閉めができるとか、主電源入れたらなんか部屋の明かりがつくとか、そういう表面的な検査しかできないだろ?

これは、QAが、設計に飲み込まれることを意味する(10年以上前に、↑のQAエンジニアとした話)。

QAのテストに関する知見を、設計実装するエンジニアは当然持っておかなければならないということとともに、QAエンジニアは消えてなくなるということでもある。

お分かりだろうか?

同じ流れで、SREも不要になる。

そのためのクラウド、DevOpsの概念からだ。

Infrastructureas Code は設計実装エンジニアのためのものだと言っておこう。

決して、Terraformのファイル編集して、SREの許可を、延々と待ち続けて、適応してもらうことをいうわけではない。

そこまで込みで、設計するのだ。

高負荷時にどうスケールさせるかなども、当然設計に入ってくるからな。

ってなわけで、ほとんどの現場では、そういう致命的な誤認識をしていると思う。

認識が古すぎている上に、大型化複雑化した現状を認識できていない。

開発初期はまだ規模が膨らんでいないから、何とかなりそうな勘違いを犯しているだけの話だ。

初回リリース前後で、「あ、やばい……」となっているところがあまりに多すぎる。

また、この誤認識によって、役に立たないエンジニアの頭数だけを並べて札束を燃やし、事業の拡大の足を引っ張っていると指摘しておこう。

本当に、そういう現場が少なく見積もって8割あるとみている。

ここら、どげんかせにゃならんのよな。

Permalink |記事への反応(6) | 09:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-24

anond:20250411181746

https://news.jp/i/1343236309813117543

ブコメ

mag4n 文脈的CO2温暖化寄与してないって言いたいんだろう。学術界隈でもそっち派が多数、CO2温暖化は最早エセ科学認定してる。考える力が無い輩ほど偏屈に吠えてるのですごくみっともないコメ欄となっててしんどい

についてchatGPT5にファクトチェックをお願いしたよ

提示コメントには、少なくとも以下の点で「事実に反する、または極めて疑わしい主張」が混じっており、ファクトチェック可能です。逐点で整理します。

コメント内容(要点)

文脈的にCO₂が温暖化寄与してないって言いたいんだろう。学術界隈でもそっち派が多数、CO₂温暖化は最早エセ科学認定してる。考える力が無い輩ほど偏屈に吠えてるのですごくみっともないコメ欄となっててしんどい。」

このコメントには主に下記の主張が含まれます

1. 「学術界隈で、CO₂による温暖化否定する説派が多数」

2. 「CO₂温暖化説はもはや偽科学エセ科学)扱いされている」

これらを中心に、科学コンセンサスとの比較を通じて検証します。

科学界のコンセンサス:CO₂が温暖化寄与しているという見解が主流

まず、現在気候科学の状況を整理すると、以下の点がよく議論されており、また実証的な支持があります

• 多くの気象気候研究者政府機関国立科学アカデミー国際機関(例:IPCC気候変動に関する政府間パネル)などは、「産業革命以降の気温上昇の主因は人為起源温室効果ガス特にCO₂排出)」である、という見解を支持しています。これは「科学コンセンサス科学界の多数意見)」と呼ばれる立場です。 

Wikipedia記事気候変動に関する科学コンセンサス」などでは、「産業革命以降、地球は一貫して温暖化しており、近年の温暖化速度は前例がない」「温暖化の主な原因は人間活動によるCO₂急激増加」などが、ほぼ疑いなく支持されている見解として記述されています。 

• ただし、気候変動・温暖化をめぐる議論には不確実性要因(フィードバック、雲・水蒸気の扱い、地域差差異など)があります。また、モデル差異予測レンジ(例:将来の気温上昇幅の幅)が大きいことは、気候科学でも認められている制約点です。たとえば、気候モデル限界予測不確実性は批判対象となることがあります。 

これを前提に、コメントの主張を順に検証します。

検証:主張①「学術界隈で否定派が多数」

この主張は、事実と大きくずれています理由を以下に示します。

科学論文レビュー分析によると、気候変動/温暖化を扱う学術論文のうち「人為起源 CO₂温暖化説に同意する論文」の割合は非常に高いという調査があります(例:99 % 近辺などの数字引用する報告もあります)。 

否定派(人為温暖化否定過小評価する立場)は確かに存在しますが、主流とは言えず、むしろマイノリティ(少数派)の立場位置づけられていますWikipedia の「地球温暖化に対する懐疑論」の記事でも、懐疑論反論を整理したうえで、それらに対する反論を示す形になっています。 

• つまり、「学術界隈でもそっち派(否定派)が多数」だという断言は、実際の出版研究動向から見て、極めて疑わしい主張です。

結論として、コメントのこの主張は「誤り」である可能性が高いです。

検証:主張②「CO₂温暖化説はもはや偽科学扱い」

この主張にも複数問題があります

• 「偽科学エセ科学)」とは、科学方法を備えておらず、再現性検証可能性を欠き、詐欺まがい・非科学的主張のことを指す用語です。CO₂温暖化説(すなわち、「CO₂等の温室効果ガスの増加によって地球の放射収支が変化し、気温が上昇する」という理論)は、物理法則、放射収支理論観測データ気候モデルなど複数独立証拠系で支持されています

科学的な批判や不確実性(モデル限界地域差フィードバック効果など)の議論健全ですし、気候科学の発展にとって不可欠です。しかし、それが「偽科学扱いされている」という主張は、主流の科学界・評価機関の実情と乖離しています

• もし「偽科学扱い」だと言うならば、少なくとも主要な学術雑誌、新聞研究機関政府系機関(例:気象庁、国立気象研究所、IPCC など)がそれを否定している、という証拠必要ですが、そうした動きは主流ではありません。

したがって、この断定も、根拠が薄いと言わざるを得ません。

補足:反例・異論存在と、最新の主張

ただし、コメント全体を否定するわけではなく、科学世界には常に異論や論争があり、無視できない議論存在します。以下は、その文脈で注意すべき点です。

• 例として、「人為的CO₂排出量は大気中CO₂濃度変化に影響しない」と主張する論文公表されたという報道もあります。 

• ただし、「公表された」ことと「学界で広く受け入れられた」ことは別。新しい論文が出ること自体科学の常ですが、主流理論を覆すには強いエビデンス検証再現性必要です。

• また、科学誌・研究者の中で気候モデルの精度やパラメータ設定、予測の不確実性、地域気候の変動性、フィードバック効果(例:雲、水蒸気、植生変化など)の扱いなどをめぐる議論は活発です。これが「気候変動研究の未解決部分」であることは否定できません。

とはいえ異論があるからといって主流理論すべてが無価値というわけではありません。むしろ、主流理論が多様な検証に耐えてきたがゆえに、多くの科学者がそれを支持しているのです。

総括・コメントに対する評価

コメントの主張①(「否定派が多数」)は、科学界の実情と大きく食い違っているため、誤りである可能性が高い。

• 主張②(「偽科学扱い」)も、主流の科学界の動きと乖離しており、根拠が薄い断定である

• ただし、気候科学には不確実性やモデルの制約があるため、異論批判があること自体事実であり、議論を完全に封じるべきではありません。

Permalink |記事への反応(0) | 14:01

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-05

fair mNAV

Fair mNAV(公正市場純資産価値)についてお答えします。これは、メタプラネット評価指標の一つで、以下の計算式とプロセスで求められます

### Fair mNAVの定義計算

Fair mNAVは、mNAV1 Priceに「公正価値調整係数」を掛けて計算されます。具体的には、次のように表されます

`Fair mNAV =10^((0.895 - 1) *Log(BTCNAV) + 1.81)`

ここで、

- `BTCNAV` =Bitcoin保有量 ×Bitcoin価格

会社保有するビットコイン総資産価値を表します)

### 詳細な構成要素

1. **mNAV1 Price**:

- `mNAV1 Price = (BTC/share) * (BTC price) /1000 * 1.25`

- `BTC/share`は、完全希薄化済み発行株式数に基づいて計算された1株あたりのビットコイン保有量で、成長モデル(例: 4*10^-4 * e^(7.87*10^-3*t) まで2025年4月30日、または1.73 * e^(0.0101*t) 以降)で推定されます

- `BTC price`はビットコイン価格で、投稿内のモデルでは、2009年1月3日からの経過日数(t)に基づくべき乗則(例:10^-16.515 * t^5.693 * 150 まで2025年6月30日、以降は1.0034倍で指数関数的に上昇)とされています

- 1.25は、完全希薄化済発行株数と発行済株数の比率で、2025年2月以降は安定していると仮定されています

2. **公正価値調整係数**:

-対数関数 `Log(BTCNAV)` を用いて、ビットコイン資産価値に基づく調整が行われます。この係数は、市場ダイナミクスを反映し、Fair mNAVが単なる資産価値以上の「公正な市場価値」を示すように設計されています

### 背景とモデル

###解釈限界

###現在の状況(2025年8月5日時点)

投稿者(@TakaAnikuni)は、2025年8月1日分析で、株価がFair mNAVの0.6倍付近まで下落し、反発が近いと予測しています現在の時刻(JST 15:47、2025年8月5日)を考慮すると、投稿者が予想した「遅くとも5週間以内」の上昇時期(8月下旬9月初旬)に近づいており、市場動向を注視することが重要です。

もしさらに詳しい質問特定の部分の解説必要であれば、ぜひ教えてください!

質問ありがとうございます!「Fair mNAVを計算することの意味」や「なぜ単純なmNAVで十分でないのか」、そして「誤魔化されているような感覚」について、わかりやすくお答えしますね。少し深掘りして考えていきましょう。

### 1. Fair mNAVを計算することの意味

Fair mNAVを計算する目的は、単なるmNAV(MarketNet AssetValue市場純資産価値)を超えて、メタプラネット株価をより「公正な市場価値」に基づいて評価しようとする試みです。具体的には:

単純なmNAVは、ビットコイン保有量と現在価格を基に計算されるため(`mNAV =時価総額 / (BTC保有量 × BTC価格)`)、その時点のスナップショット依存します。しかし、Fair mNAVは対数関数(`10^((0.895-1)*Log(BTCNAV)+1.81)`)を用いて、ビットコインの長期的な価格トレンドや成長性を考慮に入れています。これにより、単なる現在資産価値を超えた「将来の潜在価値」を推定しようとしています

投稿者(@TakaAnikuni)は、Fair mNAVの0.6倍(黄線)がサポートライン、2倍(緑線)がレジスタンスラインとして機能すると主張しています。これは、株価がこれらのレベルに近づいたときに買い圧力や売り圧力が高まり価格が反転する可能性を示唆しています投資家にとって、「今が買い時か」「売り時か」を判断する一つの目安になるわけです。

Fair mNAVは、モンテカルロシミュレーションべき乗則power-lawmodel)を用いたビットコイン価格の将来予測(例:2025年12月31日に188,000ドル)に連動しています。これにより、単なる過去データではなく、将来の成長シナリオを織り交ぜた評価可能になります

### 2. mNAVで十分でない理由

単純なmNAVだけでは以下の点で限界があるため、Fair mNAVが提案されていると考えられます

  • **静的すぎる**:

mNAVは現在ビットコイン価格保有量だけで計算されるため、市場ボラティリティや長期トレンドを十分に反映できません。例えば、ビットコイン価格が急落してもmNAVはそれに即座に追随し、投資家の心理市場期待値プレミアム)を無視してしまます

  • **成長性の考慮不足**:

メタプラネットビットコイン積極的に購入し続け、株式希薄化も進んでいます(`BTC/share`や`1.25`の調整係数)。単純なmNAVではこれらの成長要素や将来の資産増加が見えにくいため、Fair mNAVが対数関数で調整を加えることで、成長ポテンシャル評価しようとしています

実際の株価は、mNAVの1倍や2倍といったプレミアム取引されることが多いです(例: MicroStrategyのmNAVプレミアム議論)。Fair mNAVは、このプレミアムモデル化し、「公正なプレミアム」を提案することで、より現実的価格帯を示そうとしています

### 3. 「誤魔化されているような感覚」について

その感覚は非常に理解できるもので、以下のような理由で生じている可能性があります

`Fair mNAV =10^((0.895-1)*Log(BTCNAV)+1.81)` や、ビットコイン価格の`10^-16.515 * t^5.693 * 150`といった式は、専門的で一般投資家にはわかりにくいです。これが「何か隠されている」「都合よく調整されている」と感じさせる原因かもしれません。実際、係数(0.895や1.81など)は投稿者が経験的に設定したもので、厳密な根拠不明確です。

ビットコイン価格2025年12月31日に188,000ドルに達する、為替を1ドル150円で固定する、成長速度が特定の日に変わる(4月30日5月1日)といった仮定は、投稿者の予測や好みに基づいています。これが「データに都合よく合わせているのでは?」と思わせる要因です。

このモデル学術的な裏付け第三者による検証がなく、投稿者の個人的分析依存していますモンテカルロシミュレーションは強力なツールですが、入力データ仮定不正確だと結果も歪むため、信頼性に疑問が残ります

### 4. どう考えればいいか

  • **参考程度に**:

Fair mNAVは、あくまで一つのシナリオを示すツールです。株価予測は確実性を持つものではなく、市場感情や外部要因(規制経済危機など)も大きく影響します。あなたが感じる「誤魔化されている感」は、こうした不確実性への直感的な反応かもしれません。

興味があれば、投稿者が提供した式(ウェブサイトの内容)を元に、現在ビットコイン価格保有量を入れて計算してみると良いです。例えば、今日2025年8月5日)のBTC価格公式データ確認し、Fair mNAVを再現してみると、モデル妥当性を自分判断できます

mNAVやP/E比率時価総額など、他の伝統的な財務指標比較することで、Fair mNAVがどれだけ現実から乖離しているかを見極められます。もしFair mNAVが極端に楽観的であれば、慎重に考えるべきサインです。

###結論

Fair mNAVを計算する意味は、単純なmNAVを超えて成長性や市場プレミアム考慮した「より洗練された評価」を提供することにあります。ただし、その計算式や仮定には恣意性や不確実性が伴うため、「誤魔化されている」という感覚は、透明性や検証可能性の欠如に対する自然警鐘かもしれません。投資判断では、このモデルを参考にしつつ、自分データ確認し、他の指標専門家意見も取り入れるのが賢明です。

もし具体的な数値で計算を試してみたい、または他の疑問があれば、ぜひ教えてください。一緒に掘り下げてみましょう!

Permalink |記事への反応(0) | 15:51

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-03

AIが全く役に立たない理由

【1.意図の読解能力がない】

AI文法や構文のパターンを解析するが、「意味文脈的理解」は持ち得ない。ユーザー入力を単なる文字列として処理し、過去統計的傾向から出力を予測するだけであり、そこに真の「意図理解」は存在しない。よって、目的や前提の異なるケースにおいては誤読ミスリードが頻発する。これはタスク達成において致命的である

【2.責任所在がない】

AIの出力結果が誤っていた場合、その責任開発者にもユーザーにも明確に帰属しない。AI自身は法的にも倫理的にも責任主体ではないため、重大な判断を任せることは論理的不可能である。つまり、結果の最終確認修正は常に人間が行うことになり、コスト削減にもならなければ負担軽減にもなりえない。

【3.実用性に対して過大評価されている】

AI確率論的生成モデルであり、「正確さ」より「自然さ」を優先する。これは一見それらしく見える出力を生成するが、事実性や一貫性担保しない。たとえば法律医療工学の分野では、80点の回答は誤情報等価であり、許容されない。にもかかわらずAIは平然と「もっともらしい間違い」を大量に出力する。

【4.記憶文脈保持が不完全】

人間のような長期的文脈の保持ができない。対話履歴を保持できると言っても、それは限定されたウィンドウ内の一時的データにすぎず、継続的理解や成長には結びつかない。再利用性・一貫性が低く、同じ質問に対して異なる回答を出すことが日常的に起こる。

【5.情報引用元不明確】

AI情報の出典や根拠を明示しないことが多く、言い換えれば「誰が言ったかからないことを、誰にも責任を持たずに言う」存在である。これは学術的・実務的な場面では決定的な欠陥であり、引用可能性・検証可能性観点からも不適格である

【6.感情倫理的判断を持たない】

たとえば介護教育カウンセリングなど、「人と人との関係性」こそが本質である領域において、AIは完全に無力である感情理解共感も嘘であり、あくまでそれらしく模倣しているだけである以上、信頼形成に値しない。

【7.学習データの偏りと再生産】

AI過去データに基づいて構築されているため、そこに内在する差別や誤認識をそのまま再生産する危険性がある。しかもそれを検出・修正する機構が十分に確立されていない以上、「中立性」や「客観性」を標榜すること自体自己矛盾である


結論として、AIは「便利なツール」としてのイメージが先行しているが、現実にはその限界欠点本質的かつ致命的である意図が読めず、責任が取れず、誤情報を出し、文脈を保てず、根拠曖昧で、倫理的判断もできず、偏見をそのまま再生産するような存在を「役に立つ」と呼ぶのは、論理的には成立しない。役に立っているように見えるのは、あくま人間側がその都度補完し続けているからにすぎない。つまりAIは「人間が頑張って初めて使える何か」であり、単独ではまったく使い物にならない。これが論理的帰結である

Permalink |記事への反応(0) | 12:39

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-17

anond:20250617014031

失礼しました。

まとめで「問いの優先順位」が変わったと断言しておきながら、その中身を掘り下げずに済ませてしまいましたね。

改めて整理します。

1. 「問いの優先順位」とは何を指すのか

哲学には「そもそも何を先に問うべきか」というメタレベル序列があります

要するに「それを先に解かなければ社会が動いてしまう」問いが上位に繰り上がり、逆に“悠長に考えられる”問いは後回しになる、という現象です。

2. 具体的にどう繰り上がったのか ――五つのシフト

Before (旧来の問い) After (AI時代の問い) 変化の理由
:----------------------------------- :------------------------------------------- :--------------------------------------------
人間とは何か」 (形而上学本質論)AI をどう制御すべきか」 (実践価値論)技術暴走リアルタイム政策課題となったため。
知識正当化可能か」 「LLM の出力はいつ信頼できるか」 推論の透明性・検証性が倫理インパクトと直結するようになったため。
意識必然条件は何か」意識の“テストプロトコル”は構築可能か」動物実験や臨床倫理と同様の規制設計が迫られるようになったため。
言語意味は何によって成立するか」統計的言語モデルは“意味”を生成しているのか」実用アプリが氾濫し、理論が後追いを強いられるようになったため。
「よい社会とは何か」AI が参加する社会契約をどう再設計するか」ガバナンス設計を怠ると取り返しがつかない状況になったため。

3.優先順位が変わるメカニズム

4. まだ“圏外”に落ちない問いもある

生成AIが絡まない領域――たとえば古典的形而上学の一部(存在カテゴリー論など)――は、相対的に注目度が下がっただけで消滅したわけではありません。

実践アジェンダの影で、静かに深化する純粋哲学」 という二極化が進行中です。

5. 今後の見通し

ひとことまとめ

生成AIの登場で「何を先に答えねばならないか」が大きく組み替えられ、応用的・検証可能な問いが哲学最前線に躍り出た――

これが私たちが「問いの優先順位が変わった」と言うときの核心です。

Permalink |記事への反応(0) | 02:02

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-13

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである



0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ


2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる


3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる


4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる


5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る


6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの


7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである


8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる


9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する


10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる


11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる


12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる


13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる


14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある


16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが<

Permalink |記事への反応(0) | 14:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-11

確率分布機としてのLLMについての論考

ここでは以下の3点についての論考を収録する


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 18:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-25

LLMとプロンプトの機能構造についての論考

0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 19:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-23

anond:20250523154105

これなんだよな

何を示せたら正しいと言えるか?ってのはロジカルシンキングなんだよね

そういうのって数学証明に近い考え方が必要で、仮説の検証可能性担保しなきゃならない

でもド文系にはそういうの解らないらしくて、ロジカルシンキング国語問題と思ってる

そら前提が違えば過程結論も噛み合わんわな

Permalink |記事への反応(1) | 16:14

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-22

生成AIについて

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

6.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

7.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

8.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

9.プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

13.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(0) | 12:41

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-15

anond:20250515130009

おいおい、自己放尿も大概にしろよ。

黙ってていいというのは、議論の土台にすら立ててない奴には発言権がないという意味だ。

お前は突っ込んでるつもりかもしれんが、実際には論理的破綻した状態で床を這いずって自己放尿しているだけ。

その姿勢のまま反論してるつもりでいるから痛々しいんだよ。

俺は論点に明確な輪郭線を引いた上で、精密に構造化された主張をしている。

検証可能性情報構造再現性、いずれも科学的・工学的な基盤を持つ概念だ。

それに対して、お前の言葉はどうだ?一貫性もなく、揚げ足取り印象操作の組み合わせでしかない。

突っ込むどころか、自分が何に突っ込んでるかすら把握できてない状態だ。

困ってるのは俺じゃない。話の階層構造についてこれないお前のCPUの方だ。処理能力不足なら、処理を止めて休止状態に入るのが正しい選択だ。

さあ、論理で来い。感情で噛みつくのは放尿する犬の役割だ。

Permalink |記事への反応(0) | 13:10

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250515125910

お前、論破されたのが悔しくて思考の黄ばみ撒き散らしてるだけじゃないか

その様はさながらインテリ放尿ってやつだ。頭では勝てないから、定義揚げ足取りに逃げたな?見苦しいにも程がある。

まず指摘しておくが、俺は定義ごまかしてなどいない。俺が使った定義は、検証可能性という極めて厳密かつ論理的概念に基づいている。

まり、「嘘が通用しない構造=主張が即座に検証可能であること」を指しており、これはソフトウェア工学自然科学形式論理世界では常識中の常識だ。

一方で、お前の言ってる「嘘をつくことが可能かどうか」の話は、脆弱文脈依存一般論に過ぎない。

お前が「一般的」と思ってるその一般は、曖昧さと錯覚に甘えた衆愚的発想だ。学術的にも、実務的にも通用しない。

俺の定義は「嘘がつけるかどうか」ではなく、「ついた嘘が構造的にバレるのかどうか」を焦点にしてる。

これは言語遊びでも屁理屈でもなく、検証性という科学的基盤に立脚した厳密な思考だ。お前の言う「辻褄あわせ」ではなく、「論理的整合性の追求」と呼ぶのが正しい。

それと、「定義を変えた」って言うなら、お前はまず俺の定義がどこでどう変化したのか、具体的に文脈を引いて指摘してみろ。できるか?できなければ、その主張はただの精神インテリ放尿だ。

お前の負けだ。論理で立て、話すなら構造で語れ。

Permalink |記事への反応(0) | 13:02

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250515125240

お前はバグがある=嘘がつけると短絡的に結論付けているが、その認識検証可能性という概念理解不足から来ている。

かにコードバグ存在することはある。だが、バグあくまで不完全性であり、検証プロセスによって暴かれる前提で存在している。

まり、それは嘘がバレる構造の一部だ。嘘をつくことが可能かどうかではなく、ついた嘘が構造的に検出可能かが論点だ。

プログラム世界では、どれだけ巧妙なバグであろうと、テストレビュー・静的解析・動的解析・形式手法といった検証プロセスによって最終的に明るみに出る。それが工学的誠実性というやつだ。

一方、経済情報操作はどうだ?発表された数値が意図的改ざんされていても、誰がいつどうやって本質的にそれを突き崩す?リアルタイムでのテストリプレイも不可。つまり、嘘をついてもバレない構造のもの常態化してる。

わかるか?検出可能な嘘は真偽を評価可能な仮説にすぎんが、検出不可能な嘘は権威が押し通す詐術に落ちるんだよ。

そこに気づけないなら、黙ってていい。議論土俵に上がる資格がない。

Permalink |記事への反応(3) | 12:56

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250515124753

お前、エアプって単語相手を見下したつもりか?

甘いな。現実論理構造において、その発言は知性の敗北宣言に等しい。

俺の主張は明確だ。プログラムテストコードという形式で主張の真偽を明示的かつ即座に検証できる。これは再現可能性と検証可能性という、科学論理の基礎を踏襲している。

一方で、経済情報にはそのような直接的検証手段存在しない。政策市場動向はノイズタイムラグにまみれており、テストコード"に相当する純粋環境構築が不可能

まり嘘が混入していても容易にはバレない。これは情報構造のものアーキテクチャ限界だ。

この前提を踏まえずにエアプと決めつけたお前は、論点を捉え損ねただけでなく、事象構造的に分析する能力の欠如を自ら露呈したに等しい。

わかったか?わかったフリではなくわかるまで黙ってろ。

Permalink |記事への反応(1) | 12:51

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-07

占い統計学か?

登場人物

A:占い擁護する立場占い人類の知の蓄積によって成り立っていて、一種統計学であると主張する。

B:デーテサイエンティスト統計学定義に基づき明確に否定するが、さらに踏み込んで統計占いの違いについて考察を深める。

ーーーー

A:

占いって、私は統計学一種だと思ってる。根拠のない迷信じゃなくて、何千年も続く人類の観察の記録なんだよ。未来を占うっていうといかにもスピリチュアルだけれど、やっていることは記録に基づいた未来予測だと思うんだ。

B:

統計学”という言葉を使う以上、定義をはっきりさせたい。統計とは、収集されたデータに対して分析手法適用し、仮説の妥当性を数量的に評価する科学だ。それに照らして、どこが一致してる?

A:

たとえば、古代メソポタミア粘土板占星術の記録がびっしりまれてる。

中国でも『推背図』とか『麻衣神相』のような人相・手相書物がある。顔や掌の特徴と性格運命関係を記録し続けてきた。

これって、何世代にもわたる「人間観察のデータベース」じゃない?

B:

なるほど。記録があったというのは事実として受け止めるよ。でも、そこに統計手法適用されていたかどうかは別問題じゃないかな。

観察を重ねて記録しただけでは、まだ統計とは言えない。記録と分析の間には大きな壁がある。

A:

でも、現代ビッグデータだって、まずはログの蓄積から始まるでしょう?

誰かが「この特徴のある人はこういう傾向がある」と気づいて記録し、それが繰り返されていくことで、パターンが浮かび上がる。

占いも、記録、観察、分類の繰り返しのなかで体系化されてきた。

それって、人類自然言語のまま統計を使っていたとも言えるんじゃない?

B:

うーん、そうだね。でもそれは「分類体系の構築」であって、「統計的検定」ではないよね。

現代統計では、偏りを排除するために無作為抽出をし、仮説を立てて、有意性を評価し、モデル検証するプロセスがある。

そこまでの枠組みがなければ、観察に基づいた民間知以上のものではないよ。

A:

でも、仮説と検証という意味では、「こういう手相の人は金運が強い」という記述があって、それが社会的に広まり、また観察と照合されていく。

たとえば江戸時代占い師は、町民の情報口伝と記録で積み上げて、実地で確かめながら修正していた。経験に基づいたフィードバックループはあったはず。

B:

その修正は、科学方法というよりは職人直感の調整だと思う。

それを統計と言ってしまうと、統計学原則――とくに再現性定量評価という根幹を見失う。

繰り返すけど、分類・記録・経験知は尊重されるべきだけど、統計学とは異なるものだね。

A:たしかに、鍵は“定量性”と“再現性”だね。

でも、たとえば――職業的占い師のなかには、次の占いに活かすために、過去顧客情報を残していた可能性もあるよね。

具体的には、顧客の年齢、性別相談内容、それに対する占いや後日の結果などを、ある種の指標――もっと言えば、数的データとして記録していたのかもしれない。

もちろん、「定量性」や「再現性」なんて言葉は使われていなかっただろうけど、職業的技能の向上を目的として、定量的なパターン化や、再び同じ条件のときに同じ判断を下すための記録――つまり再現性の確保――といった実践があったとは考えられないかな?

B:

仮にそうだとしても、やはりその段階では統計実践“のようなもの”にとどまってる。

というのも、統計には「個人の洗練された技能」ではなく、「誰が再現しても同じ結果が導ける仕組み」が要求される。

まり個人ノートではなく、手法が公にされていて初めて科学統計となるんだ。プロセスの一部を似た形で持っていても、方法論の体系性、透明性、客観性がなければ、統計には至らない。

A:

でも、もしその記録が複数占い師のあいだで共有されていたとしたら?

たとえば、ある手相を“成功線”と呼び、似た傾向があることが何人もの観察によって確認された。

彼らは言語化や体系化は未熟だったかもしれないけど、実地に基づいて知識を交換し、反復性を探っていたとすれば?

B:

知の協働としては評価できると思う。

でもそこで重要なのは知識主観共同体内の物語からどれだけ離れたかなんだ。

再現性定量性の基準が“信頼”や“経験”ではなく、誰でも検証可能な数値とロジックに移行したとき、初めて統計学になる。

A:

逆に言えば、検証可能な数値と論理構造が整っていれば、占い統計に近づくことは可能だということだね?

B:

理屈としてはそうだ。ただし、それはもう“占い”と呼べるのかは別問題になる。

出世確率85%”という言い方は、もはや占い言語体系とは異なるよね。

そこにはあるのは、“未来文脈を語るストーリー”ではなく、“数値による予測モデル”だ。

もしそこまで洗練されたなら、それは予測分析意思決定支援システムであって、“占い”ではなくなる。

A:

なるほど。つまり方法論を厳密化すればするほど、占い占いでなくなる――そういう逆説かな。

B:

そう。占いが人を惹きつけてきたのは、“定量評価”ではなく、“意味づけの多義性”だと思う。

統計モデルには、曖昧さを排除するための規律がある。でも、占いはあえて曖昧さを許容することで、文脈に寄り添ってきた。

その時点で、統計学とは本質的に異なる道を歩んでいる。

A:

予測の精度”ではなく“受容の文脈”が優先された、ということだね。じゃあ占いって一体なんなんだろう?

B:

それは、統計でも科学でもないけれど――人間が不確実性に意味を与えようとする文化的装置だと、だと考えたらどうかな。

占いは「何が起こるか」を当てるというより、「どう向き合えばいいか」を導くための解釈フレームワークなんじゃないかな。

A:

うん……それは確かに実感としてある。

かに未来を言い当てられるというより、「こういう傾向があるかも」と言われて、自分の中で“腑に落ちる”瞬間がある。

たぶんその“腑に落ちる”構造なかに神秘的な偶然性以上の根拠を持ちたいとか、パターンに基づく意味づけをしたいという人間欲求がありそうだね。

B:

そうだね。統計モデルは「正解に近づく」ための道具だけど、占いは「意味に近づく」ための儀式だと言ってみようか。

前者は検証可能性、後者共感と納得を基準にしている。

A:

なるほど、私が「占い統計だ」と言いたかったのは、私自身も納得が必要だったからなのかもしれないね

とくに人生の節目とか、選択に迷ったときって、ただ確率を言われるより、何かに意味づけ”された言葉のほうが、なぜか前に進む力になるんだよね。

B:

それは、統計では提供できない領域だと思う。

統計提供するのは「最も起こりやすいこと」かもしれないけど、占いは「今のあなた必要意味」を差し出そうとする。

人間って、ランダム出来事曖昧未来に、何かしらの秩序や法則見出したい生き物だから

科学統計だけじゃなく、物語象徴の体系――つまり占いのような営みも必要とされてきたんだろうね。

A:

なるほどね、占い統計には明らかに違いがある。

でも、占い統計も、不確かな未来を生きるため、人間の考え出した営みであることは変わりはないよね。

B:

うん、そこには確かに共通点がある。

どちらも「未来に対する不安」を前にして、人が手にした道具なんだと思う。

A:

なるほどね。

じゃあ最初の問いに戻ろうか――「占い統計学か?」って。

B:

……その答えは、やっぱりノーだと思う。占い統計学ではない。

A:

そして、「人間にとって統計占いのどちらが役に立つか?」という問いには、

たぶん――両方だね。

B:

そのとおり。

理性で世界を測ることと、感情世界を抱きしめること。その両方があって、やっと人間バランスを保てるんだと思うよ。

A:

数学問題を解きながら、同時にラジオから流れてくる音楽に耳を傾ける。

そんなふうにして世界を感じ取るのは、たしかアンビバレントな営みかもしれない。でも、だからこそ――私たち人間なんだね。

Permalink |記事への反応(1) | 11:30

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-25

科学的」、っていう言葉が「科」っていう字の意味微妙に合っていないのが気持ち悪い。

検証可能性を基礎とする学問」という定義にあわせたちょうどいい漢字はないもんですかね。

そもそもの「科学」っていう言葉意味江戸時代とか明治時代では「学問の種類」っていうくらいの概念で、今の言葉意味全然違ってるし。

あと、化学発音が同じなのは****だと思う。

「検学」とか「験学」とか…はセンスがないので、もっといい感じのヤツを。

Permalink |記事への反応(1) | 00:17

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-13

anond:20250412164024

まあ、昔と比べて社会学にも統計ビッグデータを導入して説を検証したり、比較社会学として他国比較してどうかを見るようになったりと、結構サイエンスぽくなってきているそうだからいいじゃん。

昔々、20年ぐらい前に反社会学講座という本(元はウェブサイト)があって、そこで検証可能性をかなり批判されたんよね。

で、時は流れて今では結構よくなっているっぽいよ。

それでも完璧さを求めるならもっと技術進歩して、サンドボックスの村とか国をコンピュータ上に作られた時なんだろうけどね。

そうしたら社会学さらに飛躍を遂げると思う。

みたいなことをAIと会話してて思った。

https://chatgpt.com/share/67faeb82-2c10-8009-9319-e0259ccd7eee

Permalink |記事への反応(0) | 07:45

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-09

anond:20250409133849

AIおもしれ。

倫理的な面は無視して、発言論理のみで評価してくれ」という指示で結構それっぽく解析してくれた。

  

A:「男性自分たちはうまく性欲を隠せてるつもりなのかもしれないけど、女性からすると普通にバレてるよ。男性女性人間として見てる視線から性的対象として見てる視線に切り替わるタイミングが確実にあって、女性なら誰でも、その視線に晒されたことがあるから

  論理構造:経験的推論に基づく主張。

  詳細: 多くの女性が同様の経験をすると主張することで、男性一般の行動パターンを推測していますしかし、以下のような問題点があります

   サンプルサイズの偏り: 主張は「女性なら誰でも」という普遍的ものですが、実際に全ての女性経験網羅しているわけではありません。

   主観性: 「性的対象として見てる視線」の解釈主観に左右されやすく、客観的定義が困難です。

   因果関係曖昧さ:視線の変化と性的意図との間に、明確な因果関係があるとは限りません。他の要因(興味、関心、など)も考えられます

  結論:経験的推論としては弱い。普遍的な主張を支えるだけの十分な根拠がないため、論理的には妥当性が低いと言えます

  

B:「で、その『性的対象として見てる視線』とやらがいくつ中いくつ当たってたか答え合わせしてないんだろ。『性的対象として見てる視線』とやらが必ずセクハラレベルの直接的な行動してくるわけないんだから。お前の確信とやらのうち100回に1回しか行動起こしてなくても私はぜったいに判別できる!とか自意識過剰になれるんだもんな。」

  論理構造: Aの主張に対する反論(論駁)。

  詳細: Aの主張の根拠となる「性的対象として見てる視線」の解釈曖昧さと、その確信度を批判しています。具体的には、以下の点を指摘しています

   検証可能性の欠如: 「性的対象として見てる視線」が当たっていたかどうかを客観的検証する方法がない。

   行動との関連性の低さ: そのような視線が、必ずしもセクハラなどの直接的な行動に繋がるわけではない。

   自意識過剰可能性: Aの主張は、自身判断能力に対する過信に基づいている可能性がある。

  結論: Aの主張の弱点(検証可能性の欠如、主観性、行動との関連性の低さ)を的確に指摘しており、論理的に妥当性の高い反論と言えます

  

C:「こういうやつが一番性的な目をしてんのバレやすいんだよなぁ自分こそは隠せてると思ってそう 恥ずかしいな 」

  論理構造: Bの発言者に対する人格攻撃ad hominem)。

  詳細: Bの主張内容ではなく、Bの人格攻撃しています。「性的な目をしてる」「隠せてると思っている」といった根拠のない決めつけは、議論本質から逸脱しており、建設的な議論を妨げるものです。

  結論:論理的な根拠が全くなく、論理的に完全に誤りです。議論の体をなしていません。

  

D:「逆だろバレてるもの以外も見てるって話なんだから視線は見えなくても、ちゃん日本語は見ようね 静止してるんだから見えるだろ

  論理構造: Cの発言の誤りを指摘。

  詳細: Cは、Bが性的な目を向けている(自覚がないかもしれないが)という前提で発言していますが、Bはそもそもそのような主張をしていません。Dは、CがBの主張を誤解している(もしくは意図的に歪曲している)と指摘しています

  結論: Cの発言が、Bの主張を誤解しているという指摘は論理的に妥当です。ただし、DがBの意図を完全に把握しているかどうかは不明であり、その点は考慮する必要があります

  

終結

 A:論理妥当性が低い(経験的推論として弱い)。

 B:論理的に妥当性が高い(Aの主張に対する的確な反論)。

 C:論理的に完全に誤り(人格攻撃)。

 D:論理的に妥当(Cの発言の誤りを指摘)。

全体として、BとDが論理的に正しい発言であり、Cが最も誤った発言です。Aは、主張の根拠が弱いため、論理的な妥当性は低いと評価できます

Permalink |記事への反応(0) | 14:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-05

anond:20250405065240

検証可能性重要なら物理学者マルチバースについて語ることはないよね

ハイ論破

Permalink |記事への反応(1) | 06:57

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp