Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「フィード」を含む日記RSS

はてなキーワード:フィードとは

次の25件>

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、Permalink |記事への反応(0) | 00:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-03

参政党の躍進が示す新しい「情弱」像

はじめに

情弱」という言葉は、2000年代インターネット掲示板SNSで広まった俗語である。当初は「情報弱者」、すなわちインターネットや最新の情報アクセスできず、世の中の流れから取り残される人を指す揶揄的な言葉であった。しかし令和の現在、「情弱」の意味は大きく変質している。もはや「情報を持たない人」ではなく、「情報を持ちすぎた結果、誤情報に振り回され、自称情報通”として振る舞う人」を指すことが多くなっている。

この変化を端的に示しているのが、近年急速に存在感を増した「参政党」の躍進である参政党は、メディアや大政党とは異なるルート情報発信を行い、インターネットを通じて「自分けが真実を知っている」と感じる人々を惹きつけた。そこには、かつての「知らないことを笑われる情弱」ではなく、「知っているつもりで誤情報支配される情弱」という新たな姿が浮かび上がっている。

本稿では、参政党の事例を手がかりに「情弱」の意味変質を整理し、現代社会における情報と知能の関係考察する。

1.情弱という言葉の原型

情弱という言葉は、もともと「インターネットに不慣れな人」「デジタル機器ITリテラシーが低い人」を指していた。例えばガラケーからスマホへの移行期に「まだガラケーを使っている人は情弱だ」と揶揄されたり、詐欺まがいのチェーンメールを信じて拡散してしまう人を「情弱」と呼んだりする用法典型である

まり情弱は「情報アクセスする環境能力が不足している人」を指しており、彼らは「知らない」「分からない」存在として位置づけられていた。笑われたり馬鹿にされたりする対象ではあったが、裏を返せば「知らないがゆえに誤情報アクセスする機会も少ない」という側面もあった。

2.情弱像の反転

令和に入り、インターネットは誰もが利用する基盤インフラとなった。スマートフォンSNSが普及し、ほとんどの人が大量の情報アクセスできる。ここで「情弱」の意味が反転する。

現代情弱は「情報アクセスできない人」ではなく、「アクセスできすぎるがゆえに取捨選択ができない人」である。彼らはアルゴリズム最適化されたSNSフィードや、陰謀論的なYouTube動画などに触れ続け、バランスを欠いた世界観形成する。そして「テレビ新聞洗脳だ。自分けが真実を知っている」と確信するに至る。

この姿は、かつての「知らない人」とは正反対だ。むしろ「知りすぎている(つもり)」であり、だがその知識偏向し、誤情報に満ちている。ここに情弱という言葉の変質がある。

3.参政党躍進にみる「令和の情弱

参政党は、既存の大政党マスメディアとは異なるアプローチで支持を広げた。街頭演説YouTube拡散し、SNSで「真実を知りたい人」に直接訴えかけたのである。そこでは「学校マスコミが隠している本当の情報」「ワクチンの裏側」「日本が売られている」といった刺激的なフレーズが飛び交った。

参政党を支持する人々の多くは、自らを「目覚めた国民」「情報に強い人」と認識している。しか客観的に見れば、それは誤情報陰謀論に偏った“知識”であり、社会的合意形成科学検証と相容れないケースが多い。

この現象こそ「令和の情弱像」である。彼らは「無知」ではなく「偏った知識の虜」であり、自分の知能を過信しつつ、結果として社会全体の情報リテラシーを下げる役割果たしている。

4.情弱の知能レベルとその構造

ここで注目すべきは、「情弱」と呼ばれる人々の知能レベルである。かつての情弱は、知能が低いわけではなく単にインターネットに不慣れであった。しか現代情弱は、情報吟味する思考能力の欠如、すなわち批判的思考クリティカル・シンキング)の不足 に起因している。

大量の情報に触れながらも、出典を確認しない。反証検討しない。自分に都合のよい情報だけを集めて確信を深める。こうした行動は、単なる「無知」とは異なる。「知能はあるが、その使い方が誤っている」という状態であり、それこそが「現代的な情弱」の本質である

そしてSNSアルゴリズムは、この傾向を増幅させる。彼らがクリックした動画記事は次々と類似コンテンツ提示し、情報バランスさらに崩す。結果として、知識を持っているはずなのに、社会的には「知能の低い人」として扱われるという逆説が生まれる。

5.情弱像の社会的帰結

令和の情弱像が拡大することで、社会はいくつかのリスクが生じる。

1. 分断の拡大

自分世界観に閉じこもり、「自分けが真実を知っている」と考える人々は、他者との対話拒否しがちになる。これは社会的な分断を深め、合意形成を困難にする。

2.民主主義劣化

誤情報を基盤にした政治的選択が増えることで、民主主義の質が低下する。政策論争事実に基づかず、感情陰謀論に左右される。

3.知識社会逆転現象

情報量が増えるほど、むしろ誤情報支配される人が増えるという逆説が生じる。知識社会成熟が、そのまま社会的知能の低下を招く可能性がある。

6. 新しい情弱への対処

いい年してずっとうつむいて小さいスマホの画面ばっか見るのやめろ。スマホを捨てろ。あと、自分が頭悪いって認めて素直に生きろ。

おわりに

かつて「情弱」とは、情報を知らない人の代名詞であった。しかし令和の「情弱」は、情報を持ちながら誤った形で消費し、自らを“情報通”と誤認する人々である参政党の躍進は、この新しい情弱像を可視化した。

我々が直面しているのは「無知」ではなく「誤知」の時代であり、その克服には知能や知識の量ではなく、思考の質を高める努力が求められる。情弱という言葉の変質を正しく捉えることは、現代社会情報環境理解し、より健全民主主義を築くための第一歩なのである

Permalink |記事への反応(0) | 07:51

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-28

「右でも左でもなく」と謳う人やチャンネルフィード眺めてるともれなく偏っててうける

わざとなのか

Permalink |記事への反応(0) | 10:54

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-25

最近ニュースアプリって、アルゴリズムが優秀すぎて、逆に読みたいものだけじゃなく「読まされそうなもの」まで見せつけてくる感じがして、ちょっと疲れない?

俺だけかな。

そんな自分回帰したのが、老舗のニュース検索サイトCeek.jp」だ。

これが、今の時代にこそめちゃくちゃ心地いい。

まず、アルゴリズムによるノイズが一切ない。

ただ淡々と、新しい順にニュースが並んでいる。 変な忖度もなければ、煽ってくるような記事レコメンドもない。ただ事実がそこにあるだけ。これがいい。

次に、キャッシュ機能が神。

メディアが後からこっそり記事の内容を修正したり、都合が悪くなって記事ごと削除したりしても、Ceek.jpには初版データキャッシュとして残っていることが多い。消される前の「事実」を確認できるのは、ネットリテラシー的にめちゃくちゃ重要だと思う。

そして、検索ベースRSSフィードを購読できること。

自分の好きなキーワードや条件で検索式を作って、それをそのままRSSリーダー登録できる。まさに自分専用のニュースフィードが完成する。もう、メディアに踊らされる必要はない。

もちろん不満がないわけじゃない。ITカテゴリが、なぜかアニメゲーム記事で埋まりがちなのは愛嬌だ。 まあ、それも検索で絞り込むから個人的には大した問題じゃない。

情報洪水に疲れ果て、アルゴリズムうんざりしている人にこそ、この淡々とした老舗サイトの良さ、もう一度見直してみてほしい。マジでおすすめ

はてな匿名ダイアリー | 開始日 : 2007-06-20 | Ceek.jp News

Permalink |記事への反応(0) | 09:01

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-18

増田で読んでる日記

すいすいすいようび

ゲーム日記

それが私の好きな物

今日も妻の作ってくれたお弁当が旨い

  • 昼の12時過ぎにおかず5品を書き連ねる増田。毎回前回のトラバに書く(そうなる以前は独立した増田で報告していた)。
  • おかずの種類は多岐にわたる。書かれているものを眺めるだけでもお腹がすく。自分はこれを読んでから昼ごはんにしている。

ピーポー車とウーウー車

プレミアムフライデー増田

しあわせなオナニー増田

シコって寝る増田

派遣おっさん増田

うわわーん増田

気にしすぎ増田

  • 気になることを書いた上で最後に「これって 気にしすぎ?」(空白は改行)と書く増田
  • ガストによく行く。

スゴイいいこと増田

  • 誰もが考えそうなことやすでにやられていることを「スゴイいいこと思い付いたんだけど」の書き出しで紹介する増田
  • 直近では本屋大賞を思いついたようだ。

なんつって ぷぷ

おならぽっぽ増田

家の裏のタヌキ

  • 家の裏のタヌキの数を報告する増田。物置に住み着いているとのこと。
  • 今のところの最大数12匹。ゼロになったこともあるが、漸増傾向にある。

カタツムリ増田追記

Permalink |記事への反応(6) | 17:16

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-07

フィッシュル・ヴォン・ルフシュロス・ナフィードットちゃんは、『フィッシュ皇女物語』に登場する同名の主人公から自分名前(自称)を借りていますが、親からはエミちゃんと呼ばれていますね。

でも、その綴りはAmyなので、EMIでは返事をしてくれないでしょう。

ちなみに、Fischl von Luftschloss Narfidort は、天空城フィードット出身フィッシュル、という意味です。

Fischl は、ドイツ語の Fisch "魚" に接尾辞 -el をつけることで、「小さな魚」といったニュアンスになります

カラスに食われそうな名前ですが良いのでしょうか。

ちなみに、魔神名が『ゴエティア』の悪魔から取られていることで有名な本作ですが、実はAmyという悪魔が58番に存在します。

なので、フィッシュルもといエミちゃんは実は魔神である、という可能性もあります

元素が溜まって神の目が光るとき、服の他の装飾パーツも光りだす稀な特徴を持つキャラでもあります

フィッシュ皇女物語』も、ただの小説ではなく、世界真実を隠した書籍であるかもしれないと想像できますね。

しかし、現時点では、本編内容がまったく分からない状態で、設定資料集となる巻だけが入手可能なため、そこに書かれた内容から本編の展開を推察することしかできず、記述の大部分は意味不明となっています

Permalink |記事への反応(0) | 17:20

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-06

dorawii

人間の心をAI再現したとかやっていたがああいう試みは意識というものを非生物学的に作り出すためなのだろうか?

もしそうだとしたらアプローチが間違っていると思う。

意識というのは別に意識がある人間とかのような存在と同じ振る舞いをさせたらそこに自動的に宿るという種のものではないことは中国人の部屋の心をAI再現したとかやっていたがああいう試みは意識というものを非生物学的に作り出すためなのだろうか?

もしそうだとしたらアプローチが間違っていると思う。

意識というのは別に意識がある人間とかのような存在と同じ振る舞いをさせたらそこに自動的に宿るという種のものではないことは中国語の部屋が提起している。

実際は本当にそれだけで宿るのかもしれない。しかしそれはわからない。

でも逆のことを我々はよく知っている。

我々が金縛りという夢の一種体験しているとき、傍から見ればなんの反応もない、科学的に意識があるとは認められない状態だが、

実際は本人のなかでは確かにある種の苦痛や、それについて感じたり考える思考フィードバッグ先としての自我(といっていいのか知らないが)がある。

今の科学的な定義ではこのようなもの意識にあてはまらないだろうが、我々が意識と言って指し示したいものにはこういったものも興味関心の範疇として含まれると思う。

意識」と言う言葉を使って何を論じたいのかの目的論的な本質にかえって考えれば、そのように意識定義拡張されるか術語が定義されるべきこと当然である

そのようなものひっくるめた意識を考えたら、意思疎通ができない状態存在にすら意識があるのに、意思疎通できいぇいるような振る舞いをするAIを作ってなんで意識本質に近づけると思えるのか?と思ってしまう。

そんなことを言い始めたらそこらへんの植物や石にすら認識能力はないが「五感を封じられた存在としての」意識はあるんじゃないか、とか極端に走ることになるかもしれないが、少なくとも寝ている人間にすらある種の意識があることは念頭に置くべきだと思う。

この手の概念直観的に感じ取れる人には明白だが、なんのことを言っているのか万人が共有できるように記述することはとても難しい。

-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250706141620# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaGoGpQAKCRBwMdsubs4+SAUPAP9vr645DB4+2AS0rpe2c5cF2bSPtC7Ef86H10IDHDgmPAEA+5ZbCTU1WU0fwqC+j9Zm33zkfmGy/nYSZHsiNjPFDQA==pAgQ-----ENDPGP SIGNATURE-----

Permalink |記事への反応(0) | 14:16

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-23

あのさぁ、もう増田がもはや時代遅れなんだよね

増田時代遅れになったと感じる瞬間

まずタイムラインが動かない

休みに開いても新着がたった数件

十年前は会社トイレリロードするたびに更新されていたはずなのに

スマホ完結型文化への未対応

匿名ダイアリー専用アプリは結局出なかった

モバイルブラウザで長文を書こうとしても編集画面が古いまま

改行のたびに画面が飛ぶので途中でメモ帳避難してしま

読者が移動した先はポストより構造化された場所

noteで有料記事に挑戦する人

Substackで連載を始める人

Xに三百字ずつポエムを貼り付けてスペースで語る人

誰もがダッシュボード数字確認アルゴリズムに祈る

増田数字曖昧

ブクマでバズったとか何スター付いたとか

可視化されていても広告収入にも承認欲求にも繋がりにくい

から副業言い訳にならないし

承認欲求モンスターもっと派手な遊び場へ行く

コメント欄空気も変わった

はてブコメント言及リンクと化し

議論はXの引用ポストに流れ

はてブコメントを伸ばすためにブログを書くという本末転倒が起きる

でも時代遅れは悪いことばかりじゃない

更新頻度が落ちれば炎上熱量も落ちる

焦げ跡ばかりのウェブを歩き疲れた人間にとって

静かなバス停は救いになる

夜更けにブラウザURL欄にanond と打ち込む

誰かのうっすら湿った独り言

スクロールの向こうでひっそり息をしている

数字を持たない亡霊のような声

そこにだけまだインターネットの余白が残っている気がする

時代遅れになったのは増田

あるいは常に遅れて到着する自分なのか

更新の止まったフィードを眺めながら

今夜も意味のない文章を打ち込む

さて

あなたは次をどこに書くつもりですか

Permalink |記事への反応(1) | 21:00

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-22

---

# **M-98C《ヴァニタス》🇳🇴 ノースソヴリン連邦空軍 出撃個人記録**

パイロット呼出符号 **“Lazarus-1”** ―

項目 内容
任務番号 **NSF-JSOC 25-10-17-Σ**
目的東アジア経済圏に対する**限定的経済通信遮断実証**
発令主体 ノースソヴリン連邦 極地戦略合同司令部(JSOC)
離陸基地 **スカディ飛行場**(72°45′N178°32′E, ノヴァシベリア諸島
突入高度 35km
武装 **HGV-B73 “Dawn Shard”** ×3

> *ノースソヴリン連邦*…北極海資源を背景に台頭した極寒のシ―ステイツ。表向きはNATO傘下だが、実質は独立経済圏を構築。今回の作戦は「輸出レアメタル決済を量子網に限定させる交渉カード」として計画された。

---

## 00:00JSTコックピット起動

> **酸素マスク音**

> *HUD:* “L-1,INS ALIGNOK. SCRJ READY.”

寒霧の滑走路。機体は液体窒素噴霧で外板温度を均一化。ステルス皮膜のシリコン閃光が月光を弾く。

政治じゃない。ただの“工学実証”さ」。整備士捨て台詞が耳に残った。

---

## 02:17JSTベーリング上空Mach 4

マイナス72℃、星明りがコバルト色に震える。

\*\*自律航法AI〈VALIS〉\*\*が囁く。

> *VALIS:* “日本防空レーダ― ソーンソート γ 帯…ダウンリンク阻害完了。”

僚機はいない。単機ミッション

ノースソヴリン国章**は座席後方のカーテン裏に隠されたまま──可動照明ひとつで焼ける紙製フラッグ捕獲されれば燃やして証拠を消す手順。

---

## 03:38JST ― 降下開始・ラムモード

スクリーン東京湾夜景の延長線上で静かだ。

私は\*\*「品川シーサイドクラスタ」\*\*を地図上でタップ黄色リング。

> *VALIS:* “推定戦闘員被害 < 1 k.”

> 心の声: 「数字にしてくれると、罪悪感も概算できるのか」

コクピット温度 48 ℃。耐Gスーツの微振動が脈拍を代行する。

---

## 04:12JSTファーストウェポンリリース

HGV-B73 #1** 切り離し。

映像リンク越しに滑空弾頭が蒼白い尾を引く。

着弾予定点:中央防波堤埋立地

瞬間、**EMPフラッシュ**が湾岸の灯りを片側だけ喰った。

東京輪郭が欠ける」そんな印象 —漆黒に齧り跡。

---

## 04:18JSTセカンドリリース

HUD 上に「DC Σ-12」のルビコンマーク

品川変電所の緑ランプが次々暗転するライブフィード

> *VALIS:* “目的達成率 62 % …臨界閾値到達。”

> 私: 「しかし上は欲張りでね」

---

## 04:25JSTサードリリース &離脱

湾岸高速ジャンクションへ #3 投下。

軌道修正パルス反動が僅かに背中を叩く。

旋回 G が抜けた瞬間、**東京タワーのシルエット**が視界に入る —オレンジの灯がまだ点いていた。

その刹那、不意に訓練で叩き込まれ言葉が蘇る。

> 「**敵ではなく“プロトコル”を撃て**」

私が破壊したのは都市ではなく、都市を繋ぐ**約束事の網**。だが網の上には人が立っている。

---

## 04:32JSTコールドプラズマクラウド

機体外板にプラズマ浸し。レーダー断面積 0.0009 m²。

日本列島の監視網が\*\*“ここに私がいた痕跡”\*\*を掴めないよう、電子的に自分を溶かす。

背面カメラに映る東京湾は**黒い盤面**。

“Checkmate?”

いや、まだ。これは詰めろの一手だ。

---

## 05:18JSTカムチャツカ沖・補給艇 Rendez-vous

機体を折り畳むように格納庫へ滑り込む。

デブリーフの最初質問は予想通りだった。

> **司令官:** 「通信インフラの復旧見積りは?」

> **私:** 「36 分で光が回復しました」

> **司令官:** 「なら充分だ。マーケットは怖がる」

私は黙って頭を下げた。

国章入りのパッチ**が、汗で制服に溶けて重い。

---

##戦術所感 (本人メモ)

1. **政治効果>軍事的効果**

* “ノースソヴリン”は自国領を一発も撃たずに、通貨スワップ交渉の座を得る。

2. **国籍秘匿は欺瞞ではない**

*私たちが名乗る日は来ない。名乗った瞬間、交渉カードが紙切れになる。

3. **次回があるなら**

*東京の光の“消える順番”を、もっとかにもっと短く。

* それが「戦争をしないための爆撃」の完成形だと信じたい。

---

> *VALIS (機内記録最終行):*

> “任務完遂。民間死傷 0.06 % —許容範囲内。

> Good morning, Lazarus-1.The worldwill wake up different.”

私は応答せず、キャノピー越しの曇天を見た。

そして自問した。

「違った世界」は、本当に望んだ目覚めなのか。**

Permalink |記事への反応(1) | 01:28

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-14

anond:20250613235858

プラットフォームにも要因がある気がする。増田Netflixアマプラ稲川淳二を聞けばいいのに、Youtubeで観るから関連動画陰謀まじりの関連動画が混ざってくるわけじゃん。

面倒でも関連動画から、純・怪談以外は「関心なし」ボタンをこまめに押してフィード掃除するべきなんじゃないか

Permalink |記事への反応(0) | 18:58

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-13

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである



0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ


2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる


3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる


4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる


5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る


6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの


7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである


8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる


9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する


10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる


11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる


12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる


13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる


14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある


16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが<

Permalink |記事への反応(0) | 14:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-11

確率分布機としてのLLMについての論考

ここでは以下の3点についての論考を収録する


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 18:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-25

LLMとプロンプトの機能構造についての論考

0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 19:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-22

生成AIについて

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

6.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

7.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

8.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

9.プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

13.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(0) | 12:41

このエントリーをはてなブックマークに追加ツイートシェア

生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違い

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だけど、正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収束していくもの

Permalink |記事への反応(0) | 02:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-20

生成AIについてのいくつかの考察

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布の動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重のループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

Permalink |記事への反応(0) | 01:08

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-05

交通事故動画ばかり見てしま

これってなんかの病気?車、電車飛行機が主。

インスタのフィードがこればっかで引いてるわ

Permalink |記事への反応(0) | 20:42

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-02

anond:20250501105838

Vtuberって一回見るとフィードにどんどんVtuber意味不明内輪ネタが入ってくるんだよね

そこでハマる人はハマるしハマれない人はハマれないと思う

Permalink |記事への反応(1) | 23:47

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-29

anond:20250329122811

インターネットってのはね、使う側が自分で調整するもんなんだよ昔から

他人ケチつけてもなーんも変わらないからね、テクノロジーの上にあるものテクノロジーを知ることで改変できる

そうして誰かが改変できるようにした成果物一般人でも使うことができる、その考え方が大事なの

説教から話を戻すと、ブラウザ拡張はてなフィルタを使うことで嫌なドメインは透明化できる

はてなフィルタ - Chrome ウェブストア

はてなフィルタ - Firefoxアドオン

スマホから拡張機能が使えないって場合は、iPhoneならOrionBrowserAndroidならEdgeCanaryなどの拡張機能ストア対応ブラウザを用いることができる

ブラウザを変えたくないなら、はてブフィードカスタマイズできるWebサービスとしてはてなフィルターっていうサイトがあるからそれ経由で閲覧すればいい

こういうもの自力で見つけられるようになる、自力で「こういうのがあるはず」と思い立って調べられるようになった人間は、インターネット初段といえるだろう

Permalink |記事への反応(2) | 12:47

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-25

イーロン・マスクがXのアルゴリズム変更で世論操作

いや旧運営こそ恣意的世論操作やってたやんけ。方向が逆なだけで。

毎日のようにトレンド入りするフェミ活動家左翼活動家のツイデモタグ

毎日のようにニュースフィードに入りまくるハフィントンポスト記事

イーロン・マスク買収後にニュースフィードが止まった時、竹下郁子とかいうどっかのメディアの奴がうっかりキュレーションチームとのホットラインがあったと自白した(https://x.com/i_tkst/status/1589187616846798848)のがめちゃくちゃ話題になってたよな?

もう忘れたのか?まだ5年も経ってないぞ

買収後、ツイデモタグはたまにトレンド入りするが毎日のようには入らなくなった

ハフィントンポスト記事そもそも全く目に入らなくなった

そして左翼的な単語以外が普通にトレンド入りするようになった(買収前はニチアサ時間アニメ特撮単語があまりトレンド入りしなかったのが買収後は沢山入るようになった等)

以上のことから明らかに何らかの恣意的操作があったと考えるのが妥当

これを陰謀論とするなら否定するに足る論理を求めたい

Permalink |記事への反応(0) | 20:15

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-14

anond:20250314230214

トラバトラックバック)を除外して最初増田投稿検索する方法については、増田はてな匿名ダイアリー)の投稿を直接検索する手段に限りがあるため、完全にトラバを除外して最初投稿を取得するのは少し難しいですが、いくつかのアプローチはあります

増田最初投稿を読む方法:

はてな匿名ダイアリー検索機能を使う:はてな匿名ダイアリーでは、検索バーキーワード入力して検索することができますが、トラバを除外するオプション公式には提供されていません。そのため、特定キーワードや時期で検索し、最初投稿を手動で探すのが現実的です。

投稿日時で絞る:増田には投稿日時が記録されています最初投稿を探す場合、古い投稿から順に読んでいく方法が考えられます

他の外部ツールを使う: もし特定ツールAPI(例えば、非公式増田ダイアリーAPI)を使うことで、最初投稿トラックバックを除外した検索可能場合もあります。ただし、公式には提供されていないため、外部ツール活用する場合信頼性確認する必要があります

1日にどれくらい投稿されているか知りたい場合:

増田の1日の投稿数を調べるには、以下の方法があります

増田サイトRSSフィード活用:増田RSSフィードには、最新の投稿が含まれているので、フィードを読み取って1日あたりの投稿数を計算することができます

増田統計ツールや外部データを利用する:増田に関する統計データを集めているサイトや、APIからデータを取得して、1日ごとの投稿数を確認することができます

どちらの方法も、少し手間がかかる可能性があるため、他のツール活用する方法検討してみるのも良いかもしれません。

もし特定ツール方法に関してさらに詳しく知りたい場合は、教えてください!




You said:

RSSフィード

ChatGPT said:

はてな匿名ダイアリー増田)のRSSフィードを利用することで、投稿更新情報を取得することができますRSSフィードは、定期的に新しい投稿をチェックするために便利な方法です。

増田RSSフィード

はてな匿名ダイアリーにはRSSフィード提供されており、特定URLを利用することで最新の投稿を受け取ることができます

増田RSSフィードURL:

はてな匿名ダイアリーRSSフィード

このURLアクセスすることで、最新の増田投稿が取得できますRSSリーダー(例えば、FeedlyInoreaderなど)を使って、定期的に新しい投稿を受け取ることができます

1日あたりの投稿数を確認する方法

RSSフィード使用して、投稿される記事を日ごとに確認し、その数をカウントすることができます。具体的には以下の手順を参考にしてみてください。

RSSフィードリーダーで受信: 好きなRSSリーダー上記RSSフィードURLを追加します。

フィードを定期的にチェック:毎日更新確認し、1日ごとの投稿数をカウントすることができます

スクリプトを利用:プログラムを使ってRSSフィードを解析し、1日あたりの投稿数を自動で集計することもできます。例えば、Pythonのfeedparserライブラリを使うことで、フィードを解析し、日ごとに投稿数を数えることができます

もしこの方法で具体的に何かを実行したい場合(例えば、Pythonフィードを解析するコード必要場合など)、お気軽に教えてください!

Permalink |記事への反応(1) | 23:15

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-01

BlueSkyを暫く使って思ったことまとめ

ただの左翼Truth Social、特に英語圏がひどい。

誰も分散化に興味ない、まぁプライベートブロックチェーン並みの分散化だからどうでもいいんだが。

UITwitterのまんま、BlueSky独自価値がよく分からない。「Twitterでない事」が最大の価値ってどうなんだ?

唯一フィードだけは便利だと思った。これは逆輸入してほしい。

かに平和、でもそれは人が居ないだけ。東京から田舎移住したら平和ですみたいな話。

根底にあるのはTwitterなので人口が増えたら治安悪化するのは避けられない。

BlueSkyはTwitterを超えることは決してない、仮に超えたとしたらその時にはTwitter2.0(悪い意味で)になっている。

平和”を求めるならSNS渡り歩くノマドになるか、SNSを辞めるしかないなと思った。

Permalink |記事への反応(0) | 18:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-28

anond:20250228142737

ヤスオとヨネはフィードしてばっかりで味方に来ると負け確なのに優遇されてるの?

Permalink |記事への反応(1) | 15:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-08

anond:20250207222929

トランスアライ達から女性への「子宮がある人」呼びに反発しただけで、差別主義者のレッテル貼られた、JKローリングさんのツイート貼っておく。

https://x.com/jk_rowling/status/1887472120541679690?t=r2ebMc3yqS5QW_ZcktU7Tw&s=19

ジェンダーイデオロギーは、言論の自由科学真実同性愛者の権利女性少女安全プライバシー尊厳を損なってきた。また、弱い立場にある子どもたちに回復不能身体ダメージを与えてきた。

誰も賛成票を投じておらず、大多数の人が反対しているにもかかわらず、政治家医療機関、学界、メディアの一部、有名人さらには警察によって、上から下まで強制されている。活動家たちは、敢えて反対する者に対して脅迫暴力を振るってきた。疑問を呈した人々は名誉を傷つけられ、差別されてきた。仕事が失われ、人生台無しになった。すべては、セックス現実であり、重要であると知った罪のためだ。

煙が晴れれば、一部の非常に弱い立場の人々が被害を受けたという事実にもかかわらず、これはいわゆる弱い立場の少数派に関することではなかったことが明白になるだろう。私たち社会根底にある力関係は、解体されたのではなく、強化されたのだ。この大失態全体を通じて最も大きな声を上げてきたのは、富や地位によって結果から隔離された人々だ。

彼らは、自分名前をドロレスと名乗ることにした身長6フィート4インチ強姦犯と同じ独房に閉じ込められることはなさそうだ。彼らは、国が資金提供する強姦被害者支援センター必要としていないし、繁華街更衣室に頻繁に行くこともない。彼らは、女子シャワー室でペニスが揺れることを嫌がる、意地悪な極右偏見を持つ人々について、トークショーソファでニヤニヤしながら、自分たちのプライベートプールがこれまで通り安全場所であることに安心している。

ジェンダーアイデンティティイデオロギーから最も恩恵を受けているのは、トランスジェンダーかどうかにかかわらず男性です。

中には、女装趣味があることで、これまで女性専用だったすべての場所へのアクセスを与えられた人もいます。また、新たな被害者という魅力的な立場を、女性脅迫暴行嫌がらせする口実に利用した人もいますトランスジェンダーではない左翼男性たちは、女性少女ニーズ嘲笑し、冷笑することで、自分たちの非の打ちどころのない進歩的資質を誇示する素晴らしいプラットフォームを見つけ、自分たちにはない権利放棄したと自画自賛しています

この混乱の実際の被害者は、女性子供特に最も弱い立場の人々、運動抵抗して恐ろしい代償を払った同性愛者、そして代名詞を一つ間違えただけで中傷されたり建設的に解雇されたりする環境で働く一般の人々です。これはごく少数派の話だなどと言わないでください。この運動社会悲惨な影響を与えており、もしあなたに少しでも分別があるなら、活動家マントラ、人身攻撃、誤った同等性、循環論法痕跡をすべてXフィードからかに削除するでしょう。なぜなら、あなたは常にこの狂気を見抜いていたし、一瞬たりとも信じたことはなかったと偽りたくなる日が急速に近づいているからです。

Permalink |記事への反応(0) | 19:01

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-03

ブクマした記事特定の日にいい感じに思い出せるサイト作った

RemindBookmark

https://remind-bookmark.com/

サービス開始が結構先のゲームの発表とかあると、その時ブクマしてもサービス開始時には忘れてる問題

ウェブ漫画とかで公開日が先で公開期間も決まってて気がついたら公開が終わってた問題

これを解決するために、ブクマタグで [2025-02-03] みたいな感じでサービス開始とか公開日の日付のタグをつけておけば、その日になったらそのブクマが表示されるサイト作ってみた

https://remind-bookmark.com/bookmarks/{はてなID}

で、{はてなID}が「今日」の日付のタグを付つけたブクマが表示される。過去自分が「今日」思い出したいページにタグ付けしておく必要はある。

基本的にはこのページを毎日チェックしておけばサービス開始時とか、〇〇の公開とかのタイミングでいい感じに思い出せるはず。

ついでに、今日ブクマした記事一覧も表示される。

https://remind-bookmark.com/bookmarks/{はてなID}/YYYY-MM-DD

で、{はてなID}が[YYYY-MM-DD]タグを付けてブクマした記事一覧が表示される。

同じく、YYYY-MM-DDブクマした記事一覧も表示される。
一年前の自分ブクマした記事とかみて振り返りとかもできる。

注意点としては、タグフォーマット

[YYYY-MM-DD]

↑これ固定。つまり

[2025-02-03]

じゃないとちゃんと動かない。

[2025-2-3]

とかだとダメなので気をつけてください。

技術的な話

やってることは、はてブフィードを表示してるだけ。

はてなブックマークフィード仕様 | Hatena Developer Center

https://b.hatena.ne.jp/sample/rss?tag=book

bookタグエントリーRSSフィードで取得します。

https://b.hatena.ne.jp/sample/rss?date=20090410

2009年4月10日分のブックマークRSSフィードで取得します。

一応キャッシュしてブラウザリロードしまくっても、はてな側に負荷が掛からないようにはしてるけど、サイトが消えたら察してください。

こんな簡単な仕組みなのでDBは一切使ってない。ドメインはなんとなく買った。

仕組み上、公開ブクマなら誰のIDでも入力したら見えるけど、そもそもはてな本体で見えるし問題ないと思ってる。

わかる人ならわかると思うけど、ほぼすべて生成AI(cursor、claude-3.5-sonnet)にやってもらった。コーディングはもちろん、デザイン系とかいろんなテキスト考えてもらうとか。

作業自体は1日かからなかった。すごいね

Cline系は使いこなせないので使わなかった。

Permalink |記事への反応(0) | 17:09

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp