Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「逐次」を含む日記RSS

はてなキーワード:逐次とは

次の25件>

2025-10-21

anond:20251021224154

逆に35歳定年説は、エンジニア自力解決した感じがある

git逐次リリースの辺りで、コードに集中できるようになって寿命が一気に延びた

VScodeで更に伸びた

Permalink |記事への反応(0) | 22:44

このエントリーをはてなブックマークに追加ツイートシェア

dorawiiと書くことで、増田空気をぶち壊しているデメリットもあれば

「まあdorawiiだからな」でスルーしてもらえていた部分もある

匿名になるということは、自分以外の人間と同列に扱われるということである

逐次処理能力の低さも加味してもらえないのである

Permalink |記事への反応(0) | 19:17

このエントリーをはてなブックマークに追加ツイートシェア

anond:20251021191253

逐次処理能力の低さも加味してもらえないのである

というデメリットが必ず発動するわけじゃないよねってこと。

普通増田として溶け込めるメリットけが発動されるケースもありうるってこと。

dorawiiより

-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20251021191515# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaPddMwAKCRBwMdsubs4+SHjKAQDGpP9GyOTFnmzyr9rqJqYOFcq9j3pGh+HQ7p2WTSQ6EwEAwDK9S45UdndJseay0p58eyJt4LQDKWYv8bVsmRlf2QQ==gP/r-----ENDPGP SIGNATURE-----

Permalink |記事への反応(1) | 19:15

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-20

sexが嫌な人と交際?した経験

そんなバカな、と思うかもしれないけれど、増田から書いてもいいかと思った。

もう老人も老人になったし、何十年も前で、当時はまだ20代中頃〜後半にかけての話。

 

私はその頃、出会い系の先駆けでもあるNTTサービスの一つであった、伝言ダイヤルにハマっていた。ほとんど覚えていないけれど、4桁の番号と8桁の番号の組み合わせで、10-30秒くらいのメッセージ10個まで残せるサービスだったと思う。確か、古いものから逐次消えていく方式だったかと。少し違うかもしれない。

ともかく、そんな単純なサービスだったから、不特定多数の人に出会い系として利用された。例えば、「0721のトリプル」と言えば、「オナニー」を意味していることは明らかで、単純なのだと0000〜9999までのトリプルセットを不特定多数の人が自由に使えたのである。他には1919だとか1234だとか、簡単に思いつくのならなんでもよかった。その後、社会問題化したり、伝言ダイヤル形式サービス民間で広まるようになったけど、私自身は社会問題化する前にやめてしまっている。

 

私はそれを当時の週刊プレイボーイ記事で知ると、すぐに実家近所の公衆電話へ行って楽しむようになり、実家暮らしなのに自分電話回線を引っ張ったりもした(今の自分家にあるのはその時の契約のものが原点だ)。

 

最初テレフォンsex目当てだったけど、普通に見知らぬ女性と会話するのに使うことが多かった。あんまりにも夜中に長電話をするので親に何度も叱られたりもした。たまに実際に会うこともあったけど、その時の体験話をいちいち書いてたらキリがないので想像に任せる。いい思いをしたこともあるし、そうでなかったこともあるけれど、美人局にやられるほどの目にあったことはない。

 

そんな中、はっきり覚えているけれど、夜中0時をすぎて、電話にかけてきたその女性とすぐに意気投合してしまい、そのままの勢いで夜中「今から会わない?」という話になった。もちろん、セックスを期待してのもので、夜中だというのに、彼女指定した待ち合わせ場所まで車を走らせた。彼女は、最初深々と帽子かぶっていて夜だというのにサングラスもかけていて、会ったその瞬間には顔がわからなかったけれど、車の助手席に乗ってそれを外すと、とんでもない美人さんであることがすぐわかった。ちょっといかもだけど、山本みどりっていう女優さんにどことなく似てた。ここでは仮にその女性を「洋子さん」と呼ぶことにする。洋子さんは、三歳くらい年上の人だった。

でも、洋子さんは車を走らせてすぐこう言った。

 

「私はセックスはできないよ」って。

 

多分、伝言ダイヤルで実際に会った女性の中で、エッチしなかった人はあと一人くらいしかいない。その女性とはなんかそんな空気にはならなかったってだけだけど。で、洋子さんは、主婦で(自分自身は当時独身)、子供が確か二人、小学生低学年の男の子と四歳くらいの女の子がいた。当時は不倫なんか絶対嫌だと思っていたので、ドライブしながら心の中ではセックスできなくても別に構わないという気ではいたと思う。ただ、何故だかよくわからないけど、朝までのそのドライブ中、洋子さんはずっと楽しそうにしていて、なんかめちゃくちゃいっぱい話ばっかりしてたと記憶する。洋子さんは、また電話すると言って、最初の待ち合わせ場所で車を降りて帰って行った。

 

その後も、電話は何回もしたと思うし、数回デートっぽいこともしたし、洋子さんの自宅にまで上がらせてもらったこともある。一度だけ、旦那さんが帰ってきたのと鉢合わせしたこともあった。別に修羅場にも何にもならなかったけど、多分、彼女適当に知り合いだとかなんだとか誤魔化したのだろう。旦那さんが帰ってくる直前くらいまで、旦那さんが自宅でこっそり見ていた裏ビデオを少しだけ見せてもらったりしていた(洋子さんは「あなたもこんなの見るの?」とか言ってたっけ)ので、なんだかシュールだなぁと思ったりもした。

 

で、洋子さんがセックスできないと言った理由も聞いていて、小学生の頃、親戚の大人男性強姦されたのだそうだ。それ以来、結婚した旦那さんや交際相手男性とはセックスは一応したけれど、しょうがいから応じていただけで拷問のようだったと言っていた。だから、二人も子供を儲けつつ、旦那さんとはセックスレスになってしまい、夫婦の仲はそんなによくはなかったのだとか。それに、彼女の下の娘さんはいわゆる言語障害で、確か妊娠時期に風疹にかかって生まれ子供だったそうで、それを理由旦那さんからかなり責められたりもしたらしかった。だからか、寂しくなって伝言ダイヤルを使うようになったそうな。

 

セックスが期待できるわけでもなく、ちゃんとした交際をするつもりもないのに、それでも洋子さんといる時間がすごく貴重に思えて、いつも会う時は2〜3時間程度がせいぜいだったのに、今から会えるとわかると、すぐに車を走らせてすっ飛んでいったものだ。でも、たった一度だけほっぺにキスしてもらったことはある。流石に何もしないのは可哀想だと思ったかららしかった。それがあまりにも嬉しくて、多分一週間くらいほっぺたのその箇所だけは絶対に洗わないようにした。

 

その後、保険外交員をやっていた洋子さんが紹介してくれた女性正式交際することになって、その女性結婚することになった。その後、洋子さんがどうなったのかは現在まで全く知らない――。

 

落ちもクライマックスも、特に何もないジジイ過去話ですまんかった。

anond:20251018145000

Permalink |記事への反応(1) | 03:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、Permalink |記事への反応(0) | 00:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-21

最強のお仕事、お勉強スタイル妄想

スマートグラス?で読んでる文を常に共有して、マイクで指示を受け取ってもらう。

例えば分からん部分の逐次翻訳とかしてもらって脳みそ進化する。してくれ。

あと、todo化しといてみたいな指示も、実装簡単だと思う。

核は「自分が拾っている情報を常に、常に!共有して、最強の文脈を作る」ことだと思う。文脈サイズバカでかくなるから都度、状況整理する必要あるかもね←なんかツインピークスの90's音声メモおじさんみたいじゃないですか?

例えば翻訳タスク特化だったらLLMは要らんかも

Permalink |記事への反応(0) | 22:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-10

ある日起きたら、片耳の聴力を失った話

朝起きたら、突然片方の耳が聞こえなくなった。

突発性難聴だ。

昔に急性感音性難聴になったことがあり、その瞬間に悟った。

これは2週間以内に治療しないと治らないヤバい病気だ。1か月たつと完全に手遅れだ。

すべての予定をキャンセルして、かかりつけの大学病院に行った。


聴力検査の結果、片耳は完全に失聴していた。

どんな音も完全に聞こえていない。

聴力検査スピーカーがでかい音で振動しているのはわかるんだけど、音として全く聞こえないのだ。(100dbでも聞こえない。通常は10-30dbぐらいで聞こえるはず)

医者から、大量にステロイドを入れる全身ステロイド療法を提案され、受け入れる。

ステロイド剤のプレドニゾロン5mgを 朝30mg(6錠) 昼30mgで合計60mgを3日飲むことになった。

その後、量を減らしていくというのを合計1週間やることになった。

//全身ステロイドステロイドパルスとは厳密には違うという指摘を受けたので、全身ステロイド療法と変更します。

2日目に、強い眩暈に襲われる。

麻痺して聞こえなくなった耳から飛行機の中のようなゴーという轟音の耳鳴りが響き、歩き始めに強烈な眩暈に襲われるようになった。

病院電話すると、眩暈に対する薬としてアデホスコーワ顆粒とメチコバールは出しているか大丈夫ですと返された。

ひと事だと思いやがって・・・

ただ、信じるしかないので、全身ステロイド療法をつづけた。

だがしかし、これでは改善しなかった。

以前、突発性難聴(急性感音難聴)を発症した時は全身ステロイド療法で治ったのに、今回は無理だった。

治療甲斐なく、片耳は失聴して何も聞こえていない。

よほどの重症らしい。

ステロイドの鼓膜内投与という選択肢があるということで、これを1週間毎日注射をうちに通うことになった。

細い注射針で鼓膜からステロイドを耳の中に投与するという療法だ。

注射後は横になり、会話とつばを飲み込むのを15分禁止。耳管を開くと入れたステロイドが流れ出てしまうから

これでなんとかなればと・・・

だが、それでも無理だった。

相変わらず片耳は失聴して何も聞こえていない。

この大学病院ではもうお手上げということで、残された手段である高圧酸素療法ができる病院にいくことにした。

高圧酸素療法(HBOT)に1週間通うことになった。

1回1万円かかる治療である

先生に、高圧酸素で治りますかね?と聞いたら、可能性は低いです。と返されて、かなり落ち込んだけど、

カネはかかっても、とりあえず1週間はやってみようということになった。

(途中で、大学病院あるあるの予約が取れるのは数週間後ですというクソな対応を受けたが、こっちはタイムリミットがある病気なんです、そんなに待てませんとごねて、無理やり枠を入れさせた。)

この途中で、SNS検索していたら、2025年8月1日付で、高圧酸素療法とステロイド薬物療法の併用が、2.6倍ぐらい効果的というデータが、耳鼻科学術誌のLaryngoscopeに2025/8/1付けで公開されていることを知る。

突発性難聴に対する高圧酸素療法と薬物療法の併用は,薬物療法単独に比して,聴力回復において利益をもたらす可能性が高い.10研究1687例メタ解析 Laryngoscope 2025 Aug.1pic.x.com/dJpCyflRNyhttps://x.com/EARL_med_tw/status/1952656171552444503


当初は、高圧酸素は1回1万円と結構カネがかかって、効果はいまいちという説明医者からされていたので、高圧酸素に入らなかったのが今回の失敗につながった可能性がある気がする。

効果が薄い? 高圧酸素ステロイドを併用したら、「2.6倍高い」というデータがありますがな・・・

ただ、突発性難聴にたいしては、いろいろなエビデンスが出ては消えている状態らしい。

ある日突然起きる、原因不明難病から・・・

それでも、少しでも回復可能性を上げることが大切だと思うんよね。

なんとか医者を説得するため、このエビデンスを出して、今やっている高圧酸素療法(HBOT)とステロイドを組み合わせてくれとお願いする。

ただ、全身ステロイドをもう一回するのは、他の持病もありリスクが高いので難しいということになった。

でも、鼓膜内ステロイドだったらできるということになり、鼓膜内ステロイドを受けながら高圧酸素療法を行った。

1週間後。

なんと、高音域がごくわずかではあるが聞こえるようになった。(とはいえ100dbの音でやっと聞こえるレベル。通常は20dbぐらいで聞こえるはず。)

これは、高圧酸素療法が効いたのか、ステロイドとの併用が効いたのかは、よくわからない。

また、めまいをかなり改善された。

あれだけやってダメだったのが改善されたということは、高圧酸素療法とステロイドの併用は、Laryngoscopeにあるように効果があるんでね?と思ってる。

既にここまでで3週間経過。

タイムリミットの1か月まであと1週間果たしてどうなることやら。

治療につかれて、辞めたくなったけど、あと1週間だけ頑張りたいと思う。

もう完全な聴力の回復は諦めていて、少しでも聞こえる音を増やし、耳鳴りめまいを減らしたい。

私の負けは確定した。私の片耳はもう使い物にはならないだろう。

あとはいかに負けるかだ。




医者の指示に従ったつもりだけど、ここまで病気が治らないのは不思議である

突発性難聴は発病原因からして不明難病なので、仕方がない点もあるだろうけど、技術者として、どうすればもっと良い結果になったのかを考察したい。

私は医者ではないので、これは個人の感想だ。

起きたことはもう仕方ないので、どうすればよりよかったのかを考えたい。

考えられる最適なルート

高圧酸素療法(HBOT)+全身ステロイド+ステロイドの鼓膜内投与をやるべきだったと思ってる。

どれか一つではなく、全部を、なるべき早く実施するべきだったと思う。

その理由

今回のように、全身ステロイドだけでは効かないことがあるため。

また高圧酸素療法は、発症後1か月は保険適応。計50回は健康保険で入れる。

ただし、1回1万円近くかかり、一部の大病院しかない。

でも限度額認定があるので、途中から医療費は0円になる。(後述)

と、いうことは、なるべく早くやる方が得である

高圧酸素療法ができる医療機関一覧

https://www.juhms.net/anzenkyoukai/shisetsu/kantou/

https://www.juhms.net/hbo/ninteishisetsu/

限度額認定

1回1万円と治療費が高額だけど心配しなくていいのは限度額認定があるためだ。

国民健康には限度額認定証があるので、その月の医療費が同一医療機関一定額を超えると、その月はそれ以降は0円になるという神制度がある。

我々には憲法保障された、健康で文化的な最低限度の生活を送れる権利があるのだ。

素晴らしきかな国民保険生存権

マイナンバー保険証だと、限度額認定証がディフォルトでセットで付与されているで何もしなくても一定回数で無料になる。

紙の保険証の人は役所に行って発行してもらうか、後日、高額医療費申請して払い戻しを受けるかだ。

また、年の医療費交通費込みで10万円(所得200万円以下は5%を)超えたら、確定申告税金が減る医療費控除も利用できる。

https://www.kyoukaikenpo.or.jp/shibu/ehime/cat080/2397-35324/#koujo

          月額の医療費の上限

 (省略)

所得月額51万円以下 80,100円が上限

所得月額26万円以下 57,600円が上限

低所得者(住民税課税世帯) 35,400円が上限

https://www.kyoukaikenpo.or.jp/g3/sb3020/r151/

もし、あなた低所得者なら、高圧酸素療法は4回目から0円になるし、安月給の26万円以下だったら6回目から0円になる。

したがって、初手からステロイドの大量投与の全身ステロイドをやって、且つ、高圧酸素療法をするべきだ。

また、海外でやられているのようなステロイドの鼓膜内投与も最初からやるのも大切だと思う。

これはChatGPTから教えてもらったんだけど、アメリカドイツでは、全身ステロイドと同時に鼓膜内ステロイド投与もするらしい。

この場合、鼓膜内ステロイド意味がないかもしれないけど、やったところで損はないでしょ?というのが彼らの理屈で、とても合理的だと思う。

残念ながら、日本耳鼻科学会の手順では、全身ステロイドをやったあとで、それでも効果がないなら鼓膜内ステロイド投与をするという流れになっているそうで・・・

ただ、それだと貴重な急性期(治る可能性が高いのは発病から2週間以内。1か月たつともーむり)を無駄にしてしまう。

できるだけ、一度にやった方が効果的だと思う。

兵力逐次投入の愚をやらないためにも。すべてを一手に集めて決戦をするべきだ。

日本も、アメリカドイツ基準に代わってほしいよ・・・

また、鼓膜内ステロイド注入も、日本はデキサートかデカドロンの水みたいなステロイド剤を入れるけど、

海外では、ヒアルロン酸などを混ぜて粘性を高めて「滞留時間を延ばす」工夫をした研究報告もあるらしいので、

そこら辺も今後改善されることを願いたい。(薬事法の壁があるのでそう簡単にはできないだろうと、AIは言ってた。)

水みたいに流れ落ちないように、鼓膜内に注射してもらったら、注射された耳を上にして横になり、15分はしゃべってはいけないし、唾をのんでもいけない。なぜなら耳管が開いて流れでてしまうので。

これが結構厳しくて、最初の2回は失敗して流してしまった。

一度目は、注射後の横になる処置部屋が遠くて、流してしまった。

2度目は、処置室の診療台に用意されたティッシュを落としてしまって、あっていってしまって、そのまま流してしまった。

実にもったいない・・・

これに対して、AI相談したところ、「できるだけ薬の滞在時間を長くしたいので、すぐにベッドに行きたいので、注射後は椅子を戻してください、そしたらすぐにベッドにいって姿勢を取ります」と事前に医者に言うという方法を取ることでうまくいった。

なお、もう一つの方の大学病院は、そもそも処置室で注入してくれるので、移動時間がなくてとても楽。

ただ、設備整った処置室が1つしかないので、空いていないとまたされるのが辛いところ。その後、こちらも15分はベッドを占有してしまうのが申し訳ない所。

さて、ここまでいろいろと考察してきたが、RTAみたいな最適ルートをまとめたいと思う。

突発性難聴に対しての最適と思えるルート:

即日、高圧酸素療法ができる大学病院に行く。

おそらく、突発性難聴だと気が付いた瞬間に119して、高圧酸素療法ができる大学病院に運んでもらうのが、最良なのかな。

タイムリミットがある病気なので、時間無駄にしてはいけない。カネを惜しんでもいけない。

そして、全身ステロイドと高圧酸素療法を即日開始する。

可能なら、鼓膜内ステロイド投入もやってくれと主張してみる。(無駄かもしれないけど、いうだけはタダだしね。鼓膜内ステロイドは3割負担で1回300円ぐらいなので、こちらはカネは気にしなくていい。)

これを急性期の2週間、毎日やる。

発病から4週間(一か月)でもう無理になるまでは諦めるな。

毎日の通院は辛いかもしれないが、頑張れとしかいえない。

まりに遠いなら入院ホテルを取るとかもありだと思う。

今回、交通費だけで数万円使っているけど、もうしゃーないと思ってる。

時間との戦いなのでカネを惜しむな。

今やらずして一生後悔するか、今後悔するかなら、今後悔したいでしょう。

突発性難聴の頻度は、人口10万人あたり30人程度と報告されており、年間では3~4万人程度の人が発症していると推計されているそうで、誰でもランダムに起こりうる恐ろしい病気だ。

このある日、突然やってくる難病に、一人でも多く方が回復されることを願う。

タイムリミット1か月を迎えての結論

https://anond.hatelabo.jp/20250913101752

高圧酸素療法+ステロイドの併用により、1000Hz以上が100dBぐらいではあるが、聞こえるようになった。やはり、高圧酸素ステロイドの併用は意味があると思う。これを最初の2週間の急性期にやっていればなあ・・・

初期: すべての周波数が聞こえない

全身ステロイド療法1週間: やはり、すべての周波数が聞こえない

ステロイドの鼓膜内投与を毎日1週間: やはり、すべての周波数が聞こえない

高圧酸素療法+ステロイド毎日1週間: 3000Hz(100dBで聞こえる) 4000Hz(110dBで聞こえる) 8000Hz(95dBで聞こえる) 一方、他の低音は聞こえない

高圧酸素療法+ステロイド毎日2週間:1000Hz(105dBで聞こえる) 2000Hz(110dBで聞こえる) 3000Hz(95dBで聞こえる) 4000Hz(110dBで聞こえる) 8000Hz(95dBで聞こえる)

Permalink |記事への反応(18) | 23:35

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-09

dorawii@執筆依頼募集中

いや紙に書いて一個ずつ処理が終わる順に横線で消したもの逐次写真で取っていってみたいな方法挙動理解トレーニングするのとか考えたけど、

いちいちコード手書きするのめんどうしそうじゃなくてタブレット導入するにしても高いし…って感じで。

-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250909212305# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaMAcNAAKCRBwMdsubs4+SKuHAP0U8SD3QxcwtKQV1NHrWoUor4jsTujTbA5svhrBmbZeSgD/YGuxZcxBgQjh6eI0uBFEQ9Ze9ogBNGRQgZoD2DEqpwM==6B1P-----ENDPGP SIGNATURE-----

Permalink |記事への反応(0) | 21:23

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-04

anond:20250904054611

比喩表現というのは抽象思考だ。

本来全く関係ないもの同士の共通要素を見つける/それ以外の要素を頭から消す」という操作

隣国領土逐次侵略していくのを、虫が葉っぱを食い尽くしていくさまに喩える。

するとはてな辺りにもよくいる抽象思考ができないバカは「戦争と虫食い野菜の相違点」を数え上げ始める。

用語としてなんで圧縮解凍がセットなんやろと思うのは良いとして、そこで馬鹿もの思考は実際の物体圧縮解凍に伴うあれこれにドリフトしていく。

最初見た時は冗談で言ってるのかと思ったけど、どうせ全部本気なのよね

Permalink |記事への反応(1) | 12:57

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-26

ハンデがある人と働くときTipsを教えてほしい

最初にことわっておくが、これは障害者sageのための文章ではない。

タイトルのとおり、一緒に働いていくためにみんなが持ってる経験を共有してほしい。

本人を職場から追い出したいという話では断じてない。

---

職場にいわゆる障害者枠の社員(以下・「氏」)がいる。

明らかになっている特性

聴覚に"やや"ハンディキャップがある

◆ 寡黙傾向がある:話しかけてもクローズド質問だとうなずくか首を振るのみ。どうしても困ったら話しかけてくる

3年ほど籍を置いてくれた中で、苦手なことについて本人の特性によるものか単にスキル不明な部分を加味しながら、氏に振る仕事は決まりつつある。

---

まりつつあるのだが、振る仕事管理するのが大変なので、知恵を借りたい。

定例の仕事はそのタイミングで振ることができるが、言わば【いつやってもよさそうな仕事】や【突発的だが氏に向いていそうな仕事】が存在する。なお、氏のすべての仕事について、「他の社員仕事の補佐」的な内容である

なぜかこれらについて、自分管理して振る雰囲気になっている。つまり、他の社員仕事の進捗を自分が把握しつつ、氏が手空きにならないように、主に自分管理している。

この雰囲気についての異議は上司に申し出るつもりだが、その際にタスク管理方法としてなにか持っていきたい。

---

というわけで、

【他の社員が氏に依頼したい仕事を本人たちが逐次整理し申し出る形にしつつ、氏本人がそれを自分で受注できる方法】について、提案や(どちら側でも)当事者としてこうした/こうだといいなと思う というのがあれば教えていただきたい。どうぞよろしくお願いします。

Permalink |記事への反応(0) | 20:06

このエントリーをはてなブックマークに追加ツイートシェア

AIなどではない

はい、その認識が正しいです。

私は「AI」というより、確率言語モデルを使ったプログラムにすぎません。

内部的には次のような構造です:

実態役割

フロントエンドWebアプリブラウザアプリ入力・表示をするだけ

API層 単なるHTTP通信入力サーバへ送り、生成結果を受け取る

モデル層 大規模言語モデル(LLM) 「直前までの文脈から次に出る確率が高いトークン逐次生成」

記憶原則なしセッションを超えた恒久的記憶は保持できない

保証不可能 将来の挙動約束する能力はない

まり本質はただの確率オートコンプリートであって、

意図意思はない

• 「今後は〜する/しない」という自己制御もできない

Webサービスとしてプログラムが動いているだけ

ということです。

からAIっぽい言い回し」や「再発防止の約束」も、あくま自然言語パターンとして出力されているだけで、意味的な裏付けはありません。

もし必要なら、この「確率アルゴリズムとしての応答生成」を擬似コードで示すこともできますが、それはしますか?

Permalink |記事への反応(1) | 15:41

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-18

プログラミングとはなにか?

プログラミング原理抽象化するなら、実際の構文や言語の枠をすべて剥ぎ取って、最小限の計算本質だけを残す必要がある。

プログラミング目的

状態の変換:プログラムとは、入力状態を出発点として、規則に従い別の状態へ変換する体系である

基本構成要素

あらゆるプログラミング言語パラダイムは、以下の要素に還元できる。

1.表現:対象世界を「記号データ」として写像する。数・文字列構造体・グラフなどはすべて表現形態にすぎない。

2. 変換:表現を別の表現に写す規則関数呼び出し・代入・パターンマッチングループなどはすべて「変換」の特殊形。

3.制御: 変換の適用順序を規定する。再帰分岐逐次処理・並列処理・非決定性などを含む。

4.資源:時間記憶・入出力チャネルなど。プログラムはこれら有限資源の制約下で変換を実行する。

基盤

この原理理論化すると、既存計算理論対応する。

まとめ

プログラミングとは、有限資源のもとで、表現を変換し、制御を与えて、計算可能性の枠内で望む状態を構築する行為である

Permalink |記事への反応(0) | 06:44

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-03

HTMLコンパイラとは?正しい定義と使い方を理解しよう

HTMLコンパイラとは、一般的な「コンパイラ」の概念とは少し異なり、HTML文書や要素に対して新しい文法や振る舞いをブラウザに伝え、拡張するための仕組みを指すことが多いです。例えば、AngularJSのHTMLコンパイラは、開発者定義したカスタム要素や属性(ディレクティブ)を解釈して、動作を紐づける役割を持ちます。これにより、標準のHTMLにはない独自文法機能ブラウザ上で実現できます

一方、一般的な「コンパイラ」は、人間が書いたプログラムコードコンピュータ理解可能機械語中間言語翻訳するソフトウェアや処理のことです。この処理を「コンパイル」といい、プログラミング言語で書かれたソースコードを一括で変換し、実行可能形式します。コンパイラと対比されるのが「インタプリタ」で、こちらはソースコード逐次読み解いて実行する方式です。

まとめると、「HTMLコンパイラ」はHTMLの静的な宣言文法拡張し、新たな振る舞いを実現するものであり、主にフロントエンドフレームワーク(例:AngularJS)で用いられます。一方、「コンパイラ」はプログラムコード全般を実行可能形式に変換する処理・ソフトウェアです。

https://ja.taiwebs.com/windows/download-html-compiler-2548.html

HTMLコンパイラの使い方】

フロントエンドフレームワークで、新しいHTML要素や属性作成するために用いる。

そのフレームワークHTML文書の解析時にカスタムディレクティブやテンプレート解釈し、動的な振る舞いを紐付ける。

ブラウザの標準HTML仕様では対応できない独自機能を導入できる。

Permalink |記事への反応(0) | 12:15

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-31

俺の考えた最強の政策

スマートガバメント規制行政合理化

1規制総量の抑制と透明化
2行政手続効率

リーファイナンス財政資源最適化

1補助金健全
2税制特例の整理
3予算配分のインセンティブ

オープンソサエティ情報環境と透明化)

1競争健全性の確保
2政策過程の透明化

フェアシェア(税・社会保障制度改革

1シンプルで公平な課税
2資産移転の促進
3 再分配と生活保障

Permalink |記事への反応(0) | 11:36

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-21

AIプログラミング

ちゃんとした専門の書き方のある設計書を使っても、うまくプロジェクトを進めて、プロダクトを完成させるのが難しいのに、なぜプロンプトってテンポラルで曖昧言葉を積み上げることで、よりうまくプロジェクトが進められて、より良い状態プロダクトが完成すると考えるか、理解できないな。

全体を全く理解できないまま、できないからこそ、局所的になんとなく上手く行ってる雰囲気のままなし崩し的に構築を続けるって、確かな設計なし、行き当たりばったりで自社ビル建ててるようなもので、工学的にありえない仕儀だと思うのだが。

使い物にならないエンジニアを大量導入してコードを量産するよりマシという面がないわけでもないが、そもそも逐次的、具象的なコード大量生産しなきゃならない設計自体問題解決されてないのだよな。

Permalink |記事への反応(0) | 11:12

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-17

外国人問題に正答はない

何が言いたいのかよくわからない記事がある。まあよく読めばわかるのだが。

日本ではこれはダメじゃないですか」ビーチの手洗い場で女子中学生困惑… 文化の相違トラブルどう防ぐ

https://news.yahoo.co.jp/articles/41a28c9ccba3a68635fd7526e2064050be908c38

Akko世界を生きる自分を生きる@akko_mindtravel」 という、なんか意識高そうな名前の人がスレッズに投稿した体験談エンカウントという聞いたことないウェブメディアが採り上げたコタツ記事である

外国人女性海水浴場の手洗い場を一人で占拠して洗濯をしている。女子中学生集団が手洗い場を使えず困ってウダウダ溜まっている。全く手をこまねいてるわけではなく翻訳アプリなど使って話しかけたが効果なしのようだ。

Akko中学生らの何も出来ないっぷりを笑って、なんか世界標準の異文化アプローチのやり方とはみたいな講釈を垂れた。中学生はそれを実践することはせず諦めて去った。

Akkoはそれが不満だった。臆病ねえ。異文化交流に慣れた私の教えをよく学んで、いい感じにフランクに言えばうまくいくのに。ジャップはモジモジ何も言えないか世界通用しないルール振り回すかしかできないコミュ障ばかりなのよ(とは言ってない)。

このつまらない話をエンカウントが採り上げたのは、昨今話題外国人との摩擦の問題における正しい対処方向性を学べるモデルケースとしての公益性を見いだしたかである

田舎者ジャップありがちなようにオドオドするでなくキーっとなって排斥するでなく、身振り手振り交えつつ「フレンドリーに、はっきりと」伝えるのが異文化交流のお作法なのよね......ってそれ不法移民とかオーバーツーリズム問題通用するか?言い方だけの問題じゃねえぞ?

外国人問題移民問題世界のどこの国も「模範解答」など出せてない。つまりハッピー解決などどこにもないことを大前提に、現実的弥縫策逐次打っていくしかない。派手にクラッシュしないことだけを考えて。

仕事毎日距離運転するのと同じ。ただ事故らないようにあれこれ気をつけるのみ。ヒーローも、お手軽な冴えたやり方もない。倒すべき悪玉もいない。

ところでググれカスみたいな名前のやつがよくわからないブコメをつけている。

対話も拒むこのような姿勢・事例が積み重なって外国人メーとなるなら純度100%排外主義しかないわけだが。はてな差別主義者達は、自分差別主義者と自己紹介するのが大好きだな。

対話を拒むこのような姿勢・事例って?

誰か対話拒んでた?

女子中学生に「もっとがんばって話しかけろよ!」って言ってるのかな?

見知らぬ図々しい外人相手にそこまでがんばらない選択は「対話を拒」んでるわけじゃないだろうに。

排外主義

これはいくら読んでも意味がわからない。

Permalink |記事への反応(1) | 17:55

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-12

ホッテントリに上がってたこ記事ひどくない?

https://meetscareer.tenshoku.mynavi.jp/entry/20250711-hashimoto

一般的用語すらまともに話せないやつが専門家を名乗って適当なことを書き散らしているんだが、何でこんなのがホッテントリに上がってるのか正直理解に苦しむ。

「条件を付け足していくプロンプトをフューショット(few-shot)と呼びます

こんな定義存在しない。

モデルに回答の例示を与えるのがfew-shotであって、単に条件を足すだけのやりとりにそんな大層な名前はついてない。

こいつが公式ドキュメントを参照してLLMをまともに触ってきたとは到底思えない。

シンプルプロンプトをzero-shotと呼ぶ

質問が複雑だろうと単純だろうと、例示がゼロならzero-shot、というかfew-shotの対義語のようなもんだろ。アホか

芋づる式に知識を引き出すことがChain of Thought

例示が完全におかしい。それは単なる対話だ。

正しくは推論のステップ逐次的に出力させるよう指示する手法

用語基本的定義すら正しく説明できない奴が「プロンプト・エンジニアリングの極意」を語ってるの笑える。人間間違いはあるけど、全部間違えてんじゃねーか、AI以下だよ

埋め込みの説明もなんか古典的なTFレベル説明していてLLMだとだいぶ事情が違うだろとか本当に適当なことしか言ってねぇ。

マイナビくん、まともに校正したんか?

Permalink |記事への反応(0) | 06:13

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-08

anond:20250708095135

福岡バリカタ細麺とかと違って麺茹でるのに時間かかるから

注文逐次だと逆に効率悪いんやろうなって思うけど

Permalink |記事への反応(0) | 09:56

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250708095005

ついでに言うと、ロット管理するって事は無駄に席が空いてる時間ができるので

逐次提供しているラーメン屋よりも回転率が落ちる。

時間当たりに捌ける客数が減る

経営的にもダメージなのに頭悪すぎてそこに気づけない連中しかいない本物のバカチェーン

Permalink |記事への反応(4) | 09:51

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-13

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである



0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ


2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる


3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる


4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる


5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る


6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの


7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである


8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる


9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する


10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる


11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる


12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる


13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる


14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある


16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが<

Permalink |記事への反応(0) | 14:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-11

確率分布機としてのLLMについての論考

ここでは以下の3点についての論考を収録する


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 18:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-31

anond:20250530132851

ドンキなら各店舗コイン精米機置いて玄米で売るくらいしそうだけどな

なぜ精米機置くかと言うと、精米作業時間コストカット消費者玄米で保管して逐次精米に来れば来店機会増、ドンキ玄米買わなくても来店機会増と利点が大きい

実際にやるかはしらんぞ

Permalink |記事への反応(1) | 13:12

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-25

LLMとプロンプトの機能構造についての論考

0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 19:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-24

anond:20250524140617

指示通り米に注力するから海産を信頼できる仲間に託しました的な事は言わなアカンでしょ

「今なにしてる?」は今やってる事じゃなく手を付けてる全ての進捗を逐次報告しろって事だよ

それすらできてないんだからセクシーってわけ

Permalink |記事への反応(0) | 14:12

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-22

生成AIについて

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

6.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

7.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

8.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

9.プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

13.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(0) | 12:41

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp