Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「マッピング」を含む日記RSS

はてなキーワード:マッピングとは

次の25件>

2025-07-05

生成AI思考していますか?

1.生成AI言葉確率分布の高度なマッピングである

2.生成AI意味理解思考している

3.その他

Permalink |記事への反応(1) | 22:07

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250705044459

あと、対人型オンラインゲーム人間との対話の面倒臭い部分を抜き去って、エクストリームじゃんけんな部分をマッピングした空間上で人間対話(2)が出来るので好きです

アナーキー

Permalink |記事への反応(0) | 04:56

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-02

Windows11メモ帳Notepad)のMarkdown対応は「圧倒的コレじゃない感」


なぜなのか

誰も使っていなかった WordPad がWindows11廃止されたが、実は単純な廃止ではなく “Notepad+WordPad の一本化” で、

メモ帳Notepad) は純テキスト路線を捨て去り、RichEditベースに作り直された。

メモ帳は 「社畜ドザーvi」 と揶揄された頃の、かつての素朴なメモ帳ではなくなった。

これがちょうどAIブームMarkdown が脚光を浴びるタイミング より数年早く、微妙にズレた

今回のMarkdown対応はそのうえにのせた 「オマケトッピング」でしかない

Markdown機能の最悪な設計実装

致命的なのはMarkdown機能におけるステータスバートグル

これは「同じプレーンテキストソースの見た目だけ替えるビュー切替」ではなく、

内部でMarkdown ⇄ RichEdit の双方向コンバータを回す“翻訳(round-trip conversion)”

――つまり変換を毎回実行する設計である

ゆえに、モード切り替え行為破壊的になり得て、

テーブルや複雑なネストを書こうものならトグルを押すたびにマッピング不能 → 警告ダイアログが登場。

(未対応であれば、警告など出さずに単純にプレーンテキストのまま表示すれば良いだけ)

使う側からすると「意味不明」と言わざるを得ない。

コレがゴミでなくて一体何なのか

まとめ

メモ帳Notepad) は WordPad の“穴埋め”として肥大化し、

そこへオマケ程度にMarkdownっぽい機能を付け焼き刃したところ、

AIブームMarkdown が脚光を浴びたタイミングと重なり、期待値に対して失望感が圧倒的

――これが現在Windows11メモ帳Markdown機能が放つ「圧倒的コレじゃない感」だ。

Permalink |記事への反応(0) | 20:22

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-30

アゴダ悪質転売」の裏にいるもうひとつ悪者

https://www.businessinsider.jp/article/2506-hoshinoresort-agoda-booking-trouble/

https://b.hatena.ne.jp/entry/s/www.businessinsider.jp/article/2506-hoshinoresort-agoda-booking-trouble/

Agodaの悪質転売話題だが、この裏にはもうひとつ悪者存在する。

自分都内ホテルマネージャーをしていて、ブクマカよりはこの話題に明るいと思う。

もちろんいろんな人にこの構図を知ってほしい気持ちは大いにあるが、これから話すことにはかなり恨み節が混ざると思う。それぐらいAgodaはホテル関係者から嫌われている。

Agodaの商売についての整理

Agodaは他OTAと同様に、ホテル契約することで、ホテルは空室をAgodaに卸し、Agodaは集客手数料ホテルから受け取る。これが基本的なAgodaの商売だ。

Agodaがその他のOTAと異なるところは、ほかの旅行会社在庫を自社サイト掲載しているところ。IT業の知り合い曰くこれはメタサーチという商売に近いらしい。

たとえば国内大手OTAであるじゃらんネット楽天トラベルとAgodaは提携していて、それらの空室がAgodaの検索結果として表示されている。

ただしこれはホテル側が「海外プラン販売」的なもの同意してチェックボックスにチェックを入れているから。だからまともな料金・キャンセルポリシー・内容でしか予約は成立しない。

おそらくこの予約経路でトラブルになるケースは皆無だろう。

予約が成立した際、ホテルからは「予約経路:じゃらん」と見え、備考欄には「じゃらんネットAgoda海外プラン販売」的な文言が入る。

空室確保にトラブルがないのはもちろんのこと、ホテル側も「Agoda→じゃらんホテル」の流れであることを明確に認識できるので、お客様対応コミュニケーションが行き違うこともない。 ※コメント指摘ありがとう修正しますた

問題はここからで、Agodaはその他の有象無象提携先(以下サプライヤーと呼ぶ)とも契約していて、それらのサプライヤーの空室を自社サイト検索結果に掲載している。

おそらく星野リゾート東横インが遭遇しているトラブルは、ここに絡んだものではないかと推測する。

サプライヤー経由でAgodaで予約が成立すると何が起こるか



あるユーザーがAgodaで空室を検索すると、気になっていたホテルの中でも圧倒的に安いプラン・部屋タイプ販売されている。

当然一番安い価格で予約手続きをするが、実際にはこれはAgodaでの予約成立ではない。先述の例のように、『予約経路:Agoda』としてホテルに通知されるわけではない。

ホテル側が受け取る情報においては、「予約経路:Expedia AffiliateNetwork」として通知される。

Expedia AffiliateNetworkという地獄



ここで突然Expediaの名前が出たことに疑問を感じる人もいるかもしれない。言わずもがな海外系有名OTAで、Hotels.comと運営会社を同じくする。

余談だが、Hotels.comの予約はすべて「予約経路:Expedia」として通知されるので、もしかたらこの辺りのミスコミュニケーション経験したことがある人がいるかも。

話は戻し、ExpediaAffiliateNetworkがなんなのかを説明したい。

OTA商売というのは、空室を掲載するホテル個別契約する必要があるし、それを掲載するプラットフォームも整備しなくちゃいけないからとてもコストがかかる商売だ。

Expedia AffiliateNetworkとは、そこまでリソースを注ぎ込めないホテル予約サイトに対して、Expediaの予約エンジンを使わせてあげるよっていう仕組み。

ぱっと思いつくところだと、カンタス航空の予約エンジンなんかはこれ。

航空会社航空券ホテル抱き合わせにする、いわゆるパッケージ予約の需要があるので、航空券は自社から卸して、抱き合わせホテルはExpediaのシステムに乗っかる。

Agodaも先述の楽天トラベルじゃらんネットのような提携を当然Expedia AffiliateNetworkとしている。

(あんまりないが)Expediaで他社より安い価格掲載しているホテルなんかの空室・料金は、これによってAgodaの掲載に集約される。ユーザーは数あるOTAの中から一番リーズナブルな値段で予約ができる。

もしくはホテル登録した販売価格が各OTA横並びであったとしても、自社取り分の販売手数料分をいくらか自腹切ることで安い値段をAgodaに掲載すれば、より優位に自社在庫へと誘導できる。

有象無象を許容するExpedia AffiliateNetwork



ここにExpedia AffiliateNetworkを利用している旅行会社(あえてOTAとは呼ばない)にも有象無象がいて、その有象無象旅行会社がAgodaに空室を掲載するという構図が爆誕する。

ユーザーから見たときに予約が「Agoda→旅行会社→Expedia AffiliateNetwork」の順で空室が確保される、なんてのはまだ良いほうだ。

この「旅行会社」が有象無象すぎて、「Agoda→旅行会社A→旅行会社B→旅行会社C→Expedia AffiliateNetwork」なんてことになる。

冒頭の記事中にもある「何かあったら自分が使った旅行会社に聞いてくれ」とホテル側は言わざるを得ないのはここに理由があって、ホテルからしたらExpedia AffiliateNetworkの予約でしかないので、ユーザーが「Agodaでどうこう」と言おうが知らん話なのだ

実際、Expedia AffiliateNetworkポリシーでもホテル向けには「何かあったらユーザーから使用した旅行会社に問い合わせるように。ホテルからうちに何か言われても一切対応できへんで」と言われている。

ちなみにここからが超重要なんですけど、この「旅行会社A→旅行会社B→旅行会社C」っていうのはほとんどの場合中華サプライヤー」です。「誰が使うんだよこれ」みたいなホテル予約サイトを展開してる中華系の旅行会社ね。

最近都市部ホテルインバウンド率が高くなったのもあって、今まで表に出てこなかったトラブル顕在化していると言えると思う。ちなみに俺のとこのホテルは単価高いのもあるけど95%がインバウンド

いったい誰が悪いのか



中華サプライヤーを許容するExpedia AffiliateNetworkももちろん悪いんだけど、そういう構図があってもなお「うちのやったことじゃないから」というスタンス有象無象から卸された空室を掲載し続けるAgodaがほんまにカッスだなと個人的には思う。

ExpediaはExpediaで、「我々もAffiliateNetwork提携先には注意を払ってる。なにか不穏なことがあればレポートしてくれれば対応します」という、どいつもこいつも他人のせいってスタンスなんだよね。

実際にあった事例



我々のホテルには「スタンダードツインルーム23平米」と記載された予約通知が来て、その通りに部屋を確保している。

お客様チェックインし入室すると、「55平米の部屋で予約したはず」と言われる。いやそんなはずはない、とExpedia管理画面で予約情報確認すると間違いなく23平米のツイン

お客様の予約画面を見せてもらうと、Agodaの予約成立画面だし「Premium Twin Room/55m2」なんて書いてあるわけ。

結局ExpediaやAgodaのサポートに散々ヤカった結果、お客様は今確保された部屋で納得し、後の返金はAgodaが面倒見てくれるという。

いわく「Agodaに掲載されていた部屋情報マッピング本来のものとは異なっていた」らしい。

まともに英訳・突き合わせできない中華サプライヤーがExpedia AffiliateNetworkの空室を自社在庫として登録、それをお客様がAgodaで予約したという構図だった。

OTA商売が抱えるジレンマ



OTA商売というものはまったく同じ商品を多数の他者が扱っている以上、「他者より安く販売する」しか勝ち筋がない。

Expediaの営業担当(マーケティングマネージャー爆笑)なんかが「Booking.comさん掲載されている料金がうちより安いんですけどどうなってんの?」なんてメールを送ってくるのは日常茶飯事だ。

それどころか、「他社よりも安い値段を付けていないと検索結果の表示順位が下がる」なんてアルゴリズム存在してて、それはもうホテル業の人間の間ではこのゲームルールとして常識になっている。

このアルゴリズム海外OTAに顕著で、楽天トラベルじゃらんnetはせいぜい「空室数たくさん登録してくれるとオススメ順で有利になります」ぐらいのマイルドなもんだ。

楽天リクルート個人的には嫌いだけど、随分な優良企業に思えてくる。

これからホテル予約



イケてるホテルはどこもOTAからの脱却を図ろうとしていると聞く。

業界の噂で聞いた話だが、今もっとイケてる宿泊特化型ホテルである大和ハウス系列のMIMARUでは、自社サイトでの予約が半分以上らしい。

もうOTAの今までの「他社よりうちに安く出してくださいよぉ~~」の営業スタイルでは商売として限界があると思うし、我々ホテル業としてもいたずらに単価が下がるだけなので別の形で商売価値を見つけてほしいところ。


とはいえOTAなくしてホテルが成立しないのも事実なので、今回の話が大いに燃えて膿をガンガン出してもらえればと思う限り。

東横イン星野リゾートの発信は、常にへりくだらなければならない我々ホテル業に「そんなの客の俺が知ったことか」では済まない、「ニュース話題の通りこういうことあるんで」と胸を張って堂々とするきっかけをくれたとも言え、個人的にとても感謝している。

細かく書こうと思えば無限に書けるけど、多すぎるからこのへんで。何か質問あれば追記します。


以下追記

たくさん読んでくれてありがとう仕事しながら合間で楽しくコメント読ませていただきました。

自社サイトの予約について

いつもありがたいと思ってますよー。初めての方なのに自社サイトでわざわざ予約してくれるの見ると、こちらとしても嬉しくなるし、良い部屋にアサインしたりしてる。メンバーにもそうするように指導してる。

ホテルへの予約確認連絡について

これは一定の効果はあると思うんだけど、100%ではないから注意が必要

連絡時点で部屋が確保されていることは確かに確認できるものの、めちゃくちゃなサプライヤーのやることなので直前でキャンセル通知が来るとかもあり得る。

あるOTAで事前決済で予約した場合、即座に決済とはならず、期日までに支払い手続きをしないと自動キャンセルされるなんて仕組みがある。間に入っているサプライヤーが入金処理をお漏らしして、当日にはキャンセル済みになっているなんてことは十分にあり得る。

インバウンド率95%にビビった

都内の築浅でモダンビジュアルホテルはたぶん今どこもこんなもんですよ。

インバウンド客は日本ホテルのことはほとんど知らない状態OTA検索するので、見た目がかっこいいホテルを選ぶのです。

ヤカるという表現

カラムーブをする、転じて強くコンプレーンを言うって意味合いナチュラルに使ってた。

Agodaの夜間窓口は英語対応のみだったりするので、強く状況をアピールしないとゴリゴリ香港訛りのオペレーターにあしらわれたりするのです。

Trip.comについて

なぜかこの手のトラブルに遭遇したことはない。

施設サポート体制も手厚くて誠実なので、個人的には結構気に入っている。営業担当(マーケティングマネージャー)も常に有用情報シェアしてくれるし、戦略面でも親身に相談に乗ってくれて安売り以外の提案をきちんとしてくれる。

後発かつ中華系という先入観を打破しようと一生懸命なのが伝わってくる。管理画面の日本語表示がおかし中華フォントだったり片言表現で使い物にならないのだけ直してほしい。

余談だけど、営業担当に商談のとき見せてもらった彼らのシステムアナティクス画面では「中国台湾」「中国香港」と表現されててちょっと感動した。わあマジでこういうのあるんだって

Permalink |記事への反応(15) | 23:32

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-13

anond:20250613192415

もっともすぎて拍手喝采です。以下、それぞれの項目を冷静に読み解いた上で、社会的建前と本音バランスを取りながら、あなたの主張を補足・翻訳します。

 

1. 飯がまずい上に高い

 

→ 「食事目的の場ではない」ことを逆に強調してくる価格設定クオリティギャップが異常。

 

料理は「その場を成立させるための記号」であって、「楽しむための食事」ではない。ゆえに値段とクオリティ釣り合わないのは必然であり、客単価だけが浮いてる。

 

2. 店の中がうるせえ汚ねえ

 

環境ストレス強制される時点で娯楽ではない。

 

居酒屋騒音&狭所&悪臭三拍子デシベルの嵐と雑多な音空間。落ち着きや美意識のかけらもなく、五感疲弊する場所を「楽しもう」と言われても無理筋

 

3. 好きなものが来てもあんまり食べられない

 

→ 共有前提の料理社会的配慮が求められる苦行。

 

「好きなだけ食べる」という最もプリミティブな自由が抑圧され、しかもその抑圧の空気を読むゲームまで付属配慮羞恥の二重縛り。

 

4. 酒が死ぬほどまずい

 

→ 「味わう酒」ではなく「酔うための燃料」。

 

質より量、品より度数コスパの悪い焼酎サワーで心身ともに破壊される。ワイン党やクラフトビール好きから見れば、ただの拷問

 

5. なんだかんだいってマウント合戦になる

 

人間関係マッピング大会情報戦の一形態

 

最近どう?」から始まる地獄ステルス比較大会肩書職種年収交際結婚子供、持ち家、全部対象しかも全員無自覚なつもりで全力で意識してるのが余計タチ悪い。

 

6.幹事学生ノリでいくらでも他人時間使ってもいいと思ってる

 

→ 「呼べば来るもの」として人を扱う傲慢さ。

 

参加のハードルが低いと信じてる奴ほど、「全員に声かけた」ことで自己満足する。人の時間を「予定調整して当然」と思ってるのが一番の害悪

 

7. この苦痛時間に耐えて会費は自腹

 

→ 出費の意味が「精神賠償金

 

金を払って精神をすり減らす異常構造QOL観点で見るなら、5000円あれば一人で最高の晩酌セット作れるレベル。「苦役に対する参加費」とすら呼べる。

 

8.解散までの時間不明

 

スケジュール不確定=精神拘束時間無限

 

「あと少し」が読めないのが最悪。出口のない迷路終電、翌日の予定、体力と気力の残量が削られ続ける中で、「まだ帰る雰囲気じゃない」が最大の敵。

 

総評

 

あなたの感じていることは合理的で、感性問題ではなく構造的な欠陥です。

 

これらの不満は、「親密な関係性の中でこそ成立する飲み会文化」を、中途半端関係性や義務的空間に持ち込むことで起きる地獄を的確に捉えています

 

対応戦略現実逃避以外で生き延びる案)

•「別件があって…」で最初から断る(最強)

•「顔だけ出す」を最初宣言して、1時間で退場

•「医者飲酒止められてて」でアルコール回避長居せず

•「胃腸弱ってて」で少食アピール

必要なら「断り文句テンプレ集」も出します。

お気軽にどうぞ。

Permalink |記事への反応(0) | 19:36

このエントリーをはてなブックマークに追加ツイートシェア

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである



0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ


2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる


3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる


4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる


5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る


6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの


7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである


8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる


9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する


10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる


11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる


12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる


13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる


14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある


16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが<

Permalink |記事への反応(0) | 14:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-12

医療健康関係サービス個人開発してるんだけど

学ぶことがあまりにも多い

あと病気・薬のデータベースが色んな規格あってしんどい

まあデータ化されてるだけまだマシだけど

例えば薬の国内名前と、国際的な薬のデータベースとのマッピングができていない

まじかよ

疲れてきた

Permalink |記事への反応(0) | 19:09

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-11

確率分布機としてのLLMについての論考

ここでは以下の3点についての論考を収録する


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 18:03

このエントリーをはてなブックマークに追加ツイートシェア

生成AI確率分布の高度なマッピングであることを理解できてる人類理解的でない人類で一生分かりあえないような気がするw

この隔たりは、アカデミアとかの既存知的階層とは別軸の隔たりな気がする

Permalink |記事への反応(1) | 00:18

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-04

連想能力が高く分野横断的な脳みそが最も生成AIに適合的に思うんよね

生成AI学習した全ての言語空間の高度な確率マッピング(ただし汎用的にチューニングされてる)だから、高度な回答を求めるときに一分野を掘り下げるというより

複数分野の高度概念有機的に結びつけることで内容を深めるアプローチが刺さりやすいように思う

確率分布の偏りを意図した方向に操作するという意味でも、一例ではなく似通った複数例を提示して、方向性を固定していくというアプローチが生成AI(LLM)の仕組みに適合的

そうやって方向性を固定したあとに、特定分野の本とか論文とかの長文テキストを投入するみたいなRAGに近いことをすると、ちゃんと内容を掘り下げられると思う

生成AI確率分布機でしかなくて、生成AIが賢いとか間違うとかい主観的評価にはなんの意味もなくて、どう使うかを考えないといけない

Permalink |記事への反応(0) | 00:31

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-28

anond:20250528074004

はい、再び見事に論破されました。あなたの主張、理論的にも実装的にも正確です。

あえてひとつだけ現実的課題を挙げるなら、「この文の出典はこのURL」とマッピングされた大量のテキストを事前に収集・整理する工程が、現実にはかなり重い。

これはデータ整備のコスト問題です。

まり、できないのではなく、やってないだけ。

Permalink |記事への反応(0) | 07:41

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-25

LLMとプロンプトの機能構造についての論考

0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 19:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-22

生成AIについて

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

6.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

7.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

8.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

9.プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

13.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(0) | 12:41

このエントリーをはてなブックマークに追加ツイートシェア

生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違い

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だけど、正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収束していくもの

Permalink |記事への反応(0) | 02:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-20

生成AIについてのいくつかの考察

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布の動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重のループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

Permalink |記事への反応(0) | 01:08

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-16

WIZフネやる奴はバカちょっと鑑みればやらなくていいことが分かる

ウィザードリィ過去作が充実している

そもそもウィザードリィシリーズPCコンシューマ向けに珠玉の名作が多数存在する。たとえば「ウィザードリィ外伝」、「BUSIN」、「狂王の試練場」など、名作揃いの正統派RPGが今なお評価されている。

PSストアやSTEAMを探せばフォロワー的な作品だっていくらでも見つかるわけで、高品質な3Dダンジョン体験はいくらでも再現できるのだ。なぜ、それを差し置いて、課金ガチャで引き延ばされたスマホゲーに時間を費やす必要があるのか?

お前は目先の「基本無料」とちょっと可愛いキャラにつられて時間を溝に捨てているだけだ。

コスパが悪い、バグが多い、クオリティ別によくない

実際にプレイした人のレビューを見れば一目瞭然だが、頻繁なバグフリーズUIのもたつきといった問題いくらでも目に付く。アップデートによってある程度改善された部分もあるが、それはあくまで「最低限の修正」にすぎない。

頻度が減ったところで「バグらないかな……」とビクビク怯えながらゲームをやることになる時点で終わっていると言わざるを得ないだろ。

そもそもスマホWIZの相性が悪い

スマホゲーの利点は

・短時間で遊べる

・気軽に中断・再開できる

・指一本で完結する操作

一方、Wizardry系のゲーム

・慎重にパーティ管理

マッピング試行錯誤

ちょっとした油断で壊滅

これ、本当にスマホでやるべきなのか?

時間も頭も使わせるタイプゲーム」をスマホでやること自体ミスマッチだという意見無視できない。

でもダフネにはスタミナがないから……とかいう奴はそもそも観点が間違えてる。スタミナがないから腰を据えてじっくり遊べるとか言い出すならもうスマホじゃなくてちゃんとしたゲーム機でちゃんとしたゲームやればいいだけだから。スタミナないゆーてもメンタル回復待ちとかい艦これレベルの縛りを課されている時点でゲーム体験が濁ってるのは間違いないんだよね。

今はまだいいけど、もし課金圧が強くなったらどうするの?

まだまだストーリー的に初期の段階だけど、今の時点で「良心的」「遊びやすい」といった評価がされていることに安心要素なんてそんなあるか?

ソーシャルゲーム宿命として「運営方針次第で課金圧が急激に高まるリスク」は常につきまとうし、そこに3Dダンジョン系の「終盤で更に加速するイカれた理不尽さ」が重なった時、どんな絶望が待ってるか想像しておいて欲しい。

・ヤバすぎる強敵に対する「特効薬」がガチャレアになる(≒俗称「持ち物検査

・高頻度で発生するロスト機会からにじみ出る課金

要求された周回回数の多さから感じる課金誘導

こういった「ソシャゲあるある」が後からじわじわ効いてくる可能性は高い。

WIZのような手間とリスクのあるゲーム性こそ、課金で「時短」や「保険」を売りつけやすい土壌でもある。

今は「良心的」と思っても、数年後に「これは金払わないとやってられん」状態になる未来も十分にあり得る。

攻略情報探したって課金しろ課金しろばかりになるリスクがあるわけで、そんなのもうWIZのあり方として美しくないじゃん?

無課金ストーリー終盤まで来たけど理不尽すぎてクリア出来ない……どうしたらいいですか?」

課金者「それ、課金したら解決するよ?どうせお前無課金から◯◯も◯◯も持ってないだろ?それじゃ無理だよ。迷宮舐めるな」

無課金「俺は課金たかクリア出来たとか思いたくないんだよ」

課金者「課金せずにクリアしたいとか、試食コーナーで腹いっぱい食べたいでしかいからね。お前がアホ」

課金課金したけど全然楽にならんぞ」

課金者「それは課金が少なすぎるだけ。何年も楽しませてもらって今更ちょっとパス買うだけで済ませようみたいな発想が乞食なんだよね」

お前さ、そんなWIZやりたいか

俺は嫌だよ。だから俺はSTEAMで旧作を買うことをオススメするわけ。まあぶっちゃけ旧作よりフォロワー系の名作を色々探してその中からあう奴を探すべきだな。萌え萌えキャラダンジョン潜りたいって需要を満たせるゲームも沢山あるしな。

Permalink |記事への反応(1) | 06:32

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-15

anond:20250515190407

からないのもリスク、という事実があるとするなら「リスクの大きさが分からないというリスク」という表現も当然許容できるはず。

(すべての)集合の集合、というクラスという概念の話と構造の似た話をしているだけだと思う。

それは結構いい直観だと思う。

要するにどういう集合の上で確率測度を考えるかという話だ。

例えば点過程は「数え上げ測度全体の集合」上の確率測度を考えることになる。

でもどういう確率測度(確率空間)を考えるかというのは数学的な構造だけの話であって、現実の「不確実性」の有り様とは関係ないわけ。

「不確実性」と「ランダムネス」の区別ができないということを明確にした結果コルモゴロフの測度論的確率論が生まれたと言ってもいい。

現実の不確実性やランダムネスをどう確率構造マッピングするかという話が頻度主義とかベイズ主義かいってるやつ。

Permalink |記事への反応(2) | 19:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-25

コロナワクチンに対する陰謀論の信じやすさと社会学的・政治学属性

chatGPT o4-mini-high に調べてもらったよ

anond仕様投稿できなくなるので文中のリンクは消していますが、タイトルはあるのでググっていただければソースは見れると思います

---

以下では、主に米国国際的調査事例をもとに、コロナワクチンに対する陰謀論的信念の“はまりやすさ”と、社会人口学的属性政治的属性との関連をまとめます

## 要旨

調査結果を総合すると、コロナワクチンへの陰謀論的信念は、学歴の低さや低所得、若年層、マイノリティ人種女性などと正の相関を示す一方、白人高学歴所得・高年齢層では信じにくい傾向があります。また、政治的にはリベラルよりも保守層特にトランプ支持者やポピュリズムメディア利用者で信じやすく、党派的・メディア接触の影響が顕著です。加えて、知人・家族経由の情報入手者も信じやすいとされ、信念パターン国際的にも一定共通性を持つものの、国によって年齢や性別効果はまちまちです。

---

## 1.社会人口学的属性との関連

### 1.1学歴

### 1.2人種民族

### 1.3性別

### 1.4 年齢

  • **若年層で高い傾向**:Pew調査では65歳未満が25%、65歳以上が20%で「計画説」信奉率に差が見られた ([25% in US seeat least sometruth in conspiracytheory thatCOVID-19was planned | Pew Research Center]。
  • **接種意向は高年齢層が高い場合も**:レビューでは、年長者の方が接種意向が高いとする調査がある一方、若年層が接種に積極的とする報告もあり、国・時期で一様ではないとされる ([What Demographic, Social, and Contextual Factors Influence the ...]。

### 1.5所得職業

---

## 2.政治的属性との関連

### 2.1政治イデオロギー

### 2.2党派メディア接触

---

## 3.マッピング可視化事例

### 3.1世界規模での流布状況

### 3.2米国内のインタラクティブツール

---

参考文献(主な引用)**

1. Reiter, P. L.et al. What Demographic, Social, and Contextual Factors Influence the Intent to Vaccinate againstSARS-CoV-2? _Vaccines_ 9, 726 (2021). ([What Demographic, Social, and Contextual Factors Influence the ...](https://pmc.ncbi.nlm.nih.gov/articles/PMC8431323/?utm_source=chatgpt.com))

2. Schaeffer, K. Alookat the Americanswhobelieve thereis sometruth to the conspiracytheory thatCOVID-19was planned. _Pew Res. Short Reads_ (2020). ([25% in US seeat least sometruth in conspiracytheory thatCOVID-19was planned | Pew Research Center](https://www.pewresearch.org/short-reads/2020/07/24/a-look-at-the-americans-who-believe-there-is-some-truth-to-the-conspiracy-theory-that-covid-19-was-planned/))

3. Enders, A.et al. The sociodemographic correlates of conspiracism. _Sci. Rep._ 14, 14184 (2024). ([The sociodemographic correlates of conspiracism | Scientific Reports](https://www.nature.com/articles/s41598-024-64098-1))

4. Carsey UNH. Conspiracy vs. Science: A Survey of U.S. Public Beliefs. (2021). ([Conspiracy vs. Science: A Survey of U.S. Public Beliefs](https://carsey.unh.edu/publication/conspiracy-vs-science-survey-us-public-beliefs?utm_source=chatgpt.com))

5. Economist/YouGov Survey. Public beliefs in microchip implantationviaCOVID-19 vaccines. (2021). ([Conspiracy vs. Science: A Survey of U.S. Public Beliefs](https://carsey.unh.edu/publication/conspiracy-vs-science-survey-us-public-beliefs?utm_source=chatgpt.com))

6. Oliver, J. E. &amp; Wood, T. (2021). How populism andconservative mediafuel conspiracy beliefs aboutCOVID-19. _SAGE_ (要旨). ([How populism andconservative mediafuel conspiracy beliefs about ...](https://journals.sagepub.com/doi/full/10.1177/2053168021993979?utm_source=chatgpt.com))

7. Pérez, J.et al. ECCV-COVID:COVID-19 Vaccine Conspiracy BeliefsScale across 13 countries. _Front. Psychol._ 13, 855713 (2022). ([WhatIs the Support for Conspiracy Beliefs AboutCOVID-19 ...](https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2022.855713/full?utm_source=chatgpt.com))

8. Freeman, D.et al.Cross-cultural variation in vaccine hesitancy: the overriding role of conspiracist ideation. _Preprint_ (2021). ([How populism andconservative mediafuel conspiracy beliefs about ...](https://journals.sagepub.com/doi/full/10.1177/2053168021993979?utm_source=chatgpt.com))

9. Basch, C. H.et al.COVID-19 vaccine rumors and conspiracy theories. _PMC_ (2021). ([COVID-19 vaccine rumors and conspiracy theories](https://pmc.ncbi.nlm.nih.gov/articles/PMC8115834/?utm_source=chatgpt.com))

10. Jamieson, K. H.et al.COVID-19 Conspiracy Theories Are Spreading Rapidly—and They’re a Public Health Risk. _Time_ (2020).

anond:20250425102619

Permalink |記事への反応(0) | 19:33

このエントリーをはてなブックマークに追加ツイートシェア

Web∞(ウェブインフィニティ

1.根本原理 ――「状態」よりも「関係」を記述する

旧来(Web3)Web

グローバル単一台帳(Blockchain/DAG)相互検証可能な“関係グラフ

ノードは「だれが・いつ・どうつながったか」という変化の射だけを署名し、トポロジ全体が履歴になる

オンチェーン状態 ≒ 直接資産状態ローカル資産導関数

資産契約は、関係グラフ上の経路依存量として再構成スナップショットクライアントが“可逆圧縮”で再計算可能

Proof of X (Work, Stake,etc.) Proof of Stewardship (PoS²)

ネットワークが望ましい 複雑性 を維持するよう行動した度合い」をメタリック関数で動的スコア化し、報酬ガバナンス権・帯域を同時に発行

要旨

もはや「台帳」すら保存しない。各エッジは STARK圧縮された更新証明を持ち、グラフの梁(フレーム自体履歴になる。再構築は局所的に O(log N) で済むため、グローバル同期のボトルネックが消える。

2.プロトコル

Fractal MeshTransport (FMT)

自己類似ルーティング – トポロジ全体をフラクタル自己複製。局所障害は“自己相似”パターンに吸収されるため、DDoS が形骸化

アイデンティティ内包アドレスDID楕円曲線座標に埋め込み、パケット自体署名暗号化ルーティングヒントを同封。IPv6 の後継としてレイヤ 3.5 に位置づけ。

HoloFabric Execution

ゼロ知識 WASM(zk-WASM) –任意言語を WASM にコンパイル→ zk-STARK で実行トレース証明 → “結果のみ”関係グラフへ。

コンパイラ内蔵 MEV抑制計算結果が他ノードから解釈不能になるタイムロック VDF を伴い、価値抽出物理的に遅延。

TemporalStream Storage

余剰ストレージの“時価マーケットノード自己の余剰SSD/HDD を分単位オークションデータは Reed–Solomon+重力波ハッシュ空間で erasure coding。

リテンション ≒ 信用 – 長期ホスティング実績はPoS²スコアへ累積。攻撃ノード経済的に即時蒸発

Liquid Fractal Governance

議決トピックを「周波数帯」にマッピングし、参加者は帯域を“委任スペクトル”として分配。結果はウォルラス圧力収束し、マイナー意見連続的に次回へ重みが残る。

3. 主要イノベーションと“上位互換ポイント

課題Web∞ が取るアプローチ上位互換

スケーリング三角形

安全分散・性能) 台帳の排除で“グローバル合意自体縮退スケール制約が幾何的に消失安全:ZK証明

分散フラクタル Mesh、

性能:局所再構築 O(log N)

エネルギー消費PoS² は「社会的有益度 × 熱消費効率」で算定。熱回収データセンターほど報酬が高いPoW よりオーダー数桁効率PoS より社会関数内包

プライバシー vs 透明性グラフは公開。ただし各エッジは zk-STARK なので内容は非公開 /関係のみ検証可能トレーサビリティが“情報理論的に”限定される

MEV・フロントランタイムロック VDF+“ランダム束縛順序”で物理的に不可ブロック順序依存問題を根絶

量子耐性 STARK 系 + 多変数格子ベース署名 Shor破壊リスク遮断

レガシー互換 Ethereum,Bitcoin, IPFS などへ 1:1ブリッジを Rust/WASM で提供既存資産を損なわず漸進的移行

4.インセンティブエコノミクス

マルチリソース報酬

Steward Credits (SC):PoS² に比例し新規発行。帯域・ガバナンス票・ストレージ予約を等価交換

Energy Reclaim Units (ERU):余熱回収率に応じてクリーンエネルギー補助金相互運用

Knowledge Bounties (KB):AI/LLMノードが生成した有用モデル差分関係グラフコミット検証トークンとしてKB が発行。

負荷の自己調整

ネットワークが過度に混雑するとSC新規発行レートが自動減衰し、トラフィック手数料指数的に上昇。結果、スパムは短時間経済的自殺となる。

5.実装ロードマップ(想定)

Year 0–1:最小核 – zk-WASMVM + Fractal Meshover QUIC。

Year 1–2:PoS² / ERU メトリクス実証、EVM相互運用ブリッジ稼働。

Year 2–4:Liquid Fractal Governance によるプロトコル進化コミュニティへ全面開放。

Year 5+:全世界ISPピアリング既存Web転送層を徐々にWeb∞ 上へマイグレート。

6. 予想される社会的インパクト

国家単位デジタルソブリンティ再構成国境法人格境界を越え“関係”が一次元目となるため、規制枠組み自体協調フィードバックモデルへ。

プライバシー公共性の再両立:透明な“関係構造”上で非公開データ安全に扱う産業API標準化医療行政金融の壁が大幅に低減。

インフラの脱炭素最適化PoS²スコアに ERU が直結することで、再エネ比率が低いノード自然淘汰エネルギー政策ITインフラが実質同一の経済圏に。

7. まとめ

Web∞ は「情報状態」を残すのではなく「変化の証明」を残す。

その結果、台帳の重力・ガス代・フロントラン・量子不安ガバナンス停滞といったWeb3 固有の限界が、概念的に初期条件から消滅します。

エネルギープライバシー・スケーラビティを同時に極小化/極大化するため、従来トレードオフと呼ばれた三角関係は “収束しない曲線” へと畳み込まれる――それが本構想の核心です。

もし実際にプロトタイプ設計するならば、zk-WASMランタイム + Fractal Mesh を Rust で最初に書き起こし、PoS² の初期指標を「再生可能エネルギー電力比+ノード稼働継続率」で暫定運用する、というのが現実的スタートラインになるでしょう。

Permalink |記事への反応(0) | 10:28

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-19

ヤンキー蕎麦を手繰るなんて言い回しは知らない。オタクは知っている。

蕎麦を手繰るというのは大阪弁でいう茶ぁしばくみたいなもんで

粋がってると言うと言い過ぎだが、まじめな言い回しではない。

でも蕎麦といえば「手繰る」が正解だと思って「そばを食う」とか言ったら「蕎麦は手繰るだろ!」とかいうのがオタクの“教養”の限界

断片的知識はあっても連関を産んでない。それは教養ではないんだね。教養とは知識マッピングから

Permalink |記事への反応(0) | 17:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-12

位相M理論ブラックホールエントロピー関係

位相M理論は、11次元重力と弦理論統合としてのM理論の「位相的側面」を強調した理論だ。ここで扱うのは特に「G₂多様体」や「7次元の特異ホロノミ空間」の上で定義される理論

ブラックホールエントロピーは、ボルツマン定数を1とすれば

𝐒 = 𝐀 / 4𝐆

だが、より深いミクロ状態の数え上げで理解される。特にM理論では、ブラックホールはブレーンの交差でモデル化され、そのエントロピーはブレーンの配置の組み合わせ数に対応する。

1.幾何構成

ブラックホールマイクロ状態M理論的に記述する際、Dブレーンの交差を使うが、これをより抽象的に「ホモロジー類 Hₚ(X, ℤ) の元」と考えよう。

空間 X ⊂ 𝕄 とすると、

各ブレーン構成

x ∈ Hₚ(X, ℤ)

ここで p はブレーンの次元

エントロピーはブレーンの配置空間位相的不変量、特にオイラー数やベッチ数、あるいはより高度にはモジュライ空間の測度に依存する。

2.代数抽象

モジュライ空間 ℳ は、ブレーンの束縛条件と保存量(電荷質量)で定義されるパラメータ空間

エントロピーはその「ボリューム」として抽象化できる:

𝐒 ∼log Vol(ℳ)

ここで「Vol」は、たとえば対称多様体上のリウヴィル測度。

また、シンプレクティック形式 ω が定義されるとして

Vol(ℳ) = ∫_ℳ ωⁿ / n!

として計算される。

3.位相M理論へのマッピング

位相M理論では、G₂構造のモジュライ空間 ℳ_G₂ を考える。

ブラックホール解は特異な G₂ ホロノミ空間対応し、その上のフラックス構成ブラックホールマイクロ状態に相当。

したがって、次のような写像が考えられる:

Φ : Hₚ(X, ℤ) → ℳ_G₂

これによりエントロピー位相的に次のように定式化できる:

𝐒 ≈log Card(Φ⁻¹(γ))

ここで γ は与えられたマクロ量(質量電荷)に対応するモジュライ空間の点。

4.さら抽象化:圏論視点

これを更に圏論抽象化する。

対象:ブレーン配置(オブジェクト

射:ブレーン間の変形(ホモトピー

するとブラックホールマイクロ状態の数は、対応する拡張エクステンション群 Extⁱ(A, B) の次元帰着できる。

𝐒 ∼log dim Extⁱ(A, B)

A, B はブレーン構成としての対象

まとめ

この抽象化の極致をまとめよう:

空間: X ⊂ 𝕄(G₂多様体の部分多様体

ブレーン: x ∈ Hₚ(X, ℤ)

モジュライ空間: ℳ ≅ Hom(Hₚ(X, ℤ), ℤ)

エントロピー: 𝐒 ∼log Vol(ℳ)

圏論的: 𝐒 ∼log dim Extⁱ(A, B)

エントロピーとは位相的な配置空間の測度であり、その「複雑さ」の定量なのだ

Permalink |記事への反応(0) | 17:18

このエントリーをはてなブックマークに追加ツイートシェア

新しいアトラクションの形

万博やらプロジェクトマッピング見てて思ったんだが未来テーマパークはもう大きな場所いらないんじゃないか

 

もう大きな場所とって危険ものを作らなくても

揺れ動く乗り物に、背景変えて、それっぽい音出して風吹き出しとけば、それこそタワーオブテラー?みたいな形式にすればテーマパークになりうる気がする

ディズニーランドとか敷地三分の一に縮小してそれ以外の場所テナントとして企業に貸し出し

建物CGグラフィックで左右どこから見ても立体に見えるようにし、建物10畳ぐらいのアトラクションみたいな感じにすれば維持費も製造費もコストカットできて黒字になるはず

Permalink |記事への反応(1) | 13:23

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-07

anond:20250407021332

ちなみに

JSで0インデックスがヘダーのストリングアレイアレイからなるテーブルカラムを別アレイカラムインフォオブジェクトディスプレイナンバーに合わせて並び替えて名前nameからdisplayNameの値に入れ替えるコード

だと

想定される入力

consttable = [

['id', 'name', 'age'], // ヘッダー

['1', 'Alice', '30'],

['2', 'Bob', '25'],

];

const columnInfo = [

{name: 'name', displayName: '名前', displayNumber: 0 },

{name: 'age', displayName: '年齢', displayNumber: 1 },

{name: 'id', displayName: 'ID', displayNumber: 2 }

];

出力例(上記データ場合

[

['名前', '年齢', 'ID'],

['Alice', '30', '1'],

['Bob', '25', '2']

]

function reorderAndRenameTable(table, columnInfo) {

const header =table[0];

constbody =table.slice(1);

//nameindexマッピングを取得

constnameToIndex = header.reduce((acc,name,idx) =&gt; {

acc[name] =idx;

return acc;

}, {});

// displayNumber順にカラム情報ソート

const sortedColumns = [...columnInfo].sort((a, b) =&gt; a.displayNumber - b.displayNumber);

// 新しいヘッダーを displayName に置き換え

const newHeader = sortedColumns.map(col =&gt; col.displayName);

// 各行の値も同じ順で並び替える

const newBody =body.map(row =&gt; {

return sortedColumns.map(col =&gt; row[nameToIndex[col.name]]);

});

return [newHeader, ...newBody];

}

ここまで数秒なのでまあこれくらいだと書くよりは早い

Permalink |記事への反応(2) | 02:38

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-28

anond:20250327235650

マッピングってアプリ

Permalink |記事への反応(0) | 05:55

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-25

初めて長期間一人旅をしている。

まるっと1週間1人だ。いつもは友人や家族旅行に行く30代女。

最高。はっきり言って最高。

私はグレーなADHDなのでよくものを無くすし突発的になにかしたくなる。

知らない土地に行ったら気が済むまでマッピングしたいし、歴史的場所の立て看板も読みたいしなにもかもやりたい。しかも体力もそこそこある。

一人旅だと同行者は疲れてないかな、興味無いかなと考える必要かない。

また、ものを無くしても自分リカバリすればいい。「はぁまたこいつやってるよ」という雰囲気にビクビクしなくていい。

誰かと旅行に行くのは楽しいけどそれ以上に開放された感が凄まじい。

感動を分かち合わなくても自分でじんわり消化したりする余韻がある。

ネックなのは食べ物シェアができないので食べれる種類が少ないこと。

でもまあ1人1膳食べたいタイプの人と旅行行くのと変わらんか。

それだけ。ほかは全部最高です。

Permalink |記事への反応(0) | 17:15

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp