Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「一定量」を含む日記RSS

はてなキーワード:一定量とは

次の25件>

2025-12-14

来年からF1フジテレビの独占放送になるらしい

いい機会だから、そろそろ若返りを期して今のスタッフは総入れ替えしてもいいんじゃないか?

ご存知のようにF1世界的なブームで、とくに米国ではF1絶対に人気が出ないと言われ続けてきた定説ネットフリックスドキュメンタリー番組の影響により覆り、大人コンテンツとなったことが大きい。

トヨタが一歩一歩とF1へとコミットしていっている状況や、一度は撤退を決めたホンダが再参戦を決めたのもそのような世界的な流れも影響していると思う。

一方で日本では、F1は相変わらずオールファンたちが支えているのが現状だ。

毎年の鈴鹿でも年齢層が高いのは一目で見て取れる。

このまんまじゃあ、日本でのF1は終わっちゃうんじゃないか?と危惧する程度の危機意識はあってしかるべきだ。

新しい世代ファンがいなければ、どれだけ海外で盛り上がってても日本じゃあオワコンのままだ。

そういうなかでフジ一社独占というニュースはあまりよくない。

なぜならDAZNF1視聴者層を広げるという役割果たしてたからだ。

DAZNの主な視聴者層サッカーを見るための契約者だ。

それはDAZNサイト構成を見ていても分かる。

まずはサッカーが一面を飾り、その他のコンテンツという構成になっている。

サッカーF1同様に、ファン層の高齢化が顕著ではあるが、それでも若いファン一定量流入し続けている。

そういった人たち、モータースポーツにはあまり興味がない人たちへの導線としてDAZN機能していた。

DAZN放映権を持つことで若い人たちがF1に触れる機会が増えていた。

来年からは、それがなくなるという。

なんかね、もうオワコン化への一歩をまたひとつ力強く踏み出した!!って気持ちしかしない。

聞くと海外ではアップルTVF1放映権を手に入れたという。

いっそ、日本でもそうなれば日本F1人気も再び盛り上がるんじゃあ?って思ってたのがフジの独占だろ。

で、それをお届けするのは、もう古い時代からのいつもの面々だろ?

若い人が見るのかね?

もちろんね、リスペクトはしてるんだよ。

これまでF1の人気が陰りきっていた時代にもめげずくじけず熱を込めてF1を届けてくれてた人たちに対しての敬意はある。

でもね、その敬意のために、これからを捨ててしまっていいのかね?って疑問もある。

もういっそね、もしもアップル日本でもF1を放映することになっていたらどうしてただろう?

くらいの視点に立って、大きく物事を変える時がやってきてるんじゃないかね?

これが日本でのF1人気、モータースポーツの振興のリブートの起点とするのだ、というくらいの思い切った変革を志向するべきときが来てるんじゃないかね?

とか思わないでもない。

Permalink |記事への反応(0) | 09:59

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-13

anond:20251113162243

スマホである一定量アプリを入れると激重になって再起動がかかるようになったやつがある。

おそらくメモリのどこかが壊れていてそこまで使うとダメになるんだろうな。

Permalink |記事への反応(0) | 20:59

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-10

日本社会問題ってあるの?

社会問題」って、割合性質を含んでいない?

1000万人の国で100万人に起きている出来事はたぶん社会問題だと思うけど

10万人、1万人・・・と減っていくと徐々に「パターン可能個別問題」になっていきそう、元社会問題でもいい

どこにボーダーラインがあるかわからんけど

たとえば5%に関係あれば社会問題だとしたら、日本において多くの元社会問題ほとんど解決済みになるのではないか

 

もちろん、今言っている「割合を重視した社会問題から漏れる「たしか一定量が発生している社会問題」はあるから対策不要というわけではないけど

前者を社会問題A、後者社会問題Bとしたら

最近話題に上がるものの多くはBであり、それを国民が寄って集ってあーだこーだ議論するのってどうなんだろって思うんだよね

効果も薄いし、事情ちゃんと把握できていないことが多いし、当事者への負荷もかかるし

それよりなら少人数の対策チームが直接アプローチしたほうがうまくいきそう

 

社会問題Aは日本においてかなり少なくて、暇だからBをやってるという認識

それならば社会問題Aではなく社会課題Aを見つけて議論したほうが良い

「今のままでも良いけど、よりよくするなら?」という話

まあこっちは専門性が高いので注目されにくいんだろうけどね

 

今日今日とて1%の人にも関わるか怪しい問題を持ってきて社会問題Aのように装った記事を量産し国民エンタメ消費している

Permalink |記事への反応(3) | 07:57

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-27

人工肛門のある生活

人工肛門のある生活になって数年たつので色々書いておくよ。

知らないものって怖いよね。でも、そんなに不安になることはないよ。

そこまで嫌なものではないし、逆に人工肛門のおかげで楽になったこともあるよ。

(追記 :ブロガー黄金頭さんの参考になればと思って書いたけど、無事本人に読んでもらえた上にホッテントリ入りしたようでうれしいです。)

 

人工肛門って?

常人なら腸の出口は肛門ですよね。

人工肛門の人はおへその横に腸の出口があります病気で腸の一部を切った後、肛門繋ぎなおせない場合にそうなります。口から入った食べ物の最終の出口が人工肛門になります

肛門側の腸は体にちょっとだけ残っていて肛門につながっています肛門から特に何も出てきません。(少量の粘液程度)

 

排便ってどうなるの?

常人なら肛門の近くの腸(直腸)に便が溜まります一定量を超えるとトイレに行って、大便を出します。

 

人工肛門場合は貯める場所がないので出口から時々(数時間おき)に大便が出てきます。出る感覚はありません。

これだと生活できないので、10x15cmくらいの袋(パウチ)を貼り付けておきますパウチに便を溜めて、1日1回程度溜まった便を捨てます

パウチ防臭袋以上に匂い遮断してくれるし、防水性ですし、体にしっかり張り付いてはがれることはまずありません。

 

パウチには捨てる窓口がついていて、パウチを体に貼り付けたまま便を捨てられます。便を捨てた後は、捨てる窓口の周りが汚れるのでティッシュなどで綺麗に拭きます。皆さんが大便をした後に肛門を拭くのと同じことです。

 

https://products.coloplast.co.jp/coloplast/ostomy-care/sensura-mio/sensura-mio-1-piece/-1/

私が使っているパウチはこれてす。上の丸いところを体に貼り付け、真ん中の穴に人工肛門がはまります

下が便を捨てる窓口で、普段は数回折り返すことで閉じています

 

オストメイト対応トイレ必要

多少の工夫や慣れは必要ですが、多くの方で不要だと思います

洋式トイレに便は捨てられます。そのあとのきれいにするのもトイレットペーパーでなんとでもなります

 

くさくないよ

パウチは強力な防臭素材でできているので匂いは全く漏れません。(BOSSなどの市販防臭袋よりかなり強力)

ただしおなら(ガス)の問題があります通気口(ガスだけは少し出る)があるパウチは鼻を近づけるとちょっとにおいます。皆さんがおならをしたら匂うのと同じですね。

通気口テープを貼って閉じるとガスも漏れませんが、時間が経つとガスでパウチが膨らみます。その場合トイレパウチからガスを出す事が必要です。

 

追記: ただし、管理がずさんだと臭くなるので注意です。

特に便を捨てた後の拭き残しがある場合。これは肛門からの排便でも同じですね。

 

便自体匂いは強い

人工肛門から出てくる便は普通の便と少々匂いが違うので、普通の便より匂いは気になりますトイレで便を捨てた後よく流す必要があります

ただし、良い臭い消しが売ってますパウチの中に入れておくと便の匂いがかなり軽減されます

また専用の消臭スプレーも売ってます

 

全く痛くない

全く痛みはありません。人工肛門には感覚がありません。触っても痛みどころか何も感じません。

常人なら硬い便で肛門が痛いとか、下痢肛門がひりひりするとかありますが、人工肛門にはそういう痛みは一切ありません。この点は人工肛門の方が楽です。

 

服を着てたらまず気づかれない。

服を着てるとほぼ気づかれないです。

お腹の片側がわずかに膨らみますが、漫画一冊をズボンに挟んだくらいと思ってください。

 

風呂は?

パウチを付けたまま入れます。防水です。パウチの中身が漏れることはまずありません。

 

プールは?

最近上着を着るのが普通なので気付かれないです。

男子場合トランクス型のゆったりした水着を少し上げれば隠せます

パウチは防水ですので問題なく泳げます。楽しめます

 

温泉も利用できるようになってる

基本的に利用OKです。

かなり理解が進んできていると思いますが、念のため施設には事情説明しておいた方が良いと思います。貸し切り風呂なら断れることはまずないと思います

 

女性なら湯浴み着を着てしまえば問題ありません。

男性ならパウチを隠すための肌色の貼り付けるシートが売っています。大きな傷がある人なのかなあ程度に思われると思います

男性も湯浴み着が徐々に浸透しているので、湯浴み着を使うのが良いかなと思います

  

コストは毎月1万円くらいか

パウチが一枚数百円で2-4日程度使えます。これで8千円くらいかかるかなあ。

それ以外に剥離剤(はがすため)、保護剤(ただれるのを防ぐ)、防臭剤とかがあるので1万円は超えると思います

 

ほとんどの自治体補助金制度がありますが、所得が多いともらえません。住民税課税なら1万円くらいもらえるかもしれません。

 

結論として、実際どうなのよ?

そりゃ体に何かついてるのはちょっと嫌だけど、慣れちゃった。飲食店とか電車とかで周りにいても全く気付かれないと思う。

 

人前で裸や水着になりにくいのはちょっと嫌だけど、そんな機会は少ないので困ってないです。

便を毎日ダイレクトに見ることになるのは嫌。パウチは透明な商品が多いけどそれはやっぱり嫌。不透明ねずみ色のパウチにしてからストレスが激減した。

 

好きな時間に便を捨てられるのはとても楽。肛門が痛くならないのはほんと楽。

 

はてな人工肛門話題が出てたので書いてみた。ちょっとでも不安が減るといいな。

 

 

便の量の管理下痢とか過敏性腸炎とか長距離移動とか)

袋の容量は下痢の時でも半日程度、普段は1.5日くらい。

常人と違って、袋に溜まってる便の現在の量が見えるので、どれくらい余裕があるかが比較的正確にわかるのは大きなメリットです。

距離フライトも、東京から福岡までの新幹線特に心配ありません。混雑したトイレ行列ヤバいって事もないし。

重度の過敏性腸炎の人は人工肛門の方が生活が楽なんじゃないかと思ってしまます

 

スポーツとか

普通スポーツ問題なくできますランニングバスケサッカーダイビング遊園地ジェットコースターアスレチック、車の運転とか。

ただし、お腹に強い衝撃は避けた方が良いと思います。例えばスカイダイビングとかラリーカーのような本格的なハーネス必要な事、ラグビーのような激しいコンタクトスポーツは難しいと思います

ちなみにパウチ(袋)はハサミで切れるような素材だけど、服を着てるし破れた事はないです。

 

袋の色について

ほとんどの人にとってはどうでも良い話だけど、人工肛門の人にとって大事な話。

 

透明の製品ほとんどなのは医療的には不透明にする必要がないからです。透明の方が便の色や状態の観察がしやすいし値段も安いからのようです。ハンドメイド裁縫で作ったカバーなんかも売ってるけど、我慢して透明の製品を使ってる人が多いんじゃないかなあ。ひどい現状です。

街中で目の前の人のワイシャツブラウスがめくれて、グレーの袋が見えるのは気にならないと思うけど、中にうんこが入ってる透明の袋が見えたらぎょっとするよね。

 

ちなみに、グレーは良い色だと思います下着の色で想像してみてください。肌色のアンダーシャツがはみ出ていたらダサいし目立ちますよね。グレーが一番目立たないし気にならないように思います

 

Permalink |記事への反応(13) | 14:58

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-10

anond:20251009131135

材料をまとめて使い切りたくて一定量を作ってしまう(賞味消費期限や鮮度のいいうちに調理)

一回分の食事では全部食べきらない

残る分を保存してそれを使いますって方式(が多いのでは)

計算して多く作る人はそれはそれでいいけど

Permalink |記事への反応(0) | 02:47

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、Permalink |記事への反応(0) | 00:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-19

anond:20250919180647

前読んだのは、

とかあるらしい。

ただ最近一部で最新技術いれて再チャレンジが始まってるみたいね

https://www.watch.impress.co.jp/docs/news/2046195.html

今度は単なる食品ロス対策や採算性などではなく、輸送トラック人員が確保できないと言う切実な問題が関わってるから、今度こそ定着する可能性がある。

Permalink |記事への反応(2) | 19:18

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-29

anond:20250829111524

ところでメイクって身体に悪くないんか?

セックスの時は顔ペロペロ舐めるから一定量摂取してると思うんだよ

Permalink |記事への反応(1) | 11:17

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-23

anond:20250823232156

ニンニク大量に入れれば口臭体臭で大変なことになる」とだけ考えてるなら論外。

すり下ろしニンニクとか一定量超えて摂取すると、腸内細菌死滅しておなか激痛になるし、下手すると入院して命に関わる問題

まり殺人未遂罪適用される可能性まで考慮した方がいい

Permalink |記事への反応(0) | 23:49

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-04

大きな溜池給水車で水を注入する意味

水不足に陥った大きな溜池給水車で水を注入している様子を小泉大臣ツイートしていました。焼け石に水という言葉がぴったり当てはまる光景です。これに対して「バカか」「税金無駄」などと炎上しているのですが、他方で、これは従来から行われていることであり、一定の効果が有るから部外者は黙っているべき、という意見散見されますが、その具体的効果というのがいまいち見えてきません。実際にはどのような効果がありますか?

ChatGPT:

給水車溜池に水を注入するという行為は、たしか一見焼け石に水」と思えるような光景かもしれません。しかし、これは必ずしも「無意味」や「パフォーマンス目的」とは限らず、状況によっては限定的ながらも実際に効果があるケースがあります。以下、現実的効果や背景を解説します。

■ 1. 【緊急的な最低水位の確保】

溜池は、農業用水や防火用水など災害生産活動重要インフラです。

水位が極端に下がると、ポンプなどの取水設備が使えなくなります

一定量の水を確保することで「最後水利用」に備えることができます

例:出穂期の水稲にとって「ここで水がないと全滅」という重要な時期に水を融通。

→ このような緊急の最低ラインを死守するための水入れという意味では、多少の量でも「無駄ではない」とされます

■ 2. 【底部の泥の攪拌悪臭・水質劣化防止】

長期間干上がると、底の泥が露出し、以下のような問題が発生します:

悪臭

ヘドロの酸化・腐敗

水質の急激な悪化

魚類の全滅

→ 散水車の水を入れることで泥の露出を防ぎ、最悪の環境悪化回避する目的があります

■ 3. 【ため池が周囲の農業水路地下水系とつながっている場合

これは専門的な事情ですが:

一部の溜池は**地下水涵養(かんよう)**の役割果たしており、

水を入れておくことで、周辺の地下水位や小水路保全に役立つ場合があります

→ 見た目の水量以上に、周辺環境への間接効果が期待されることがあります

■ 4. 【農家自治体要望に応じた一時的対策

水利組合農家から「どうしてもここに水を確保してほしい」という要望があり、

限定的でも局所的に農地を救うために水を入れる、

あるいは**次の雨までの「つなぎ」**として使われる、

こともあります

■ 5. 【「パフォーマンス」に見えるのはなぜか?】

批判的な目で見た場合

使っている散水車の水量が明らかに少ない(例:タンク1台で10トン程度、池は数万トン)

一度だけの給水なら、持続性がない

SNSなどで「見せる」要素が強い

といったことが、「焼け石に水」「税金無駄遣い」と映る原因になっています

結論

▶ 本当に無駄かどうかは、その溜池役割と注水の規模・頻度による

▶ 緊急対策として、水利維持・水質保持・最低ライン確保などに効果はありうる

▶ ただし、恒常的な解決策にはならないため、あくまで**「一時しのぎ」や「延命措置」**

Permalink |記事への反応(0) | 09:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-28

EMSに工場が売却されるとどうなるか

株主にいい数字を見せるため、会社全体の平均給与利益率を上げる最も手っ取り早い方法は、利益率の低い事業を売却することだ。

しかし、例えば長期供給契約があるとか、開発はやめるがすぐに他社製に置き換えられないとかで、製造しているもののもの不要になるわけではない、と言う時あある。この時に行われてるのがEMSへの売却である

自社工場の構内にEMSが入居させ、生産の一部をやらせる、というのはもはや当たり前だが(そこには、自社ではコンプライアンス的に実施が難しいコスト削減方法を暗黙的に期待して行われている)

そのEMS工場全体を売却、社員転籍、その一方で10年程度は一定量製造発注すると保障するというスキームがある。ちょうど自社ビルリースバックのようなスキームだ。


ただこちらは人も犠牲になる点が、単なる金融テクニックとは違う。


EMSノウハウが入るのでより効率的製造できる、自社以外の受注も行えるようになる、と言う触れ込みだが、実際にはそうはならない。

売却後、EMS会社は売却元から保障されている発注量があるわけだから、その量をいかコストを抑えて生産するかというところが利益となる。故に、あらゆる手段苛烈コスト削減を行う事になる。よって、残された従業員地獄をみる。倒産するよりはマシだとと言う言い方もできるが、要は日本では規制されているはずの黒字リストラであり、従業員を生かさず殺さず、茹でガエルにすると言うスキームだ。

これに気付く人は多く、他に行く場所があるひと、優秀な人ほど会社を去って行くため、逃げ遅れた人、何らかの事情で辞められない人が、能力問題で行く場所のない人々をなんとか使って工場を回すと言うことになる。


このスキームを使うと、工場がなくなるわけでは無いのニュースにはなりにくい。またリストラとは違うため公的な「優良企業認定」とか「一定の条件を満たすと税金が安くなる」とか言う話からも逃れることができる。例えば後者だと、人件費一定の率で伸びている場合には法人税減税などがあるが、事業売却は除外できるとかある。


また、この時、売却する会社は、全員転籍という事に表向き行うが、必要不可欠な人材については、自社に留めておくための引き抜き工作が行われる。この時、売却した工場の中の一部を自社で借り受けて、そこに事務所を置いてそこにいると言うことになるのだが、針のむしろに座るような状態になる。当然他によいオファーがあればそっちにいくだろうということになる。従ってここには中途半端人材けが残る。

Permalink |記事への反応(3) | 09:55

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-10

無凸無餅ファイノンとりあえず育てきってサンデー・1凸花火・フォフォで使ってみたけど

無凸無餅雲璃のサンデーロビン・フォフォパと比べて1ラウンド早くなったくらいか

そこまでインフレしてないな

というかファイノン自体がラウンド短縮するというより時間一定量食うけどパワフルって感じか

トリビーやサフェルみたいな被ダメデバフ撒けたりするバフ種被らないのを入れたらダメージ自体は伸びそうだけど

火種稼ぐのが遅くなるデメリットが痛すぎて微妙かな

火種稼げつつ異種バフを盛れる調和虚無や豊穣存護がほしいとこだね

ケリュドラ待ちか

Permalink |記事への反応(0) | 03:36

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-08

生成AIの関連ニュース見ると、今後の時代には電力が重要学習した。

伝聞ではあるが、生成AIの開発側は、10-100億ドル以上のコンピューティングリソースを使ってモデルを開発している。

特に開発時に利用するリソースは、エンドユーザが生成AI使用時の3倍以上になるらしい。

また、エンドユーザは全世界いるから、リソース使用率は常時ピー状態であり、使用率が落ちるイメージを持てない。

そうなると、上記を実現するハードウェアと電力の確保が重要になる。

AI用途GPU販売してるNVIDIAが儲かってるのが最たる例である

日本国策として半導体国内生産を目指してるっぽいし、まだ心配はいらないか

そこで不安になったのは電力である

数年前から海外勢はこぞって発電所を買収したり新設してる。

しかし、日本原発の稼働も少なく電気代も高い状況において、生成AI時代に追いつけるのか心配になった。

生成AI利用者層として、まだホワイトカラー積極的に利用するのみで受益者限定的である

受益者が少ない状況において電力確保を理由として原発を稼働するのは、国民人気を落とす政策になるので、政治家積極的に動かないと感じる。

電力確保の建前ができたら良いのだけど。

私はClaude Codeを毎日利用しており、毎月$200を支払い5時間単位一定量まで使い放題の定額プラン契約している。

使い放題プランには不安がある。Cursorのように定額から従量課金に突然変わるリスクだ。

そのため、新規参入を容易にするために、競合が育つ基盤づくりとして安い電力を供給可能にして欲しいなと思った。

そして将来的に、現在の生成AIアーキテクチャであるTransformerモデルでは原理的に限界に達する。

現時点ではツール改善により劇的に使いやすくなっているが、正直なところAI Agentの実現には不足する性能だ。

最近ではプロンプトエンジニアリングを発展したコンテキストエンジニアリングにより、不足する性能をカバーしようとしている。

しかしこれも、生成AI黎明期における小手先技術である

ただし、今後生AIアーキテクチャレベルで変化するからTransformerモデル依存する技術は除き、一部は応用できそうな良い技術もあるので学習して損はない。

将来、生成AI富裕層に独占されず、皆が十分な生成AIを使える世界になって欲しい。

Permalink |記事への反応(0) | 09:34

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-13

anond:20250613111041

moneycubed 積み立て枠でどうやって個別株を…?と思ったらブコメでつっこまれてた/株主優待スターくれてもいいのになあとは思う

cubick配当はてなスター貰えるなら買ってもいいかもと考えたことはある

これとは逆に、他ユーザから貰ったカラースター一定量集めれば単元未満株とかと交換できるみたいな制度を設けたら、ブコメが今以上に面白くなくなるんやろなあなどと考えてしまった

Permalink |記事への反応(0) | 21:02

このエントリーをはてなブックマークに追加ツイートシェア

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである



0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ


2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる


3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる


4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる


5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る


6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの


7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである


8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる


9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する


10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる


11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる


12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる


13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる


14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある


16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが<

Permalink |記事への反応(0) | 14:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-12

休んだらその分の仕事が溜まるなぁと思っていたので

どんだけ仕事を溜められるかの実験をしてみたんだが

その結果、仕事一定量以上溜まると自動的に他の人がやってくれることが分かった

それがわかって以降は、まぁ俺がパンクしたら他の人がやるだけだしな

他の人がパンクした時に俺に仕事が降ってくるのと同じように

じゃあ休みたいときに休んどくか、人間だものみつる

と考えられるようになってだいぶ気が軽くなった

Permalink |記事への反応(4) | 08:22

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-11

確率分布機としてのLLMについての論考

ここでは以下の3点についての論考を収録する


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 18:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-30

米を安くするのに必要な事はなにか?

結局のところ稲作農家や米の流通におけるマンパワー不足が米価高騰の根本的な原因っぽい。

投機的な動きもあるにせよ、米の生産量がだんだん減少し、それに伴って米の流通体制もやせ細って今の米価高騰につながってるみたいだしね。

米価を下げるにはマンパワーの大量投入や、より効率を上げる機械ガンガン投入するしかなさそう。

稲作やってる田舎にそんな人手も金もある訳ないので、必然的税金からジャブジャブ補助金ぶっこむしかない。

つーても都会の人間田舎税金を突っ込むのに反対するだろう。

自分達のところに作物を出荷する為の道路建設を、無駄遣いと批判するくらいだからな。

となると田舎出身者や都会であぶれた人間を、田舎強制労働させるしかないんじゃね。

毎年一定量の米を年貢よろしく物納させて、目標達成できなかったら罰金とかね。

農業に限らず儲からないけど必要仕事を維持していくには、税金突っ込むか従事者の人権実質的制限するかの二択になっていくと思うんだよな。

Permalink |記事への反応(0) | 09:35

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-25

LLMとプロンプトの機能構造についての論考

0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(1) | 19:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-24

anond:20250524130903

ファクトチェック

現在コカインを完全に合法としている国はありません。しかし、いくつかの国では少量の所持や使用に対して刑事罰を課さない(非犯罪化)政策採用している場合があります。以下はそうした例です(2024年時点の情報に基づいています):

コカイン使用を非犯罪化している国・地域(一部例):

🇵🇹ポルトガル

2001年にすべての薬物の「使用・少量所持」を非犯罪化。

コカイン対象。ただし、合法ではなく、治療教育プログラム対象となる。

🇳🇱オランダ

コカイン自体違法だが、軽微な使用に関しては比較的寛容。

医療目的以外での合法化はない。

🇨🇴コロンビア

少量(個人使用目的)の所持は非犯罪化されている。

製造販売は厳しく禁止

🇧🇴ボリビア

コカの葉の伝統使用咀嚼お茶)は合法

ただし、コカインとしての精製や使用違法

🇲🇽メキシコ

少量所持に対する刑罰は軽減されている(非犯罪化の動き)。

一定量以下であれば罰金治療勧告で済むこともある。

合法の国はないね

Permalink |記事への反応(0) | 13:15

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-22

生成AIについて

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

6.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

7.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

8.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

9.プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

13.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

Permalink |記事への反応(0) | 12:41

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250522035830

全量買い取りにするからダメなんであって、一定量買い取りならいいじゃん。

普段から買い取り分で余分に作らせといて、今みたいな不足になったら買い取り分減らせばいい。

Permalink |記事への反応(0) | 04:18

このエントリーをはてなブックマークに追加ツイートシェア

生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違い

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だけど、正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収束していくもの

Permalink |記事への反応(0) | 02:03

このエントリーをはてなブックマークに追加ツイートシェア

LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だけど、正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、

特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収束していくもの

Permalink |記事への反応(0) | 01:43

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-18

anond:20250518124803

好感度一定量を超えると、

 

無料で見られるのは最新とその前週のみなので、全話いつでも読み返せるようにしたい

・手元に置いておき、紙の本で読みたい(紙の本は無料アプリと読みやすさ等の読書感が異なる、スマホの画面よりは大きい)

→ぱらぱらめくることで素早く情報を読む感覚電子書籍アプリでは得られない

→まとめて読みたい、無料アプリでの1話ぶったぎりずつと没入感が異なることを知っている

書籍版のおまけ情報を知りたい、手元に置いておきたい

・作者への応援単行本が売れないとその作品継続のものが厳しくなることを知っている)

  

みたいな感情が生まれる、つまりファンになるためでは

 

週ジャンプ買ってても全作品単行本買うわけじゃない、ファンになった作品だけ

掲載誌買うのは無料アプリじゃないからそこのハードルは違うけど心理は同じ

Permalink |記事への反応(0) | 12:58

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp