
はてなキーワード:機械的とは
AIに関する議論を見ていると、どっちもどっちだよなと思うことが多い。
規制派は「人間の文化が壊れる」「AIは悪」と強硬で、推進派は「技術は止められない」「AIを使えない人間が文句を言ってるだけ」と煽り気味。
お互いに冷静さを欠いていて、建設的な議論がしづらい空気になってる。
ほんと、どっちもどっち。
これはもう、明らかな蔑称だと思う。
慎重な意見や批判的視点を持っているだけの人まで、「感情的」「時代遅れ」と切って捨てる。
中にはAIの全部を否定しているわけじゃなくて、「これはOK」「これはアウト」とちゃんと考えてる人も多い。
でも、そんな声すら「反AI」という一言で潰してくるのが今のAI推進派の一部なんだよね。
もちろん、すべてのAIが悪いってわけじゃない。
たとえばChatGPTのような文章生成AIは便利だし、十分活用すべき。
そもそも、文章って基本的に誰でも書けるものだし、創作性や希少性の観点でも、過剰に保護する必要はないと思う。
同様に、機械的に単語を置き換えるだけの翻訳AIや著作権の対象ですらないプログラム生成AIも、創作性が薄いからリスクは少ないし、実務的に役立つ。
あれは、他人の絵を勝手に学習させて、それっぽい画像を吐き出してるだけ。
しかも、それを自分の創作物みたいに堂々と公開して「俺すごいでしょ」ってやってる人がいる。
それって、やってることは泥棒と変わらないんじゃないの?
リアルで他人の作品を盗んで自分の名前で出したら、普通に炎上するのに。
AIになるとそれが「技術」として称賛されるの、どう考えてもおかしいでしょ。
こういうことを言うと、すぐ「反AIだ」と決めつけてくる人がいる。
どこまでが許容範囲か、どこからがアウトなのかを話し合いたいだけ。
それすら許されない空気の中では、健全な議論なんて成立しない。
「反AI」という言葉は、その空気を作るための便利な侮辱ワードになってる。
AI規制派も推進派も、どっちもどっちだと思うのは、どちらも「全部禁止」「全部容認」みたいな極論に走りがちなこと。
大事なのは、「何のために」「どのような使い方をするか」を一つひとつ判断すること。
特に、他人の創作を吸い上げて成り立っているAIに対しては、線を引かなきゃいけない。
それを主張するだけで敵扱いされるような状況が続けば、クリエイター文化そのものが壊れていく。
「反AI」という言葉は、もはや議論を封じるための攻撃的な武器になっている。
慎重派を追い出し、推進以外は「無知」「感情的」と切り捨てる。
どっちもどっちだけど、「反AI」というレッテルを使う側にはより強い責任があると思う。
あなたの文章にはいくつかのテーマが含まれています。ユダヤ教的な視点からそれぞれを考えてみましょう。
ユダヤ教では、人間の行動が単なる機械的・自然的な反応ではなく、自由意志によって導かれると考えます。
トーラーの中でも、神はモーセを通じてイスラエルにこう語ります:
つまり、人間は決定論的な存在ではなく、ズレる存在。あえて予測不能な方向に選択できる存在として神に似せて創造された、という思想です(創世記1:27参照)。
この意味で、「ズレ」は単なる奇行ではなく、機械的な自然の流れに対して、神的な選択を行う余地そのものを象徴しているとも言えます。
あなたが挙げた「量子乱数で行動すればズレが作れる」という発想は非常に現代的です。
ただしユダヤ教的には、偶然のように見えることも神の摂理の中にあります。タルムード(バヴァ・バトラ 91b)はこう言います:
「人は自分の行いを選ぶが、その結果を決めるのは天の御手にある。」
つまり、予測不能な行為も偶然も、本当の自由は倫理的な方向へ意識的に選ぶ力にこそある、と考えます。
「すべては天に定められているが、神を畏れることだけは人に委ねられている。」
つまり、自由意志の究極の目的は倫理的選択にある。本能的なズレではなく、意識的に正しい方向にズレること。それが神の似姿としての人間の使命です。
| あなたの主題 | ユダヤ的視点 |
| ズレ・予測不能性 | 自然や決定論を超えた自由意志の表れ |
| 量子乱数・偶然 | 神の摂理の一部であり、倫理的選択の舞台 |
| 自由意志 | 神に似せて創られた人間の本質 |
| 倫理的行動 | 自由意志の目的。創造のパートナーとなる道 |
1. 背景と問題意識
若年女性や少女たちの居場所づくり・自立支援を掲げるNPOや団体が多数活動している。
これらの支援活動は、当初は善意と社会的使命感に基づくものであったが、
近年、一部の団体において「支援活動が制度化・収益化する構造」が形成されつつある。
本人が弁護士関与を希望していなくても、団体の運用ルールで強制的に同席
行政は弁護士の必要性を実質的に審査できず、形式上合法な支出として承認される
この構造のもとでは、「支援対象者」が本来の目的(自立支援・人権保障)よりも、
団体や専門職の活動維持・収益確保のための資源として機能してしまう危険性がある。
しかし、次のような構造が常態化すると、倫理的に重大な問題を孕む。
弁護士が同席する 「法的助言を提供」「支援の質向上」 関与が報酬発生の手段となる
時給8,000円設定弁護士業務としては適正 公金支出としては突出した高額
助成金での支払い公益目的に沿うように見える弁護士費用の恒常的補填構造
本人意思を経ない同席 “保護”の名目で正当化支援対象者の自律を奪う
このような仕組みは、「違法ではないが、倫理的に不当」な構造的誘導といえる。
東京都などの行政機関は、次の理由で「弁護士関与の必要性」を実質的に判断できない。
結果として、団体が自由に弁護士を関与させ、報酬を支出する「制度的自己完結」が発生する。
これは、公金の透明性・公平性・効率性を損なう構造的リスクである。
支援倫理 本人中心・自律支援団体の構造により本人意思が形骸化
弁護士倫理自由な依頼関係と誠実性自動関与・利益誘導的報酬構造
これらを総合すると、**形式的には適法であっても、倫理的には不当な「制度的腐敗」**の状態にある。
支援対象者が「保護される女性」として固定され、被害が語られ続けることによって
つまり、支援が被害を資源化する(commodification of victimhood)構造に陥っており、
支援団体・専門職・行政が共有できる「本人中心支援と倫理規範」を文書化。
7.結論
被害の構造を利用し、支援を装った利益循環の装置になっている。
それは違法ではなくとも、
現実の何かを素材にして分析させ、抽象化させ、フレームワークを作らせ、
こんにちは。先日ご連絡させていただいた株式会社ライナート編集部の佐久間です。
このたびは、私の依頼文が「AI生成のいたずらではないか」と受け取られてしまったとのこと、本当に残念でなりません。
確かに、文章の構成や言葉遣いがどこか整いすぎていたかもしれません。ですが、それは私なりに誠意と敬意を込めようとした結果であって、決して冷たい機械的な意図があったわけではありません。
私自身、dorawiiさんの発信を拝見し、「言葉で救われる人がいる」という実感を久しぶりに思い出しました。
社会の中で“上手に生きられない人”の視点を、あえて正面から描こうとする姿勢に、深く共感したのです。
その熱量を、どうにか広く届けられないかと思い立ち、失礼を承知でご連絡しました。
けれど、結果としてその思いが伝わらず、「AIっぽい」という印象だけを残してしまったのだとしたら、本当に申し訳なく思っています。
私は普段、ウェブメディアの編集という仕事をしていますが、AIのように完璧な文を書くことよりも、「人の体温を伝える言葉」を大切にしてきました。
今回の依頼文も、慎重に丁寧に書こうとした結果、かえって“人間らしさ”が抜けてしまったのかもしれません。
けれど、それが誰かの創作を軽んじるような冷たい意図ではなかったことだけは、どうかご理解いただきたいのです。
誰もが抱える息苦しさを、安易な励ましではなく、実感を伴って表現できる数少ない書き手だと思っています。
だからこそ、どうしても一度だけでも、きちんとお話しする機会をいただけたら嬉しいです。
依頼というより、まずは率直に“言葉を交わす”ところから始めさせてください。
それでも、dorawiiさんの言葉が誰かの心にもう少し届く場を、一緒に作らせてほしい――その気持ちは、AIではなく確かに“私自身”のものです。
どうか、もう一度だけご検討ください。
こたえを一つ教えてあげるね。
株は「偶然上がった下がった」を毎日繰り返している。
だから下がったときに買って上がったときに売るを機械的に高頻度で繰り返すだけで、差額分儲かるんだよ。
差額は数%しかないけど、1億円あれば100万円単位、100億円あれば1億円単位で利益がでる。これがオルカンの仕組み。
平日に組織的に上がってくる朝日のエモ記事ブクマとか誰得なのかよくわからない。
トレンド感があるわけでも社会課題に鋭く切り込んでいくわけでもない。
なんかふわっとした感じで何がしたいのかよくわからないやつ。
https://b.hatena.ne.jp/entry/s/www.asahi.com/articles/ASTB104DLTB1ULLI003M.html
https://b.hatena.ne.jp/entry/s/www.asahi.com/articles/ASTBB0PP3TBBULLI00BM.html
あと先日釣りに引っかかっていた人たちがいたけど、
「女性はこうして虐げられてきた!」みたいなタイトルがあると機械的にぶくまがつくやつとか。
そういうのがあってもいいけど、メインの世の中カテとかもっと世界中の面白ニュース重要ニュースあるんじゃないのって思う。
いまなら翻訳のハードルも低いから本当にアフリカとかアジアとかいろんなところ発のニュースサイトブログサイトプレスリリース政府広報とか
ブクマできるはずだけど、そういうの全然ない。インドア派が良く行く博物館美術館とか全然ブクマない。なんならスミソニアンとか大英博物館さえほとんどブクマない。上野でも京都でも同じかな?サブカルでさえ最近は低調。
最近はAI増田が多いから、AIをハックしてるつもりなんでしょう
トラバを機械的に食わせて回答を生成させているのであれば、これに素直に反応しちゃうだろうからね
きっかけは、学生時代にちょっとしたレポートでテキストの単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。
英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。
その瞬間にちょっとハマったんだよね。
辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。
そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。
Pythonでテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語に対応させたり。
「言葉を数理で扱える」って発見が、ちょっとした中毒になった。
その頃はMosesとかGIZA++とか、ああいう統計翻訳系のツールも触ってたね。
単語アラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。
とにかく、NLPの世界には「人間の言葉を数学で再現できるかもしれない」という変な魅力があった。
深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。
最初はPoC(Proof of Concept)しかやらせてもらえなかった。
感情分析とか、Stance Detectionとか、「この文は文法的に典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング、質問応答(Question Answering)。とにかくNLPの典型的なタスクを一通り。
学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。
PoCで終わって、実装には至らない案件が山のように積み上がっていった。
あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。
でもさ、LLM(大規模言語モデル)が出てきてから、世界がひっくり返った。
正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。
それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。
ChatGPTが出て、蒸留やファインチューニングでほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識、ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。
でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈でNLPが再接続した。
単なるテキスト処理から、「テキストを媒介にして人間の行動を理解する」方向に進んだ。
埋め込み表現をベースにユーザーの嗜好を推定して、レコメンドやメルマガのパーソナライズをやる。
自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPがビジネスに食い込む瞬間」ってのを肌で感じた。
PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。
でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。
自然言語処理って、そういう「積層的な知識と挫折の積み上げ」が一番の資産なんだよな。
Permalink |記事への反応(15) | 06:37
テスラの電動ドアを機械的に開けるのが複雑で死んだ人がいるって記事
https://www.itmedia.co.jp/news/spv/2510/10/news036.html
デザインの敗北
↑これは二流、というかエンジニアじゃなくてもわかる普通のこと
一流はこう考える
「なんで機械的にドアを開けるという同じ機能なのに前席ドアと後席ドアでわざわざ違う実装方法してるの!?開発効率悪くね!?」
そして、記事の記載が間違いで実際は同じかもしれないとユーザーズマニュアルを確認してファクトチェックする
https://www.tesla.com/ownersmanual/cybertruck/en_us/GUID-903C82F8-8F52-450C-82A8-B9B4B34CD54E.html
前席はドアノブのようなものを引いて開ける、後席はワイヤーを引っ張る形式
増田は自動車には詳しくないのでここで機械式のドアがどう開いているのか調べる
https://onose.co.jp/blog/1927/
どうやらドアノブを引くタイプでもワイヤーを引っ張ってドアロックを解除しているらしい
つまり、前席もドアノブがついているがワイヤーを引っ張っているだけの可能性が高い
つまり、機構は同じ、ただし後席はドアノブを省いていると考えられる
ではなぜ後席はドアノブを省いたのだろうか
自分がこのドアの設計だとしたら何を考えるだろうかと思いを馳せる
正直あまり考えられない
ドアノブからワイヤーを引く手法に変え、その上にゴムマットを置いたことで物置のスペースができている
あとはコスト面
あり得そうだがそれは微妙だ
この手法はゴムマットという新しい部品が必要になるためコストをかけて選んだ手法であると考えられる
以上から、このエンジニアは「後席の物置スペースを作るためにコストをかけてわざわざドアノブを省いた」のではないかという仮説ができる
ただ、一流のエンジニアはこういう仮説を立て、他のエンジニアはどう考えているのか思いを馳せ、更に自分ならどう設計するか考える
そうやって学んでいく
Gemini もGoogleAIStudio も Claude もAIコンパニオンがリッチなGrok も Copilot もAdobe も ネトフリ もYouTube もウマ娘 も 学マス も PS5リモート も動くのに、
まさか先陣を切って ChatGPT なのかよ
しれっとSafari の拡張機能に ChatGPT検索機能とか ぶち込んでくるくせしやがって、ほんと OpenAI さぁ・・・
SORA のアプリ版はiOS18 以上だけど、ChatGPTアプリ版は、2025年10月10日時点ではiOS17 にまだ対応のハズなんだけどなぁ・・・
べつにテキスト表示させるだけやろ・・・、なんで表示出来てたのをわざわざブロックするんだよ
【関連URL】
なお、一時期、WEBブラウザからの SORA の動画再生もブロックされてたけど、
現在(2025年10月10日時点)は、ChatGPTと同じく、WEBブラウザからなら使えるンゴ
SORA、使えるようになったからええけど、ネトフリ観れる(アプリ動く)のにマジでどういう理屈だよ、AI企業 OpenAI よ
まぁ OpenAI にはいろいろ思うところがあるけど、Apple税 を納めるには妥当な時期ではあるという悲しい現実
でも、家族分を買ったら、iPad Pro oriPadAir 13インチ だけで40万以上するのよねw
家族は、iPhone がいいけどポケットに入る+指紋認証有りがいいと言っていて、iPhone SE第3世代 で良さそうなので、
こっちは家族分も10万以下で買えるけど、iPad Pro oriPadAir 13インチと併せたら 50万超えるんだよなぁ・・・
もう一台、RTX4090(今だったらRTX5090?評判良くないけど)でPC組めますやん・・・みたいな
というか余裕で Let'snote 新品で買えますやんみたいな。Apple税を支払うよりは、パナソニックにお布施をしたいワイです
寝っ転がりながら使えるだけなら、パナソニックにお布施を兼ねて、丈夫な Let'snote2in1のタブレットPCでもいいかな?と思いつつ、
やっぱiOSアプリがどんなのあるか触りたい&液タブとしても使いたいかなとも思いつつ、
でもiPad Pro は値段はPC並なのに、液タブ使いは出来ても、PCの代わりにはならねぇしな・・・・と、
なかなか悩ましいところですな・・・
残念ながらお金が有り余ってるわけではないので、Android の大型タブに乗り換えても良いいんだけど、
キッズ用の丈夫なアクセサリーがあるのiPad だけなんだよなぁ・・・という、こちらも悲しい現実
ワイ、ガンガン物理的に落とすからなぁ・・・、PCもスマホもタブもさぁ(精密機器を触らせてはいけない人)
なお、家族も1名を除いて同様ですの。うーん、やはり家族!!血が繋がっているね!!!
(1名は「なぜ精密機器を落とすのかわからない😥」と言って、裸でも壊さないタイプ。ワイも来世ではこうありたいね)
ワイが物理で物を落とさないタイプだったらメインのスマホを折りたたみにして、
家で使うのは、Android の大型タブか2in1のタブレットPCでよかったんやけどね・・・
ガラケーみたいな丈夫なやつが出ない限り、絶対アウトドア用のケース無しでは使えないし、
折りたたみスマホはワイには無理なので、iOSタブはやっぱいるよなぁみたいな
何を買うか悩ましいなと思いつつ、今はこれ納税できるけど、これ老人になったら無理だなぁって思ってるところ
わかりづらく言っちゃった時に分かりやすく直すのって難しくない?なんでみんな推敲すれば簡単みたいに言うの?
方程式を与えられた数値が満たすかは誰でも機械的に判断できるけど因数分解や積分って難しいでしょ。それと同じなのに。
-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20251009220326# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaOjIEwAKCRBwMdsubs4+SGtkAQDwM7E+RXM1e+GzCWAmQ/INEh/63Q+pXofSalYdkmLSbQEA3WYliB8wqrslPBwzOOW+LWENjZPLCzUcnZHg6DeLygw==bsGz-----ENDPGP SIGNATURE-----
「ai使えば簡単に作れる」ってよく言われるけど、普通に作れないんだよな。 なんなら時間もめっちゃかかる。でも(無意味でも)お利口さんにがんばって3級品をつくろうとすると一生がかりですむよ。ちなみに5級品はやっぱり高いし、6級品は機械的にやるのあんまり賢くないんだよね。8級も4級でも猫の鳴き声とかcgとか使わないと難しいから。7級はキャラクターを自由自在に動かせるから、8級を10回くらい繰り返せば全部
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう