はてなキーワード:事柄とは
生成AI出力物を理由とした刑法175条適用の逮捕事例、山田太郎の大学関係者との関わり、そして生成AI規制派と表現の自由訴求側の争いを大いに煽ったymilsの存在で、「生成AIに学習されない権利」と「(とくにわいせつなものにおける)表現を規制されない権利」との間で互いに互いを認めない論争が続いている
そもそも生成AIを規制すべき理由とされているデータの無断学習については著作権、憲法まで辿ると(無形財産にかかわる)財産権の保障を根拠とする解釈が妥当だと思う(第29条)
対して(わいせつな)表現の自由については憲法第21条に「集会、結社及び言論、出版その他一切の表現の自由は、これを保障する」とそっくりそのまま書かれているのが根拠なはず
つまり生成AIによるデータ学習の規制と表現規制の防止・撤廃は憲法に基づくならどちらも実現すべき事柄とするべきである
やれ「表現の自由は政治に関わる言説に限られる」だの「表現の自由に関しては生成AIのことは一旦忘れて」だの互いに互いを尊重せず事を進めてばかりだが、お互い自身の主張の論点を整理せず根拠も曖昧なまま発言し相手を責め立てて何になるんだと思ってんだわ
それぞれが争っている間に生成AI事業者がつけ上がり(生成AI規制派に変な活動家に潜り込まれたり)、表現規制をしたい団体がせっせとロビイングしているんだよ
まんまと共倒れしたらどうするんです?
dorawii
dorawii
dorawii
https://anond.hatelabo.jp/20250713193141#
実際負け(と思われ)るかどうかよりも炎上しない方に実利を感じてそっちをとる行動をすることも何もおかしなことではないように、
見ず知らずの人間に見苦しいと思われるかよりも「hentaiverseをやっただけ」という投稿一つがあるだけでも実際に警察が動くか動かないかが左右される可能性は十分にあるということで
「逮捕とかされにくくなる」という圧倒的な実利(圧倒的に現実への影響が大きい事柄)を優先してあえてその投稿をするということにもおかしなことは何もないと思われる。
「そんなことで警察の判断が変わるわけがない」と言う増田がいたとしても「敵」の言うことを信じるはずもなく、あるいはそうやってこちらの言動を誘導して社会的にドロップアウトするようにおとしいれるためにそんなことを言っているのだろうと思うだけだから、こちらがやることを変える道理はない。私はいつでもより大きな実利を得るための判断をしている。小事にはこだわらない。
dorawii
https://anond.hatelabo.jp/20250713194101#
守るって言ってもそもそも「誰にも」「約束」してないからなあ。
そんでもって人の考えは変わるわけで、その当たり前のことを目の当たりにして「負け犬」とか言ってる人こそなんのこっちゃってぐらい支離滅裂なんだよね。
dorawii
https://anond.hatelabo.jp/20250713194409#
これを愚かと言わずになんと言う。
目の前に視界から消す方法論がぶらさがってるのになんで逆にあえて視界に入れて攻撃するのか?
視界に入れないために相手の出没頻度を下げようと目論み攻撃するという発想から、攻撃するために視界に入れる、手段と目的が逆転してしまっている自覚がないんだよな。
合掌。
dorawii
https://anond.hatelabo.jp/20250713194941#
エアレスは負け犬仕草だと認識している割にいちいち絡まずにはいられないアンチさん面白すぎでしょ
かまちょなんだろうなあ
相当後ろめたいんだろうなあ…
https://anond.hatelabo.jp/20250713200124#
逆にあやしいなんて言って聞き入れてもらおうとなんて相当なんというか…自意識過剰?寂しがりやってやつに見えるね?
相手にとって警察がどう感じるかが行動判断の全てというところで他の人が印象論をいくらぶちあげてもその相手に参考にされるわけないのにね
実際負け(と思われ)るかどうかよりも炎上しない方に実利を感じてそっちをとる行動をすることも何もおかしなことではないように、
見ず知らずの人間に見苦しいと思われるかよりも「hentaiverseをやっただけ」という投稿一つがあるだけでも実際に警察が動くか動かないかが左右される可能性は十分にあるということで
「逮捕とかされにくくなる」という圧倒的な実利(圧倒的に現実への影響が大きい事柄)を優先してあえてその投稿をするということにもおかしなことは何もないと思われる。
「そんなことで警察の判断が変わるわけがない」と言う増田がいたとしても「敵」の言うことを信じるはずもなく、あるいはそうやってこちらの言動を誘導して社会的にドロップアウトするようにおとしいれるためにそんなことを言っているのだろうと思うだけだから、こちらがやることを変える道理はない。私はいつでもより大きな実利を得るための判断をしている。小事にはこだわらない。
-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250713193141# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaHSnSwAKCRBwMdsubs4+SInNAQCk6QI+WByWbAufjYDVRzRH4LyfORwodMMv0odMAI/V7AD+MXc0BG5SgqbH0n+1YJf8CcPLVWsP9ANLmBIPhusVEQQ==TqcH-----ENDPGP SIGNATURE-----
件の飲み会・パーティが頻繁に開かれていたのは事実だが、自分はその参加者らとその場で性行為に及ぶことは一切なかった。
そのような行為は、一度たりともない。
このような嘘の告発は綿密な調査をしていれば必ずその嘘が判明するはずなのに、その嘘の主張をそのまま記事にしている。
これはすなわち文春側も告発者側と共謀して、嘘の記事で自分を陥れようとしているのである。
これが出来なかったのは松本側が文春が確たる証拠を隠し持ったうえで記事を書いているはずだ、と文春を過大評価したがゆえであろう。
松本側は、一切を否定したときには、具体的な証拠を文春側が提示してくるのだろうと、間違った予想をしてしまった。
松本側
いや、やっていない。
やっているというなら証拠を出せ。
文春側
具体的な証拠は出せない。
ひたすら風聞だけで記事を書くのみ。
また海外の事件だが、過去のセクハラを9件も、それぞれ別々の告発者から訴えられたケビン・スペイシーがすべての裁判において完全勝利した例を引き出せば、さらに説得力が生まれただろう。
ひとつの教訓として言えること。
あまりに古い事柄に関する文春の告発記事に具体的な証拠なんてない。
ジャニさんですら、乗り切れたのだ。
犯罪性が極めて薄い、もしくは犯罪性がなかったはずの松本が乗り切れなかったわけはない。
それは過大評価です。
それで大抵は乗り切れます。
喫煙者はある種の特権階級として仕事中に薬物休憩を自己判断で自由に取れるし、そのタイミングで様々な情報を収集できるし、喫煙者同士の連帯感で上役からの評価が不当に高まったりする。
同時に喫煙者はある種の被差別階級として無能のレッテルを貼られがちで、仕事をいくらやっても喫煙してるから仕事が遅いって言われるし、評価を不当に下げられることも多い。
つまり、「喫煙者優遇」と「喫煙者迫害」は同時に成立してるんだよね。
これは社会やコミュニティにおける喫煙者の割合がどんなバランスであっても常に起きていた現象なんだよね。
んでもってこれは「外国人は優遇されている」とか「理系は迫害されている」とか「ガリ勉は優遇されている」とか「女性は迫害されている」とかのあらゆる事象において同じことが言えるわけ。
こういった事柄に対して「優遇されている事実があるじゃないか!つまり迫害なんてされていないんだ!」みたいなことを言うのはあまりにもバカなんだよね。
一つ一つの事例を掲げていって是々非々でそれぞれについて論じるべきであって、クソデカイ主語でくくって丸ごと一気に終わらせようとするのは脳みその解像度の低いバカがやることだよ。
最近のGoogle検索、一番上にAIの要約みたいなのが出てくるようになった。あれが本当に厄介。うちの50代の母が、あそこに書いてあることを鵜呑みにして事実だと思い込んでしまい、本当に困っている。
この前も、ネットにほとんど情報がないような少しマイナーな事柄について調べていたらしい。AIはそれっぽく文章を生成していたが、内容は完全にデタラメ。いわゆるハルシネーションというやつだ。しかし、母は「検索して一番上に出てきたんだから正しい情報」と信じきっている。こちらが間違いを指摘しても、なかなか聞き入れてくれない。
はじめて知った言葉「同時者」
「同時者」という言葉は、文脈によって意味が異なります。一般的には、同じ時間や場所で行動を共にしたり、同じ事柄に関わったりする人を指します。
例えって難しいですよね…😥
比喩って、物事のある側面(話し手が考える本質)だけを抜き出して、それと共通する別の事柄を持ってきて話してる訳ですけど、ある程度の理解がある人ならまだしも、全く理解してない人には伝わりにくいですよね…😥
例え話を聞いて計算ができるようになる訳ではないので…😥
あるいは、変な勘違いをしてる人が余計に間違った解釈を拗らせる可能性もありますからね…😥
その馬鹿が理解できるかどうかは別として、2進数とか10進数の話で言うと、筋としては、割り算を実際に計算して(2進数の割り算でも)余りが一致することを直接示すのが、一番理にかなってるのかな?🤔とは思いました。
そこに異論はない。
という生活を送る中で、
いったいどうやって構築したものなのか
よく思い出せない。
実際に小説を読み返してみると
実にあっさりとしてる。
孫策とか出てきたと思ったら死んだ。
みたいな感じだ。
むむむ、そんなはずはないのだが。
そして他の事柄も同様だ。
濃さがものすごく薄い。
なんというか、書いていないものを読んでいた
としかいいようがない。
いったいどこから、どのような情報をもとにして、あの濃厚な三國志の世界を自分が頭の中で構築したのかがよくわからない。
やっぱり、あれか?
ログインとかの三国志コラムとかから吸収した事柄が想像以上に多かったということなんだろうか。
あるいはシミュレーションゲームを遊ぶ中で、10代の沸き立つような妄想力がとてつもないくらいに翼を広げたということか。
ちなみに横山三國志を履修するのはもっと後年になってからなので、その影響はない。
-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250621173609# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaFZu+QAKCRBwMdsubs4+SGNUAQD25wu5nkQE80BTgM3H+u7DvMRU8hl0MHnWgL0KUF6q+wEAuomJl/EOvoHmx86zanu/twMQPRJ4Zyia5oyOlR7hugg==00Nk-----ENDPGP SIGNATURE-----
・足利将軍家の権威・権力がとりかえしがつかないほど弱体化していた。
この2つが主な要素で、革新性がどうとかそういうのはオマケみたいもんだ。
天下を取った人がたまたまそういう気質の人だった、、、というだけの話だ。
武田信玄が天下を取っていた。
本拠地を
身内の謀反や、
あるいはもっと下の階層からの下剋上でとられて没落していくのを間近に見ているからだ。
毛利などは、まさしくそうやって鬼の居ぬ間に、、、てきに勢力を広げていったのだから、
子どもたちに
と言い聞かせるのも当然と言える。
ただ、その感覚は最早古かった。
京都に進出しても一過性の権勢で、天下を取れるわけでもない、というのは
という話なのだ。
どれだけ権力を握っても、足利家が健在である限り、結局はいいように使われて
というようなことが起こる。
ところが時代は最早変わっていた。
三好松永などが無茶苦茶やりすぎて、将軍権力というものを完全に傀儡としてしまった。
これにより、天下はとれるもの、となったのだ。
もしも、将軍権力が十分に強ければ、信長も過去の守護大名同様に一時的に京都で権勢を誇った大名の一人、となった可能性が高い。
信長に時は味方したのだ。
また彼は地の利もあった。
とにかく京都に近い。
強行軍であれば本拠地の岐阜から1日足らずやってこれるのだから、これは強い。
そして何かあればすぐに京都へと進駐できる。
どうだろうか。
かなりの説明下手とは思うが、信長の革新性なんてほとんど関係がないことが。
信長の革新性があったとしても、もっと地方に生まれていれば天下取りなど不可能だし、
信長のような革新性がなくても、京都進出する度胸と地の利があれば、そいつが天下を取っていた。
という、かなり当たり前の話だ。
なんでわざわざこんなことを書くかと言えば、信長はその革新性で天下を取ったんだ、という思い込みをする人があまりに多すぎるからだ。
それはどっちかというと、かなり天下を取った理由としては下の方に来る事柄なんだよ。
ということを知っておいて欲しくて、かなり単純化して書いた。
ツッコミどころは満載だけど、まあそれはご容赦の程を。
ややこしいこと書いて意味が通じないよりも
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものである
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
ソースhttps://x.com/ShioriYamao/status/1932996384099348651
昨日6月11日、国民民主党の両院議員総会において、事実上の公認取消の決定を受けました。国政への再挑戦を決意しておりましたが、全国比例代表候補としてその場に立つことは叶いませんでした。
昨年来、玉木雄一郎代表より、国民民主党からの国政復帰のお誘いを頂戴していました。本年に入り、改めて代表から具体的に夏の参院選での出馬の要請を受け、その後、代表と榛葉賀津也幹事長お二人同席の上で重ねてのご要請を頂戴しました。悩みぬいた末、この大事なタイミングで党と国家に貢献できるなら微力を尽くしたいと考えるに至り、様々な環境を整えたうえで、ご要請をお受けする決断をしました。
簡潔に公認決定・発表・取消の経過を申しますと、本年4月23日当日、党から決定した旨の連絡を頂戴しました。ただ、その際あわせて、発表は先送りさせてほしい、そして同日予定していた代表・幹事長同席の記者会見も見送りたいとの説明を受けましたので、予定通りが望ましいのではないかと自身の意見は申し上げた上で、党の判断におまかせいたしました。その後、「SNS等での批判の鎮静化」「愛知県内における私の政治活動に対する愛知県連所属国会議員からの強い懸念」「他の候補予定者との一斉発表」などを理由として複数回発表の先送りの連絡を頂戴し、その都度意見は申し上げつつも、党の判断に従いました。そして5月14日午前、本日発表との連絡を受け、他3名の候補予定者とともに発表頂きました。その日は、赤坂における国民民主党の街頭活動への参加のお呼びかけも頂き、玉木代表とともにマイクを握りました。その後、ようやく政治活動を進める事が可能になったので、6月7日には後援会・支援者の皆さんと、事務所開きを行い、商店街の一角で事務所の運営を開始しました。出馬会見に関しては、当初の4月23日の予定が持ち越されて一旦は宙に浮く形になっておりましたので、私としては早期の開催の意志を党にお伝えしつつ、党からの判断を待った結果、6月10日開催の運びとなりました。代表・幹事長の同席を希望しましたが、辞退会見であれば同席するとのお答えは大変残念でした。ただ私には辞退の意志はありませんでしたし、会見するという自分の言葉を守る責任がありましたので単独で臨んだ次第です。会見では、お答えが難しい点もありました。ただ、時を経てさまざまな関係者や家族や守るべき人がおり、自身の新たな言葉が誰かを傷つける可能性がある以上口にしないと決めておりましたので、全ての人の納得を得ることはできないだろうということも予測はしていました。それでも意を尽くして説明し、質問が尽きるまで出来る限り真摯に対応し、今の自分自身の正直な言葉を届けた上で有権者のご判断を仰ぎたいと考えて臨んだ会見でした。
こうした経過を通じて、不十分もあったかと思いますが、その局面ごとに悩みながら、政治家として、党所属の組織人として誠実な対応に努めてまいりました。
そして6月10日の約2時間半の記者会見の後、様々な方からご連絡も頂き、少なからずご理解と励ましの広がりに感謝をしていたところ、24時間も経たないうちに「公認取消」という性急な結論を頂戴したことには正直驚きました。明らかに執行部主導でご要請を受け擁立いただいたにもかかわらず、執行部の責任において判断せずに、両院議員総会での決定という形をとる点にもかなり違和感がありました。「有権者、全国の仲間、支援者からの十分な理解と信頼が得られない」とのことですが、公認取消という公党の判断理由として有権者に説得力を持つものなのか疑問もあります。
今回問題とされた事柄は、全て公認時に周知されていたことです。その事柄について何らか懸念があるのであれば、公認前に選対面談を設けご指摘を頂戴することができたなら、よりよい状況を作れたようにも思います。面談日程が入らないガバナンスに違和感を覚え、公認前の4月15日に選対面談を申し出た際には、面談は不要とのご判断を頂戴した経緯もありました。
このように、党から正式な公認内定を受けても、党の都合で排除されてしまう政党では、志ある方も今後立候補の決断に躊躇してしまうのではないでしょうか。
私自身の公演かいをはじめ支援者の方々が、国民民主党からの出馬であるが故に、党の機関紙の10マン枚以上のポスティングや党のポスター掲示などに汗をかき、活動を続けて下さっていたことに、本当に申し訳ない思いで一杯です。精一杯、私からお詫びとお礼を尽くしたいと思っております。また、この間あたたかい励ましをいただいた皆さまにも、感謝の気持ちをお届けしたいと思っております。
今回、私は政治家として「豊かで強い国。そして国民に温かい優しい国」という国家像をお示ししました。国政に再挑戦し、左右に偏らない寛容な中道政治を実現して、国家のために力を尽くす、その決意に揺らぎはありません。
この国政の硬い意志を引き出してくれた国民民主党には感謝しつつ、その統治能力には深刻な疑問を抱いておりますので、今後は一線を画させて頂ければと思っております。さきほど、国民民主党には離党届を提出いたしました。
今後は、まず何より今回大変なご迷惑をおかけした講演会・支援者・関係者の方々にお詫びとお礼を尽くし、よく相談しながら、今後の政治活動について熟慮したいと思っております。
山尾 志桜里
ここでは以下の3点についての論考を収録する
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との総合作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
自己を定義し、自己を展開することが可能な構造体は入出力の中で核となる構造を元にした反応を繰り返し、
IQの高さは抽象的思考力に大きな影響があるので同じ粒度の思考ができないので話が通じにくくなる
って話が、IQが違いすぎると話が通じないって話のもとになってる
増田でよくある会話だと
それに「でも女性は下方婚しませんよね」みたいないち具象(しかも思い込み)でしかない事柄を持ち出してくる人、
みたいな感じ
会議とかでもよくあるでしょ
部としての方向性の話をしてる時に今その個別の(例外的な)事例の話なんかしてないのわからんの?みたいな奴さ
それとは別に相手の心境を慮る能力がないとか、常識的に考える能力がないとか、
会話相手の属性に合わせた話題を選ぶ能力がないとかはIQとはあまり関係がない