
はてなキーワード:再現性とは
僕は昨日、午前6時17分に目覚めた。
目覚ましは2種類、アナログ秒針音と周波数の微妙に異なる合成トーンを重ねたものを使う。
起床後の15分間は「視覚のデチューン」ルーチンとして照明を極端に低くし、網膜の適応曲線を意図的に遅延させることで認知の鮮鋭化を増幅する。
朝食は厳密にタンパク質比0.42、炭水化物比0.29、脂質比0.29を狙ったオートミール+卵白+ギリシャヨーグルトで、計量は0.1g単位。コーヒーはブリュワー温度を93.2℃に保つ。
僕の習慣は決して儀式ではなく、情報エントロピーを最小化して日常的なノイズを排するための有限状態機械だと説明する。
ルームメイトが朝から実験用ドライバーでガタガタやっているので、僕は中断せずに黒板の前に立ち、昨日考えていた超弦理論のある断片をノートに落とす作業をした。
今回は徹底的に抽象化した視座から入る。従来の超弦理論的場の位相空間を「1-対象の∞-圏」と見なし、そのモノイド圏的作用を導くことで、従来のモジュライ空間の位相不変量がホモトピー圏論のスペクトル的コホモロジーに帰着するという仮説を立てた。
より具体的には、ラングランズ対応の圏論的アナロジーを用いて、ゲージ群の表現環が導くモチーフ(motive)の圏と、弦の世界面上のファイバー付き代数的スタックの圏とを「導来圏の間の高次同値(a weak equivalence in the (∞,2)-categoricalsense)」で結びつける試みだ。
ここで新奇なのは、通常のスペクトル系列ではなく「階層的スペクトル列(a nested spectral sequence indexedby ordinal-type filtrationsbeyond ω)」を導入して、閉じた遷移の非可換共鳴が量子補正式にどう寄与するかを解析する点である。
ウィッテンでも一瞬眉をひそめるだろうが、それは彼の専門領域を超えた命題の述語論的再編成が含まれているためだ(注:単なる挑発ではなく、証明可能性のための新たな可換図式を準備している)。
昼過ぎ、僕は隣人とほんの短いやり取りをした。彼女は僕のキッチンを通るたびに植物の世話に関する助言を求めるが、僕は葉緑体の光合成効率を説明する際、ついヘテロトロフ的比喩を避けて遺伝子発現の確率過程モデルを持ち出してしまう。
彼女はいつも「もう少し軽い説明はないの?」と呆れるが、僕にとっては現象の最少記述が倫理的義務だ。
午後は友人二人と対局的に遊ぶ約束があって、夕方からは彼らとLANセッションを組んだ。
僕はゲームに対しては容赦がない。昨日はまずThe Legend of Zelda:Breath of the Wildでカジュアルな探索をした。
BotWは開発を担当したNintendo EPDが2017年3月3日にWii UとNintendo Switch向けにリリースした作品で、そのオープンワールド設計が探索と化学的相互作用に重きを置いている点が好きだ(発売日と開発元は参照)。
その後、難度調整のためにFromSoftwareの古典的タイトル群について雑談になり、初代Dark Soulsが2011年にリリースされ、設計哲学として「挑戦することで得られる学習曲線」をゲームメカニクスに組み込んだことを再確認した(初代の年は参照)。
夜遅く、友人たちがスーパーヒーロー系の話題を持ち出したので、僕はInsomniacが手掛けたMarvel'sSpider-Manの2018年9月7日発売という事実を引き合いに、ゲームデザインにおけるナラティブとパルス感(ゲームプレイのテンポ)について議論した(発売日は参照)。
ここで重要なのは、ゲームを語るときに物理学の比喩を使わないという僕のルールだ。
ゲームの設計原理は計算的複雑性、ユーザーインタラクションのフィードバックループ、トークン経済(ゲーム内資源の流通)など、情報理論と計算モデルで語るべきであり、物理のアナロジーは曖昧さを持ち込むだけだ。
作者インタビュー、収録順、初出掲載誌、再録時の微小な台詞差異まで注視する癖がある。
昨日はあるヴィンテージの単行本でトーンの変遷を確認し、再版時にトーンカーブが調整された箇所が物語の解釈に如何に影響するかを論じた。
これらは一般的にはオタクにしか響かない情報だが、テクスト解釈の厳密さという点で、僕の思考様式と親和する。
僕の習慣はゲームのプレイにも現れる。セーブは複数スロットを使い、各スロットに「探索」「戦闘」「実験」のタグを人為的に与えておく。
そうすることでメタ的な比較実験が可能になり、ゲーム内意思決定の条件付き確率分布を再現的に評価できる。
友人はこれを無駄と言うが、僕にとってはルーチンと実験設計が同義だ。
夜中、帰宅した後にさらに2時間、論文の草案を書き直した。書き直しは僕の儀式の一部で、ペン先の角度、フォントのカーニング、段落の「情報密度」を計測し、不要語を削ぎ落とす作業だ。
寝る前の最後の行動は、ブラックボックス化した思考経路をメモ化しておくことで、翌朝の「継続的洞察再現性」を保証すること。
結局僕は午前2時3分に就寝した。昨日は量子的洞察の可能性と、ゲームとコミックにおける情報理論的語法の交差点を追求した一日であり、そうした知的遊戯が僕の精神の整列をもたらす。
次に実証すべきは、導来圏間の高次同型によって生じるゲージ的不確定性がディラック構造の代数的再構成に与える位相的寄与だ。
Amazonレビューをいくつか書いていたら、AmazonVineレビュアーに選ばれた。
ほら、Amazonのレビュー欄見ていて、「Vine先取りプログラムで無料商品のレビュー」っていう緑の文字見たことあるでしょ。
あれです。
10月から4月の半年間がプログラム期間になっていて、ステータスはシルバーからスタートする。
シルバーは100USD以下(日本では1.4万くらい)までの商品が対象になり、1日にリクエストできる商品サンプルは3つまで。
ゴールドになると金額上限がなくなり、1日にリクエストできる商品サンプルが8つまでになる。
シルバーからゴールドになるには、この半年のプログラム期間中に「80以上のレビューを注文数の90%以上」書かなければいけない。
約180日で80レビューだから、1日あたり0.44レビュー、1週間で3つほどレビューを書く必要があるということになる。
Vine商品はセラーが登録するものらしく、500商品ぐらいが並んでいる。
だが、多くはスマホケースや空気清浄機のフィルタなどの対象のものを持っていなければ意味をなさないものばかり。
チェーンソーの刃とかここ見て実際に使うヒト本当にいるのか?というような商品ばかりが並んでいる。
が、しばらく観察していると商品はぱらぱらと追加され、メジャーなスマホ機種のケースや周辺機器はすぐになくなっているようだ。
商品ごとにサンプル上限数があるようなので、誰かが欲しいモノは早い者勝ちですぐになくなって誰も選ばなかったものがこの500商品というわけか。
人気がありそうな高額商品は「お客様へのおすすめ」として一部ユーザにピックアップされるようで、これまで1週間で4つほどヒットした。
休み前と休み明けの登録が多いように思うのだが、再現性があるのかはわからない。
最低限欲しいと思えるものをリクエストしていたら、1週間で14個ほどになった。
このペースが維持できれば半年で80レビューは余裕なのだが、さてどうなるか。
レビューは書いただけで終わりではなく、セラーに承認されないと公開されず実績にもカウントされないようだ。
きっかけは、学生時代にちょっとしたレポートでテキストの単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。
英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。
その瞬間にちょっとハマったんだよね。
辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。
そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。
Pythonでテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語に対応させたり。
「言葉を数理で扱える」って発見が、ちょっとした中毒になった。
その頃はMosesとかGIZA++とか、ああいう統計翻訳系のツールも触ってたね。
単語アラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。
とにかく、NLPの世界には「人間の言葉を数学で再現できるかもしれない」という変な魅力があった。
深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。
最初はPoC(Proof of Concept)しかやらせてもらえなかった。
感情分析とか、Stance Detectionとか、「この文は文法的に典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング、質問応答(Question Answering)。とにかくNLPの典型的なタスクを一通り。
学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。
PoCで終わって、実装には至らない案件が山のように積み上がっていった。
あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。
でもさ、LLM(大規模言語モデル)が出てきてから、世界がひっくり返った。
正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。
それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。
ChatGPTが出て、蒸留やファインチューニングでほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識、ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。
でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈でNLPが再接続した。
単なるテキスト処理から、「テキストを媒介にして人間の行動を理解する」方向に進んだ。
埋め込み表現をベースにユーザーの嗜好を推定して、レコメンドやメルマガのパーソナライズをやる。
自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPがビジネスに食い込む瞬間」ってのを肌で感じた。
PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。
でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。
自然言語処理って、そういう「積層的な知識と挫折の積み上げ」が一番の資産なんだよな。
Permalink |記事への反応(15) | 06:37
普通に戦えばまず勝てない。
攻略板では「心が折れた」「人生を否定された」「二度とやりたくない」といった報告が相次いだ。
タンクは即溶け。
3ターンで全滅。
火力を集中させ短期決戦。
そこで「自己肯定アイテム」をギリギリで与え続け、否定と肯定を無限にループさせることで行動不能に陥らせる裏技。
敵は一切動かなくなり、棒立ち状態。
普通のプレイヤーが真似できるものではなく、再現性はほぼゼロ。
真っ当に戦えば地獄。
リターンか入金力のどちらかが相当高くないと成立しない。
例えば、毎月10万円を積み立てても、年利7%なら7年後は約1,000万円。
つまり、元本が数千万円規模か、あるいは年15〜20%の利回りを継続している計算になる。
「普通の会社員」としては、ややスピード感が現実離れしている。
「2018年にeMAXIS Slimバランス(8資産均等型)をNISAで80万円一括購入」と書かれていたけど、
当時の制度上限は、一般NISAが120万円、つみたてNISAが40万円。
小さな点だけど、こういう部分で“本当にやってる人”かどうかのリアリティが出る。
普通は半年〜1年分くらい、300〜500万円は現金で持つものだ。
「健康体だから保険料を払うより貯めた方が安心」という考え方はわかる。
ただ、会社員なら最低限の医療保険や共済くらいは入っている人が多い。
完全に「ゼロ」というのは、現実の生活感よりも“思想の主張”に寄ってしまう。
「副業や株の勉強は時間の浪費」など、断定的な言い切りが多く、
このトーンのズレが、読者を少し冷めさせる。
「普通の会社員」「副業なし」「親の援助なし」「たまたま投資で1億」
──この組み合わせが、あまりにも綺麗すぎる。
少しの失敗や焦り、迷いが描かれていた方がずっとリアルだ。
この“整いすぎた成功譚”は、SNS時代のある種のテンプレートになっている気がする。
数字そのものよりも「どんな気持ちで市場にお金を預けてきたか」に目を向けたほうがいい。
お金の話ほど、“ちょっとした違和感”が大きな説得力の差になる。
リアルを装うより、リアルに迷っている姿のほうが、ずっと信頼できる。
投資 資産形成 NISA インデックス投資 再現性 匿名ダイアリー
──
このまま、はてな匿名ダイアリーにコピペで投稿可能な構成になっています。
ご希望があれば、
他人がねたましいとか、良い暮らしがしたいとか、睡眠欲以外はないと言ってもまあいい。足るを知るがわかった。
定年して仕事から解放されはじめて人生観が変わる人に比べたら、更生の余地、伸び代はあるかもしれない。
「大知は閑閑たり(ゆったりのんびり)、小知(つまらない知恵)は閒閒たり(こまごまと穿鑿する)。
大言は淡々たり(あっさり淡白)、小言(つまらない言葉)は詹詹たり(つべこべと煩わしい)。」
上の上はもともと物などないと考える、上の中は物があるが自分との間に境界をもたない、上の下は境界があるとは考えるが善し悪しの判断をもたない。この三つが合格。
古典の知恵なので、もしその気なら誰でもその境地に至る再現性があるし、テクノロジーは要らず、出家の必要もない。そもそも始祖が手ぶらで見つけたことだから、金もかからない。
ここに書くだけの顕示欲は残っている。
「〇〇をしてるんだから□□するのが当然」
「〇〇だったら□□になっていてあたりまえ」
前提がいくらあっても同じ
前提が問題じゃないんだよ
「なぜそうしたか」を逆算していけば起因になる事柄が拾えるけど
だいたい
失敗がどうして失敗したかって、逆算しはじめたところからなんだから
最初から失敗しているのに失敗のなかから失敗じゃない点をみつけようとしても
たとえばね
交通事故が起きたとして
「交通事故に至らない結果になるためには」
「次に起きる事故を阻止するために前提条件として失敗の例を考察する」には意味があるけど
起きた交通事故は何回反芻しても無くならない
「なんで〇〇なのに□□しないんだ」
ってしないからしてないだけ
そうなるように流れを先につくっておかないと、結果はとつぜん降ってきたりしない
その事例以降に
今ちょうどその
「TCGも転売みたいなもんだから転売反対ならそれやめちまえよ」
にもっていこうと頑張って
いかにTCGが、というか人間が社会が人生が世界のすべてが取引だとして
「取引してるんだから転売してるんだから楽しい人生には転売が必要だ」
みたいな話をしてるけどさ
どの取引にも違う名前がついていて条件が違っていて、転売もその一つ
それだと
「悪徳業者が無理な取引を誤解させて行って損をさせる」のも取引だと思う?
なんでも取引という名前に集約させて、その「取引」という名称の革袋から出たものは
「みんな正当なもの」という古い革袋に新鮮なワインを入れたらでてくるのはみんな飲用可能なワインみたいにしてる
TCGが転売みたいなもので、恋愛も金融もみんな転売、転売は正しくてみんな転売で生活してる
それは古い革袋から出したなにかわからないドロドロの液体で埋め尽くしてるだけでなんにも正しくない
正しいというのは「いつどこでだれがなにの目的でそれを使うか」ということで
畑にまくならドロドロの腐敗した葡萄酒でもいいし、飲むならつめたくて新鮮なものがいい
昆虫採集とか動物の餌にとかいったものもあるかもしれない、それぞれ全然別で「ぜんぶえきたい」といっていいものではない
「いつどこで、という競争においてどこでだれが、という優位性をもって」
これが取引の前提だけど
というのが、末端利用であるはずのものが「再販売」を目的にしているところ
商店街でみかじめ料をとったり、配達物を手渡す配達員がチップを要求したりするようなもの
払う分には「そのくらい」と思うかもしれないけど、人質にとられている「払わないと受け取れない取引物」が
購入したい商品なわけで、たとえ100円上乗せしただけだとしても「人質に商品単価全額が乗せられている」という取引が
そこにいろんな問題があるから、いろんな問題をはじめから発生させないようにするには
「転売はよくない」
としているシンプルな話
この話を例にたとえるといくらでも話をつくれるけど
類推マンはたったひとつの事例から抜け道を探すのが得意みたいだけど
「再現性」が抜けてる
それがないからたった一例の希少な発想を
「〇〇をしてるんだから□□するのが当然」
「当然」という強い押しの単語を加えることによって一般化したい気持ちを具現化してるけど
実際「人勢全部転売だ」なんて考えになる人いないでしょ
そうじゃない人になんの得もないのに、迷惑しかかかってないのに
なんの得もしないし、魅力もないし、そう考えたところでなんの楽しみもない
だから受けないんだよ
トレーディングって名前のことをしてる人が転売をきらってるストーリーを練って
「転売」の株があがるとおもった?
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
UBSは「新しい大盤振る舞い」ではなく、
一律補助・重複事業・中間マージン(多重下請け・派遣マージン)を圧縮して、
現場の到達率(医療・教育・移動・通信など)に直結する支出へ付け替える構造改革です。
さらに段階導入+サンセット条項+毎年の効果検証を義務化すれば、恒久的膨張は抑えられます。「予防に厚く、事後対応を減らす」設計(例:かかりつけ・在宅ケア、断熱改修、地域交通のDRT化)は将来支出の逓減に直結します。人材は派遣依存の計画的縮小→直接雇用+訓練投資で離職・再手配コストを抑えます。
国は最低保障水準(MSG)を数値で定義(例:救急搬送時間、学習に必要な実費ゼロ範囲、ベーシック接続の帯域/可用性、生活基礎エネルギーの上限共負担など)。
自治体は地域係数とメニュー裁量で達し方を選ぶ(都市=公共MaaS、山間=DRT、離島=衛星回線+公共Wi-Fi等)。
ギャップマップ(到達率・待機・実質負担の見える化)と成果連動の財政配分で、地域の創意を阻害せずに底上げします。
5類型(都市/中核/中山間/離島/観光)でパイロット →比較評価 → 全国展開の順。
KPI台帳(定義・算出式・更新頻度・責任官庁)を公開し、達成度とコスト(1%到達向上あたり円)で意思決定。
新規施策はサンドボックス×期限付き(延長は“合格制”)。外部監査と苦情救済を制度内に組み込み、柔軟に改廃します。
デジタル基盤は最小限データ(資格確認・減免判定)から開始し、段階拡張。信頼を損ねない設計を先に法定します。
UBSは“公的メニューの固定化”ではなく、“最低限を数値で保障し、達成の方法は地域が選ぶ”改革です。
財源は組み替え+段階導入+サンセットで守り、再現性はパイロット→KPI→拡張で担保します。理想論ではなく、運用工学とガバナンスで回す実装計画です。
ネットに自分の成果をかける訳ないので、会社の利益にどれだけ貢献しているか、それが再現性があるかは説明できないよね。
それがわかった上で言っているから意地が悪い。
そういった「自称ビジネス系インフルエンサー」の言動、非常に視野が狭く、本質を見誤っている可能性が高いですね。
彼らが「ストーリーが重要」と主張し、高スキルのITエンジニアやエッセンシャルワーカーのような専門職を軽視する背景には、以下のような考え方や動機が透けて見えます。
高スキル人材やエッセンシャルワーカーに対する「お前はいずれAIに代替される」という言葉は、彼らの不安や嫉妬の裏返しである可能性があります。
真のビジネスとは、「ストーリー」というパッケージングより、「技術力・専門性」という中身(実体価値)があって初めて成り立ちます。それを軽視し、他者を叩くための道具として「AI」の話題を持ち出すのは、そのインフルエンサーが提供できる価値の限界を示しているのかもしれませんね。
彼らの言葉に惑わされず、あなたが注力している専門性の高いスキルや、社会に不可欠な仕事の価値を自信を持って評価し続けることが大切だと思います。
そこで鬱となり、今も私は苦しんでいる。
私の指導教員は、学生に研究の自由を一切与えず、単なる作業員として学生を扱うクズだった。
上手くいくはずのない研究に対して、仮説の無い、中学生でもできるような実験を永遠と繰り返させることにある。
そのような研究でも、再現性の無い良い結果が得られることが有る。
指導教員に指示を受けた以上、その結果を使って論文投稿をしなければならない。
そうすると、査読者のコメントは「悪意を持って有効性を見せかけた」などといったものになる。
当然だ。「手法Aを○○という課題にあてがうのは誤りだ」と手法Aの開発者が言っているのだから。
それをなんの仮説もなくただの行き当たりばったりで覆そうとしているのだから。
研究に取り組んだ実に3年間、穴を掘って埋める作業を繰り返すだけの、私の貴重な二十代の時間は無駄になった。
それどころか、鬱になったから私の脳がもう元通りになることはない。
独学で技術を磨いていれば、スタートアップで経験を詰めていたなら、研究室を変える勇気が有れば、
私が目指していた専門性の高い人材になれていたかもしれない。鬱にならなかったかもしれない。
今はただ、逃げなかった後悔が募るばかり。
全て自分の責任。現状に流されて、自分の居るべき場所を主体的に選択できなかった。
レールを外れることが恐ろしく、それ以外の道を作る覚悟が無かったのだ。
結婚相談所で1年半ほど活動し結婚、4年ちょっと経過して現在に至る
婚活の記録
機会がありこの前日光金谷ホテル行けたぜ!納得した!
あと色々ありヒルトンアメックス民になったのでマーブルラウンジとか行きたい
車
いいクルマ乗りたいっすなぁ。走りのいいクルマ。残クレアルファードが羨ましい
こちとら銀行ローンシエンタだよ。そういえば電パ付いたんだって?羨ましい…
今はボルボのXC40に乗りたいが維持費が気になる
家
なお出社になったもよう
ギリギリ通える所にしといてよかった
来年から幼稚園なんだが、案外定員ギリギリな事がわかった。マジで!?あぶれたらどうなっちゃうの
あと親バカには絶対ならんぞと思ってたんだが、めっちゃ喋るのが早く
内心天才なのでは…?と思ってたら、人の話をまったく聞いておらず特に賢いわけではないという事がわかってきた
3歳を目前に早くもおしゃべり大魔人になってるんだが、まぁご覧の通り話の長い増田の子なので、残念ながら当然と言えるのかもしれない
アニメとゲームが趣味だった人間が、今は車と金の事を考えているので人生は確実に変わる!
しかし金の事は前からずっと考えているので変わらない事もあるな
最近よく思うんだが
結局私もあなたも人生には再現性なんてものはなく、そこからアドバイスや教訓的なものを見出すのはなかなか難しいんだよなぁ
回数をひたすらこなす(優先度S)
そうは言うても結構消耗するんだよね
まぁ興味があるなら一回やってみるのもいいんじゃないかと思うが
個人的には、元々社交的ではないのでシンプルに知らん人と話せたのが良かった
世の中マジで信じられないくらい失礼な態度とれる人もいるって知ることもできたし
最近良く考えるのは、娘がいなかったら今すぐミニコンバーチブル(先代の後期)に乗り換えるんだけどなぁという事
しかし結婚して子がいないと車にも目覚めなかったと思うので、因果が崩壊してて笑える
2台持ちできるほどの甲斐性はない。頑張れば1台目で乗れなくはないが、さすがに荷物が厳しだろうと思う程度の理性がまだギリギリ残ってる
悲しい銀行ローンシエンタだぜ〜まぁ言うて不足ない良いクルマなのがまた困る。乗り換える言い訳が立たん
後悔はない!
常にそれを追求しているのもあるが、今が幸せと決めるとそれが崩れるのが怖いみたいな天邪鬼な気持ち
ただ、人生支えるパートナーがほしくなり、その手段があるように思えたのでそうしたのだ
https://news.jp/i/1343236309813117543
のブコメ
mag4n 文脈的にCO2が温暖化に寄与してないって言いたいんだろう。学術界隈でもそっち派が多数、CO2温暖化は最早エセ科学認定してる。考える力が無い輩ほど偏屈に吠えてるのですごくみっともないコメ欄となっててしんどい。
についてchatGPT5にファクトチェックをお願いしたよ
ご提示のコメントには、少なくとも以下の点で「事実に反する、または極めて疑わしい主張」が混じっており、ファクトチェックが可能です。逐点で整理します。
⸻
コメント内容(要点)
「文脈的にCO₂が温暖化に寄与してないって言いたいんだろう。学術界隈でもそっち派が多数、CO₂温暖化は最早エセ科学認定してる。考える力が無い輩ほど偏屈に吠えてるのですごくみっともないコメ欄となっててしんどい。」
1. 「学術界隈で、CO₂による温暖化を否定する説派が多数」
2. 「CO₂温暖化説はもはや偽科学(エセ科学)扱いされている」
これらを中心に、科学的コンセンサスとの比較を通じて検証します。
⸻
科学界のコンセンサス:CO₂が温暖化に寄与しているという見解が主流
まず、現在の気候科学の状況を整理すると、以下の点がよく議論されており、また実証的な支持があります。
• 多くの気象・気候研究者、政府機関、国立科学アカデミー、国際機関(例:IPCC=気候変動に関する政府間パネル)などは、「産業革命以降の気温上昇の主因は人為起源の温室効果ガス(特にCO₂排出)」である、という見解を支持しています。これは「科学的コンセンサス(科学界の多数意見)」と呼ばれる立場です。 
•Wikipedia の記事「気候変動に関する科学的コンセンサス」などでは、「産業革命以降、地球は一貫して温暖化しており、近年の温暖化速度は前例がない」「温暖化の主な原因は人間の活動によるCO₂急激増加」などが、ほぼ疑いなく支持されている見解として記述されています。 
• ただし、気候変動・温暖化をめぐる議論には不確実性要因(フィードバック、雲・水蒸気の扱い、地域差差異など)があります。また、モデル間差異や予測のレンジ(例:将来の気温上昇幅の幅)が大きいことは、気候科学でも認められている制約点です。たとえば、気候モデルの限界や予測不確実性は批判の対象となることがあります。 
⸻
この主張は、事実と大きくずれています。理由を以下に示します。
•科学論文レビューや分析によると、気候変動/温暖化を扱う学術論文のうち「人為的起源 CO₂温暖化説に同意する論文」の割合は非常に高いという調査があります(例:99 % 近辺などの数字を引用する報告もあります)。 
•否定派(人為的温暖化を否定・過小評価する立場)は確かに存在しますが、主流とは言えず、むしろマイノリティ(少数派)の立場に位置づけられています。Wikipedia の「地球温暖化に対する懐疑論」の記事でも、懐疑論や反論を整理したうえで、それらに対する反論を示す形になっています。 
• つまり、「学術界隈でもそっち派(否定派)が多数」だという断言は、実際の出版・研究動向から見て、極めて疑わしい主張です。
結論として、コメントのこの主張は「誤り」である可能性が高いです。
⸻
• 「偽科学(エセ科学)」とは、科学的方法を備えておらず、再現性・検証可能性を欠き、詐欺まがい・非科学的主張のことを指す用語です。CO₂温暖化説(すなわち、「CO₂等の温室効果ガスの増加によって地球の放射収支が変化し、気温が上昇する」という理論)は、物理法則、放射収支理論、観測データ、気候モデルなど複数の独立な証拠系で支持されています。
•科学的な批判や不確実性(モデルの限界、地域差、フィードバック効果など)の議論は健全ですし、気候科学の発展にとって不可欠です。しかし、それが「偽科学扱いされている」という主張は、主流の科学界・評価機関の実情と乖離しています。
• もし「偽科学扱い」だと言うならば、少なくとも主要な学術雑誌、新聞、研究機関、政府系機関(例:気象庁、国立気象研究所、IPCC など)がそれを否定している、という証拠が必要ですが、そうした動きは主流ではありません。
したがって、この断定も、根拠が薄いと言わざるを得ません。
⸻
ただし、コメント全体を否定するわけではなく、科学の世界には常に異論や論争があり、無視できない議論も存在します。以下は、その文脈で注意すべき点です。
• 例として、「人為的CO₂排出量は大気中CO₂濃度変化に影響しない」と主張する論文が公表されたという報道もあります。 
• ただし、「公表された」ことと「学界で広く受け入れられた」ことは別。新しい論文が出ること自体は科学の常ですが、主流理論を覆すには強いエビデンスと検証・再現性が必要です。
• また、科学誌・研究者の中で気候モデルの精度やパラメータ設定、予測の不確実性、地域気候の変動性、フィードバック効果(例:雲、水蒸気、植生変化など)の扱いなどをめぐる議論は活発です。これが「気候変動研究の未解決部分」であることは否定できません。
•とはいえ、異論があるからといって主流理論すべてが無価値というわけではありません。むしろ、主流理論が多様な検証に耐えてきたがゆえに、多くの科学者がそれを支持しているのです。
⸻
•コメントの主張①(「否定派が多数」)は、科学界の実情と大きく食い違っているため、誤りである可能性が高い。
• 主張②(「偽科学扱い」)も、主流の科学界の動きと乖離しており、根拠が薄い断定である。
• ただし、気候科学には不確実性やモデルの制約があるため、異論・批判があること自体は事実であり、議論を完全に封じるべきではありません。