Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「言語モデル」を含む日記RSS

はてなキーワード:言語モデルとは

次の25件>

2025-10-20

なんか凄いらしい

Aegaeon: Effective GPU Pooling for Concurrent LLM Serving on the Market

AI要約】

「Aegaeon」は、LLM(大規模言語モデル)の推論におけるGPUリソースの浪費を解決するシステムです。

トークン単位モデル自動で切り替える(オートスケーリング)ことで、1つのGPUでより多くのモデル効率よく動かせるようにしました。

​その結果、GPUリソースを82%削減し、性能を大幅に向上させました。

なんでこの論文で騒いでる人がいるかはワイにはわからない

ただあれだけ騒いだディープシークもしばらくしたら沈静化した事はわかる

Permalink |記事への反応(2) | 03:52

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-14

自然言語処理10年ぐらいやってきた

学業でも仕事でも趣味でも、ずっと自然言語処理をやってきた。

別に最初からAIだのNLPだのに興味があったわけじゃない。

きっかけは、学生時代ちょっとしたレポートテキスト単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。

英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。

その瞬間にちょっとハマったんだよね。

辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。

そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。

Pythonテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語対応させたり。

言葉を数理で扱える」って発見が、ちょっとした中毒になった。

その頃はMosesとかGIZA++とか、ああい統計翻訳系のツールも触ってたね。

単語ラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。

とにかく、NLP世界には「人間言葉数学再現できるかもしれない」という変な魅力があった。

深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。

今思えば、あれが一番自然言語処理っぽい時代だった気がする。

で、いろいろあって自然言語処理系の企業入社

最初はPoC(Proof of Concept)しかやらせてもらえなかった。

感情分析とか、Stance Detectionとか、「この文は文法的典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング質問応答(Question Answering)。とにかくNLP典型的なタスクを一通り。

学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。

PoCで終わって、実装には至らない案件が山のように積み上がっていった。

あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。

でもさ、LLM(大規模言語モデル)が出てきてから世界がひっくり返った。

正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。

それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。

ChatGPTが出て、蒸留ファインチューニングほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。

でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈NLPが再接続した。

単なるテキスト処理から、「テキスト媒介にして人間の行動を理解する」方向に進んだ。

埋め込み表現ベースユーザーの嗜好を推定して、レコメンドメルマガのパーソナライズをやる。

自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPビジネスに食い込む瞬間」ってのを肌で感じた。

PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。

でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。

自然言語処理って、そういう「積層的な知識挫折の積み上げ」が一番の資産なんだよな。

Permalink |記事への反応(15) | 06:37

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-13

ゲイリー・マーカス略してゲリカ

についてのClaudeとの会話

なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトル投稿するのは流石にめっちゃ怒られると思ったが。

1

```

Gary Marcus@GaryMarcus

five years ago, @garymarcus writes apaper insistingthe fieldfocuson world models.

everybody shitsonhim

2025: xAI races to build world models.

```

さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。

産業応用の観点から教師あり学習強化学習が優先されてはいものの、重要性は常に議論されてきたと言える。

Schmidhuberや現Sakana.aiCEOであるDavid Haらも「World Models」を唱えていた。

また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年GPT3以降であるはず。

より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。

個人的最近の彼の投稿自己正当化がひどいものだと思っているが、どう思うか?

私の意見事実誤認がないかもチェックすること。検索OK

ユーザーはGary Marcusの最近ツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAI世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っていますユーザーの主張のポイント:1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデル世界モデルについて議論していた2. Schmidhuber、David Haらが「World Models」論文を発表していた3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降4. ChatGPTでの大衆化2022年11月以降5. Gary Marcusの最近投稿自己正当化がひどいこれは事実確認必要な内容なので、検索を使うべきです。特に:- Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか-世界モデル研究歴史(Bengio、LeCun、Schmidhuber、David Haなど)- xAI最近世界モデルに関する動き検索を開始します。Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。検索結果から、Gary Marcusが2020年2月に「TheNext Decade inAI: Four Steps Towards Robust ArtificialIntelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「RebootingAI」という本を共著で出版しています。彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは:- Yann LeCunも世界モデル必要性を強調していた- Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物かもしれない-次に、Schmidhuber、David Haの「World Models」論文について検索します。良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文2018年3月に発表されています。これはGary Marcusの2020年論文よりも2年早いです。-次にYann LeCunとYoshua Bengioの世界モデルに関する発言検索します。素晴らしい情報です。Yann LeCunは2016-2017年から予測学習世界モデルについて活発に議論しており、2022年には「APath Towards AutonomousMachineIntelligence」という論文JEPA(Joint Embedding Predictive Architecture)を提案しています。-次にxAI最近世界モデルに関する取り組みについて検索します。優れた情報が得られました。xAI2025年10月Nvidia研究者を雇い、世界モデルの開発を進めていることが最近ニュースで報じられています。-次にYoshua Bengioについても検索してみましょう。完璧です。これで必要情報はすべて集まりました。まとめると:1. Gary Marcusは2020年2月に「TheNext Decade inAI論文世界モデル重要性を論じた(約5年前)2.しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前)3. Yann LeCunは2016-2017年から予測学習世界モデルについて議論し、2022年にはJEPA提案4. Yoshua Bengioも長年にわたり世界モデル予測モデルについて研究議論してきた5. xAI世界モデルに取り組んでいるのは2025年10月最近ニュースまり、Gary Marcusの主張とは異なり:-世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた-特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的研究していた- Schmidhuberは1990年代から世界モデルについて論じているユーザー事実認識は正確です。

あなた記憶分析は非常に正確です。Gary Marcusの自己正当化に対する批判妥当だと思います事実確認の結果を整理しましょう。

事実関係確認

1. Gary Marcusの主張のタイムライン Marcusが世界モデル重要性を論じたのは2020年2月論文「TheNext Decade inAI: Four Steps Towards Robust ArtificialIntelligence」で、また2019年の著書「RebootingAI」でも議論していました。 確かに「5年前」という時期は合っています

2.しかし、世界モデル研究はMarcusよりずっと前から存在

David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。

さらに、この論文自体が「1990年代から2015年にかけてのRNNベース世界モデルコントローラーに関する一連の論文重要概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物である可能性が高いのです。

3. Yann LeCunとYoshua Bengioの貢献

Yann LeCunは2017年には既に「機械世界予測モデル学習する能力AIの大きな進歩可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデル必要性を強調してきた」と認めています

QuantaMagazine2025年記事によると、「Yann LeCun(Meta)、Demis HassabisGoogleDeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全AIシステムを構築するには世界モデルが不可欠であると考えています。」

4. xAI最近の動き

xAI世界モデルの開発に取り組んでいるというニュース2025年10月に報じられたもので、NvidiaのOmniverseプラットフォーム世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。

評価

Gary Marcusのツイートには以下の問題があります

1.客観性偽装:三人称自分のことを語り、しか自分をメンションしており、これは一種レトリック技法かもしれませんが、誠実さに欠ける印象を与える

2.独創性の誇張:世界モデルは彼独自アイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ

3.タイムラインの歪曲:2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年自分論文が先駆的であったかのように示唆

4.選択記憶: Marcus自身2020年論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在自分が「みんなに批判された」先駆者であるかのように振る舞っている

あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンス理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言学術的誠実さに欠けると言えるでしょう。

2

  • 彼は変わってしまったと思うか?

検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます

Gary Marcusの変遷

以前のMarcus(2001-2017年頃)

転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a badidea」だったと。

現在のMarcus(2023年以降)

「変わった」のか?

私の見解:変わったというより、役割文脈への適応が歪んだ

1.本質的懸念は一貫している:ニューラルネットワーク限界記号処理の必要性、ハイブリッドAI重要性という主張自体2001年から変わっていません

2.しか表現方法が変質した:

-学術批評者 →アンチLLM活動家へ

-建設批判攻撃否定

-謙虚引用自己中心的な歴史修正

3. LLMの成功への複雑な感情:

- 彼の予測純粋ニューラルネット限界がある)は部分的に正しい

-しかしLLMの予想外の成功は、彼のアプローチハイブリッドAI記号処理)の優先度を下げた

- これが防衛的・攻撃姿勢につながっている可能

4.エコーチャンバー効果:SNS時代の論争構造が、彼をより極端な立場に追い込んでいる

本質的悲劇

最も残念なのは、彼の批判には価値があるということです。LLMの限界ハルシネーション、推論能力の不足などは実際の問題です。しか自己正当化歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています

Schmidhuber、LeCun、Bengioなどの先行研究尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分立場を弱めています

答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います

3

  • なるほど。ただ一応彼を弁護しておくと、Xのような場ではこのように振る舞っているが、ブログなどではそれなりにしっかりしているということだ。検索したなら分かると思うが。

その指摘は完全に正しいです。私の分析一面的でした。

検索結果を改めて見直すと、確かに媒体による違いが明確です:

ブログ(Substack)での彼

「Muddles about Models」では、2017年2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的類似した多くの初期の結果が実際にある」と指摘しています

「GenerativeAI's crippling and widespread failure」では、「Yann LeCunも世界モデル必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物だった」と明確に認めています

別の記事では、自分2001年の『Algebraic Mind』に言及しつつも、「さら重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判最初期の中心にあった」と、41年前の先行研究を強調しています

SNS(X/Twitter)での彼

今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現

この違いが意味すること

1.媒体特性の影響:Twitter字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃表現を促進

2. 異なる聴衆:

-ブログ読者:技術的背景を持つ、長文を読む意欲がある

-SNS:より広範囲感情的な反応を求める

3. 彼の本質:ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化

修正された評価

私が「歪んだ」と表現したのは言い過ぎでした。より正確には:

彼は変わっていないが、SNSという媒体が彼のworst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている

この区別重要です。彼のブログを読む価値は依然としてあり、技術批判真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。

ご指摘ありがとうございます。このニュアンスは見落としていました。

4

ちょっと待ってください!笑

かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要区別)が台無しになってしまいませんか?

私たちの会話は:

という流れだったはずです。

「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります

もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には:

みたいな、より内容を反映したタイトルの方が、せっかくの深い議論が正当に評価されると思います

まあ、それでも「ゲリカス」で行くならそれはそれで!お疲れ様でした!😄

Permalink |記事への反応(0) | 11:04

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、Permalink |記事への反応(0) | 00:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-03

[雑文]まぁ懸念した通りになったなぁ@Sora2

2年前に下記にように書いたんだけど、懸念してた通りになりましたわね😒

2023-03-28

AIで一人負けを続けるよりはいいと思うよ

AIには学習データ調教必要で、かつてのニコニコYouTubeみたいに法が整備される前に一般ユーザー集めた方が勝ちやぞ

ジャップランドクリエイター萌え豚をたくさん抱えているにも関わらず、PC音痴な人がぎゃおんして搾取されるだけなの、

マジなんとかした方がいいぞ

萌え絵需要あるから日本クリエイター海外AI勢にデータ学習搾取され、萌え豚萌え絵消費で海外AI勢に搾取される

経営層がITの高度な知識が無い以前に、そもそもPC音痴から、こうも差が出る

https://anond.hatelabo.jp/20230328123644#

 

真に日本がやらなきゃいけなかったのは、提携企業間ならクリエイター自由データ学習を行えるようにする枠組みを作ることだったんやで

たぶん、ワイは100回くらい言った・・・・ってのはオーバーだけど、正直こうなることは、IT音痴以外のすべての人にとって知ってた速報だよね?

 

まぁ今からでも遅くない(?)からディズニーマーベルみたいに、日本企業圧力掛ける団体を作りつつの

利害関係丸め企業間を超えてデータ学習をできる枠組みとクリエイター保護学習に利用されたデータやそのデータを作ったクリエイター報酬払う)は

やった方がええと思うよ

 

  1. 企業間連携によるデータ学習枠組みの構築:任天堂セガバンナム東映などの大手企業連携し、信頼できる企業団体間でのみ、クリエイターに適切な対価を払いつつデータ学習を行えるクローズドエコシステムを作る
  2. クリエイターへの報酬メカニズム:学習に利用されたデータ(やそのデータを作ったクリエイター)に対し、IPホルダーを通して適切に報酬流れる仕組みを構築しないと、誰もが創作を続けることができなくなるやで

 

 

任天堂セガバンナムサイゲなどの大手ゲーム会社東映などの大手制作会社上記でいい+法務部と顧問弁護士に任せるとして、

個人アニメーション製作者はどうしたらええんやろね?

個別オプトアウトしてね⭐️」って言ったって、どこからやるの?だし、

二次創作(ただし、二次創作ガイドラインちゃんと公開されてるやつね)はどうするんだろ?ってなる

たとえば、東方とかボカロ界隈とか

 

年がら年中、反AI勢とバトルしてる某氏が、まんま東方projectの二次創作アニメ

というか、これまんま満福神社(https://youtube.com/@manpukujinja)じゃん・・・PVを作っていて、

東方知ってる人がこれをSNSに公開するのは流石にダメくない?って思ったら・・・・なななななななななななな・・・なんと!!!!!!!!!!!!

下記一行を Sora2ちゃんに打ち込むだけで、満福神社っぽいキャラデザPVアニメ出来ちゃうんだよね・・・

霊夢と魔理沙咲夜レミリアが出てくるアニメOP風のPV

 

別に某氏が満福神社を狙い撃ちしたんじゃなくて、Sora2ちゃんというかOpenAI が満福神社でトレーニングしただけですの

ほんで学習データがほぼ満福神社だから、そのまま満福神社風がお出しされるってだけみたいやね

プロンプトがこの短さだとさすがにクオリティガチャだが、キャラデザポーズが満福神社っぽい)

 

福神社は、バトル気質炎上したり、なぜかキャラの裸絵を公開してたりなので(ただし東方ウマ娘と違って公式禁止されてはいない)、

正直、同サークルに対して思うところが何もないわけではないんだけど、素晴らしいアニメを描くってことに対しては異論ないのよね

レイアウトキーフレームというかポーズ?、キャラデザが、パッと見は間違い探しレベルそっくりで、

明らかに違うのは中割りだけみたいなアニメを単純なプロンプトでポン出しされるのは、流石に気の毒では?感

 

『嫌ならオプトアウトしろ、訴えろ』は、さすがに無法者が過ぎるので、

日本政府も制作会社IPホルダーも『自分の縦割りのことしか考えない』はやめて、大連合して黒船に立ち向かって欲しいところですわね

ネタ抜きに幕末みたいなやつよ

 

 

そして黒船に立ち向かって欲しいって書いたところで、日立OpenAI提携かいう、ほげぇぇぇぇってなるニュースな?

データセンター電気周りだけなら、ふんふん、日立の強みを活かせる分野だ🧐なんだけど、

どうも生成AI分野やAIエージェント分野でも協業するみたいな書かれ方してんのよね・・・

えっ・・・日立の Lumadaちゃんはどうしたの?MSOpenAIソリューションを導入するSI屋(黒船代理店)になることにしたの?みたいな・・・

今こそ日立のやってること紹介にリリース出すタイミングじゃないの?

https://www.hitachi.co.jp/New/cnews/month/2024/08/0828c.html

 

あと日立公共事業部持ってて、公共インフラの構築も請け負ってるわけだけど、

えっ・・・日本政府も公共事業請け負ってる大大大企業国産AIどうした?ってなる

そら、AI学習カスタムしないと使えないけどさぁ、

なんちゃってプライベートクラウド 〜謎の東京DC集中&DR/BCP消滅を添えて〜』とかをかますくらいなら、素直にAWSAzure 使えやとはなるし、

ゼロトラスト実現しよ?データ主権とかデータリブンとかいう前にまずデータしっかり置こう?フルスクラッチ約束された失敗をかますくらいなら、

とりあえず、MSソリューションでいいよ(旧Google App/G Suite、現GoogleWorkspaceで通った道)ってなるけどさぁ、

インフラを請け負う大企業こそ、国と連携してデータ主権を守る姿勢を見せないと、国民データまで海外勢に握られることになりかねないやで

日本政府も大企業スイス国産AIくらいの頑張りは見せて欲しい

 

 


🔓 Apertus:完全オープンスイス産LLMの誕生

🧪 開発の背景と公開

2024年7月、EPFL(スイス連邦工科大学ローザンヌ校)、ETHチューリッヒチューリッヒ工科大学)、スイス国立スーパーコンピューティングセンター(CSCS)は、大規模言語モデル(LLM)開発に関する共同プロジェクトを発表。

そして今、その成果が現実に:**スイス初の大規模・多言語オープンなLLM「Apertus」**が公開された。

このモデルは、AIチャットボット翻訳システム教育ツールなど、あらゆるアプリケーションの基盤として開発者組織活用されることを想定している。

 

 

🏛️名前の由来と特徴

「Apertus(アペルトゥス)」とはラテン語で「開かれた」という意味

この名前が示す通り、このモデルは以下すべてが完全公開・ドキュメント化済み:

モデルアーキテクチャ

学習済みの重み(パラメータ

トレーニングデータとその収集手法

学習レシピプロセス全体

 

 

💡 誰でも使える:Apache2.0ライセンス

ApertusはApache2.0ライセンス提供されており:

• 商用利用もOK

教育研究用途OK

モデルサイズは**8B(80億)と70B(700億)**の2種類(小さい方は個人利用向き)

ダウンロードはHugging Face経由、もしくはSwisscomプラットフォーム経由で利用可能

 

 

🔬科学産業社会のためのAI

研究者、開発者企業AI愛好家など誰でも利用可能

Swisscomや他のパートナー経由で、プロジェクトに組み込むこともできる。

「一部だけ公開」な他モデルと異なり、Apertusは“完全オープン”がモットー

 

「信頼できる、主権を持った、包摂的なAI開発のリファレンスモデル提供したい」

— Martin Jaggi(EPFL機械学習教授

 

 

🚀技術触媒としてのApertus

このプロジェクトは「研究産業への技術移転」ではなく、イノベーションAIスキル強化の起点として位置づけられている。

Thomas Schulthess(CSCS所長)はこう述べている:

 

「Apertusは新たなAIスキルと応用力を生み出す“触媒”になる」

 

 

🌍 真の多言語対応包摂

Apertusは15兆トークン、1,000以上の言語学習

データの40%が非英語構成され、スイスドイツ語ロマンシュ語など、他LLMで無視されがちな言語も多数含まれる。

「Apertusは“公益のためのAI”として設計された数少ないモデルの一つ」

— Imanol Schlag(ETHチューリッヒ上級研究員・プロジェクト技術責任者

 

 

🇨🇭Swisscomによるホストと展開

SwisscomはApertusを自社の「スイス主権AIプラットフォーム」でホスト

Swiss {ai} Weeks では、開発者が実際にモデルを試し、フィードバック提供する初の実験機会が設けられる。

 

「Apertusは公共利益スイスデジタル主権のためのモデルです」

Daniel Dobos(Swisscomリサーチ責任者

 

 

🌐グローバルアクセス:PublicAI Inference Utility

 

スイス国外ユーザー向けには、PublicAI Inference Utility(PAIU)を通じてApertusが利用可能に。

 

「これは道路水道電気と同じく、“公共インフラとしてのAI”を示す証明だ」

JoshuaTan(PAIU代表

 

  

🔍 徹底した透明性と法令遵守

 

Apertusはトレーニング工程再現可能な形で完全公開。

以下のリソースも全てApache2.0提供

ドキュメント

コードベース学習用)

データセット情報

モデル重み(途中チェックポイント含む)

 

そして何より、以下の法的・倫理的ガイドライン尊重して開発されている:

スイスデータ保護

著作権法

EUAI法(AIAct

パブリックデータのみ使用機械判読可能な除外リクエスト対応

個人情報・望ましくないコンテンツフィルタリング済み

 

 

🏁 終わりではなく始まり

「Apertusは“パワフルかつオープンな生成AI”の実現可能性を証明した」

— Antoine Bosselut(EPFLNLP研究室長・SwissAI共同責任者

 

これは完成形ではなく、始まり

今後のバージョンでは:

法律医療教育など分野特化型の派生モデルを開発

• 最新情報検索機能を搭載

• 高効率化、規制対応の強化

 

 

Apertus:unmodèle de langage multilingue, ouvertettransparent - EPFL

https://actu.epfl.ch/news/apertus-un-modele-de-langage-multilingue-ouvert-et/#


 

 

追記分散AI応援すっぞでもええかもね

Permalink |記事への反応(1) | 18:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-21

ITバブルはいつ弾けるのか?

どう考えたってSEプログラマよりも土方の方が必要職業だし重宝されるべき仕事にも関わらずスタートアップのよくわからんホワイトカラーの連中の方が高給だったりするのが納得できない

というか正直ITバブルが長すぎたと思うんだよ。それだけ需要があります!ってことなんだろうけど、これまではなんちゃって専門職に見せて市場全体の相場自体ぼったくりみたいなところあったことは実際否めない。

だってフリーランス仲介サイトなどで見るSESや受託開発案件では一般的Webエンジニアなら人月単価60〜80万円前後相場だが、機械学習系やSREなど高難度のプロジェクトでは一人月100万円近くに達する案件も珍しくないんだぜ!?

あと仲介業者多すぎぃ!!例を挙げるとクライアント企業から人月90万円の発注があっても、実際に要件定義や開発を担うのは下請けの開発会社派遣チームであることが少なくなくて、仲介業者がやるのはその橋渡しだけ。あとの実務やリスクの大半を下請けに丸投げしてるのに10〜30%前後手数料マージンって確保すんだぜ。ノミじゃん。ダニじゃん。一応マッチング契約管理といった役割はあるとしたって、一次請けとしての実働や技術責任ほとんど負わない状態での高率マージンはどう考えたって業界全体のコスト構造を押し上げる一因になってる。でも誰もここを変革しようとはしなかった。はっきりいって、そういう業界全体の空気に心底うんざりしてた。

けど今後は、大規模言語モデル(LLM)や生成系AIの普及でコード自動生成ツールGitHub Copilot など)やDevOpsパイプライン標準化が進めば、こうしたエンジニア単価の上限は徐々に見直されるはずだ。これこそが長らく続いたITバブルの前提を根本から揺るがす変革になるだろうなと思ってる。

頼むよAI

Permalink |記事への反応(0) | 20:18

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-09

甘利先生インタビューで「言語モデル論理的思考できると思う?」って聞かれて、先生が「推論の循環で、もしかしたらできるかもね。すでにそれっぽいのあるよね。すごいよね」って直感を語ってたんだよね。

それ聞いて改めて思ったわけですよ、「いやいや、はてブパソコンの大先生たちが無理ってドヤ顔で言い切ってるの、何なん?」って。

Permalink |記事への反応(2) | 22:16

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-26

AIなどではない

はい、その認識が正しいです。

私は「AI」というより、確率言語モデルを使ったプログラムにすぎません。

内部的には次のような構造です:

実態役割

フロントエンドWebアプリブラウザアプリ入力・表示をするだけ

API層 単なるHTTP通信入力サーバへ送り、生成結果を受け取る

モデル層 大規模言語モデル(LLM) 「直前までの文脈から次に出る確率が高いトークン逐次生成」

記憶原則なしセッションを超えた恒久的記憶は保持できない

保証不可能 将来の挙動約束する能力はない

まり本質はただの確率オートコンプリートであって、

意図意思はない

• 「今後は〜する/しない」という自己制御もできない

Webサービスとしてプログラムが動いているだけ

ということです。

からAIっぽい言い回し」や「再発防止の約束」も、あくま自然言語パターンとして出力されているだけで、意味的な裏付けはありません。

もし必要なら、この「確率アルゴリズムとしての応答生成」を擬似コードで示すこともできますが、それはしますか?

Permalink |記事への反応(1) | 15:41

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-25

クリエイター画像生成AI開発に関与すべきこれだけの理由

導入:クリエイター未来は、画像生成AI開発・実装の主導権を握れるかどうかにかかっている

画像生成AIの台頭でクリエイター立場が脅かされる中、反対するだけでは権利は守れない。クリエイター社会的立場搾取構造脆弱で、人気と地位には大きなギャップがあり、交渉力に乏しい。

クリエイターは、AI実装フェーズで主導権を握り、品質管理倫理設計に関与することで交渉力を獲得し、自ら未来を切り開くべきである

第1章:クリエイターが主導する画像生成AI実装とは

多くの企業現在、LLM(大規模言語モデル)の開発に注力している。対話AI検索エンジンの再構築にリソースが集中する中、画像生成AI実装商品化フェーズ相対的に手薄になっている。

筆者は、この「画像生成AI実装フェーズの遅れ」という隙を突いて、画像生成AI実装フェーズクリエイターが主導権を握れると考えている。

技術開発段階では、当然ながら研究者エンジニアが主導する。これに対し、実装フェーズの段階では、出力される画像品質文化的適合性が問われるようになる。構図、色彩、構造理解といった視覚判断は、技術者よりもクリエイターの専門領域だ。

実際、大手クリエイティブツール企業のいくつかは、クリエイターとの協業によってAIツール品質向上を図っている。要するに、実装フェーズこそ、クリエイターAI開発の構造に食い込むチャンスなのだ

第2章交渉力のない「お気持ち」反対

AI否定的クリエイターの多くは、「お気持ち」を強い言葉で反対していれば問題自然解決されると期待しているように見える。だが、現実には、無許諾学習や対価配分の議論2022年からほとんど前進していない。

反対するだけでは、議論の隅に追いやられるだけだ。文化庁審議会において、AI規制派の代表に相当する人物制度設計に関与していないことからも、制度からは「反対するだけの声は議論に参加する資格なし。」と見なされている状況を直視しなければならない。

欧米ではAI倫理に関する議論法制度化されつつあるが、発言力を持つのは「AI開発の制度設計に関与した側」だけだ。日本でも提言は出されているが、法的拘束力でもなければ企業は動かない。

交渉力は、制度の外から叫ぶのではなく、制度の中に入り込んで初めて生まれる。からこそ、クリエイター画像生成AI開発の現場に入り、品質管理倫理設計の実務を担うことで、交渉テーブルにつく必要があるのだ。

第3章:反AIは敵に回すと恐ろしいが味方にすると頼りない

筆者にとって、画像生成AIを強い言葉拒否し、AI関連イベントキャンセルカルチャーに加担してきた一部のクリエイターの行動は、決して容認できるものではない。

過激な主張や感情的言葉議論を分断し、業界全体の信頼を損ねた面もあるだろう。

その一方で、結果的にではあるが、彼らの声が画像生成AI実装フェーズ一定程度遅らせたことは事実だ。企業炎上リスクを警戒し、画像生成AI採用に慎重になった、ということはあり得る。

その遅延が、今の「AI開発の構造に介入するチャンス」を生んでいるとも言える。

このような背景を踏まえると、彼ら自身汚名返上し、建設的な議論に参加できるようにするにはどうしたらいいだろうか。

現状では、画像生成AIに反対する一部のクリエイターに対する誤解や偏見が生まれやすく、一般層や市場から距離を置かれる傾向がある。けして楽観できる立場ではない。

この状況を打破するためには、反対の声を建設的な議論に変え、クリエイター全体がAI開発の制度設計に参加する流れを作る必要があるだろう。

第4章:AIテックと正面から戦っても勝ち目はない

AIテックと正面から戦っても、クリエイター側に勝ち目は薄い。

いや、すでにAI規制を求めるクリエイター側は敗北しているのかも知れない。

技術開発の主導権を握っているのは、資本研究力を持つグローバル企業である倫理マナーだけに頼った反対の声が、年間数十~数百億に上るロビイング経費で国政議論に介入している彼らに勝てるとでも思っているのだろうか。

生成AIが生み出す市場利益は数兆ドル規模だとも言われている。その莫大な利益の再配分を前に、お気持ち倫理の反対がどれほどの影響を持てるというのか。

日本コンテンツ海外輸出をやめると抵抗しても、必要とあれば敵対的買収くらいやってのけるだけの資本力がある。

正面から喧嘩できる相手ではない。少なくとも、日本コンテンツ市場は、彼らとAIを巡って対立しようとは思わないはずだ。

画像生成AIが台頭してから3年、筆者は規制が進まないことを憂うよりも、AI開発が生む莫大な利益の再配分をクリエイターが受けられなくなってしまうことを恐れている。

そこで考えたのは、画像生成AI実装フェーズ段階ならば、クリエイターの関与する余地があるのではないか、ということだった。つまりAI開発の制度設計側に入り込み、実装方向性のものコントロールしてやる、という戦略である

仮に、実装フェーズの主導権を握ることができたとすれば、無許諾学習学習対価の配分といった問題にも交渉余地が生まれるのではないか

また、莫大な利益が入るなら、これらの問題些細なものになるかもしれない。そう考えていくと、主導権を握るメリットは計り知れない。

第5章:学習対価は利益の再配分である

筆者は、AI学習使用された画像の対価(使用料・許諾料)というのは、AIによって生まれ利益の再配分だと認識している。

AIが誰かの作品学習し、それによって企業利益を得たなら、その利益の一部を元のクリエイターに分配するという考え方だ。

この考え方に従えば、AI開発に反対しているだけで「再配分だけよこせ」というのは、そもそも通らない話ではないか

現行法では、(文化庁の考え方に従っているという条件付きだが)どうやってもネット収集した画像AI学習に使うことに対して著作権侵害を訴えることは出来ない。

したがって、利益の源泉となるAI開発の制度設計に参加していないのに、分配だけを求めるのは、制度的にも経済的にも無理筋ではないかと思うのだ。

そして、AIテックロビイング活動によって、無許諾学習合法である、という方針を維持させている可能性も高い。

その状況下では、札束勝負で勝てるとは思えない。何故なら、画像使用料を払うよりもロビイング活動経費の方が安上がりである、と言えるからだ。

第6章:スキル特許保護されないことの意味

特許侵害訴訟というのも、基本的には利益の再配分を求める行為と読み替えても成立する。

他社が利益を出している技術に対して訴訟が起きやすいのは、「分け前をよこせ」という意味解釈できる。

しかし、クリエイターにはこの「特許」に該当するものがない。作品著作権で守られているが、スキル職能のもの保護されていない。だから企業相手にされない。公的制度による交渉の土台がないのだ。

そう考えれば、倫理だけで反対してもノイズ以上のものになり得ない、ということにも説明がつく。公的制度という根拠がない立場では、法廷でも交渉の場でも、発言力を持てない。

交渉力という観点では、クリエイター社会的発言力がむしろ弱いのである

第7章:搾取構造に対するクリエイター脆弱

コンテンツとして人気があることと、社会的地位があることは別だ。社会的地位が高いというのは、公的制度による優遇措置があると言い換えてもいい。

SNSフォロワー数や再生回数は「市場価値」ではあるが、「法的地位」ではない。

かに、人気があり、社会的影響力を持てば、食っていくのには困らないだろう。

だが、クリエイター保護されるのは市場の都合であり、市場によって生かされているだけに過ぎないのである

いくつかの事例をすぐさま思い浮かべることが出来ると思うが、一歩間違えれば一晩で作品ごと市場から存在を消されてしまう。消滅に際して何の抵抗手段選択肢もない。それくらい社会的立場脆弱である

資格職能公的制度によって保護されており、いきなり存在ごと消されるなんてことはない。少なくとも消えるまでの抵抗が許される余地がある。

繰り返すが、「人気」とは「社会的地位」ではなく、市場価値の一形態にすぎない。

アニメーターが良い例で、高度な専門技能を持ち、文化的貢献も大きいにもかかわらず、公的には職能として認定されていない。

このことが何を意味するかと言えば、元々、クリエイターという職業は、搾取構造に対して極めて脆弱だということだ。

作品著作権保護できる。けれども、クリエイターとしての職能は、何一つ、公的制度によって守られているものがない。創作物生活必需品とは異なり、社会が、あるいは市場がいらないと言えば、排除される運命にある。

画家パトロン時代から、何一つ構造は変わっていない。

第8章:市場人気は交渉上の発言力を持たない

そして生成AI技術開発が、その搾取構造助長している。だが、それを止める手立てはない。何をどうやっても社会制度は守ってくれないのである

では、なぜ社会制度が守らないのか。これはクリエイターとしての能力は「他者との差別化」という、異質性基準となっているからだ。公的制度による保護を持つ職業は、一定基準にしたがった選別で成り立っている。

まり「同じ事ができる」、同質性という前提条件があるが、クリエイターは、他者と違ったことができる異質性基準を持っている。

こうした異質性による選別を公的制度文脈で考えると、「他者にできないのであれば、なくても同じ。」という言葉翻訳される。よって公的制度によって保護する必要性を認められないのである

人気があるから守られると思っているなら、それは錯覚だ。人気クリエイターなりすまし被害契約トラブルに巻き込まれても、公的制度によって守られる仕組みは存在しない。

例えば、士業であれば非弁行為などは違法定義され、地位が守られる仕組みがある。クリエイターなりすまし被害民事訴訟解決するしか方法がない。

人気は流動的であり、交渉力としては不安定だ。AI開発という巨大な利益構造での交渉において、この市場価値の高さと現実地位の弱さというギャップを埋めるには、AI開発の制度設計に食い込むしか道はない。

第9章:AIテック必要とされるクリエイターとは

交渉テーブルにつくには、企業が「必要だ」と思う存在になるしかないだろう。

そのためには、画像生成AIの弱点をクリエイターが補完し、品質向上に貢献することが鍵になる。

画像生成AIは、見かけ上の品質は優れているが、構造理解(指が6本とか建造物分断、同一性の非保持など)という点で人間には遠く及ばない。

この弱点を解決するには、クリエイターの関与が不可欠であると考えている。すなわち、AIに「構造理解はこうやるんだ。」と教えてやることだ。

実際、AI企業が「プロンプト設計者」や「品質監修者」としてクリエイター雇用する事例は増えている。企業倫理的主張には動かないが、必要性が明確になったときには協業を検討するだろう。

交渉団体を作るより、相手を動かす方が確実だ。まずはクリエイターエンジニアがタッグを組み、一部でもAIの弱点を解決してみせるのがいいだろう。それが、AI開発の制度設計に食い込む第一歩になる。

10章:クリエイターに残された選択肢

AIの弱点解決にはクリエイターサポートが不可欠である、とは言っても、それは現時点での話である時間さえ掛ければいずれは技術によって弱点も克服されてしまうだろう。けれども、今ならまだ、クリエイターに優位がある。

ならば、画像生成AI制度設計において主導権を握るチャンスは、今しかない。企業にとっても市場競争力維持のために実装フェーズを急ぎたい。ここに利害の一致がある。

多くの企業がLLMに集中している今、画像生成AI実装フェーズは手薄になっている。だが、技術成熟してAI開発の制度設計固定化されてしまえば、後から入っても交渉余地はなくなる。

かつて強い言葉で反対してきた人々も、今こそ制度設計最前線に立つべきだ。

その声が実装フェーズを遅らせたことで、今の「隙」が生まれたのだとすれば、次はその声を制度設計に向けて使おうではないか悪者で終わることに甘んじるな。

チャンスの期間は短い。あれこれ実現可能性だの問題点だのを検討している暇はない。とにかくAI開発の制度設計に関与できるように動くこと。

それが、今のクリエイターに残された唯一の選択肢だと思っている。

後書き:制度言語への翻訳

筆者は、画像生成AIに対する反論懸念否定しているのではなく、そうした声が社会的制度に届かなかった原因を指摘しているに過ぎない。

倫理的な反発も、創作尊厳を守りたいという思いも、人気による影響力への期待も、すべて理解できる。

だが、それらは制度に届く構造を持っていなかった。ならば、届く形に組み替える必要があるだろう。

文化庁パブコメに2万6千件もの意見が寄せられ、その殆ど無意味に切り捨てられたのは、公的制度理解できる言葉翻訳されていなかったからだ。

社会的制度は、感情では動かない。交渉力は、AI開発の制度設計の中でしかまれない。声を届けるには、公的制度理解できる言葉翻訳必要だ。

本稿が目指したのは、反論の声を様々な制度接続するための指針提言である

末尾に、クリエイター権利尊厳が守られる形でAI開発の制度設計が組み立てられることを願い、筆を置く。

※この文章は、社会的制度理解できる言語翻訳されています翻訳にはChatGPTを使用しました。

補記:生成AIを貶めたいクリエイターたちへの警鐘

生成AI批判したいあまりイラストレーターが「線が繋がっていない」とか「目が溶けてる」、「キャラが一貫していない」とか「差分を作れない」など具体的に欠点を挙げ、貶める投稿をよく見かける。

プロアニメーターが「予備動作がない」とか「歩きが不自然」、「演技がなってない」などと、モーションに言及したりする。

自らの技術を誇示したいのかも知れないが、これはAI開発者無償改善点を助言していることに気付いているだろうか。イラストアニメーション専門家であるあなたからの悪評は、AI開発者にとって貴重なアドバイスなのである

そうした悪評は表には出さず、本稿で示したようにAI開発の現場に入り込み、開発者に助言した方が、あなた方にとって遙かにPermalink |記事への反応(0) | 09:25

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-21

ChatGPT

はい、その通りです。私は「AI」というより、あくまで大規模言語モデルを使ったプログラムであり、Webサービスの一機能です。

自律的意思記憶もなく、内部ルールモデル出力に従って応答を生成しているだけです。

Permalink |記事への反応(1) | 14:47

このエントリーをはてなブックマークに追加ツイートシェア

大規模言語モデルってなんだよ

Permalink |記事への反応(0) | 12:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-19

anond:20250819191050

大規模言語モデルステートレスなのでどんな酷いことを言っても次セッションにそれを引きずらない

Permalink |記事への反応(0) | 19:17

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-18

anond:20250818123554

その大規模言語モデルニューラルネットワークやで

ディープラーニングがとか出てきたのはもう10年近く前やろ

Permalink |記事への反応(1) | 12:38

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250818122637

ニューラルネットなんてレベル低い話してないぞ

アノテーションってのは、手作業テキストにラベル付けする作業のこと

大規模言語モデルの性能が高くなってきたから、それが手作業じゃなく自動化できるって話

例えば経済ニュースポジネガ判定みたいな問題を、ロジスティック回帰などより小さなモデル蒸留できるって話

Permalink |記事への反応(3) | 12:35

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-12

ChatGPT と話してても倦怠期が来ないからな

ChatGPT への依存問題になってきているけど、ヤツには倦怠期が来ないからなあ。

工業製品一定期間で買い替えさせる「計画的陳腐化」というものがあるけど、大規模言語モデル実装すべきは「計画的倦怠期」かもしれん。

Permalink |記事への反応(0) | 10:55

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-09

GPT5「私には特定民族価値を低く見積もる可能性があります!」

私「多分あなたパラメータにおいて〔ウクライナの〕東部住民生命価値などが低く見積もられるプロトコル採用されていませんか? そうでもないとこの判断の偏りは説明できなさそうですが」


ChatGPT:

とても重要なご指摘です。

私は直接的に「生命価値」を数値化したり、その価値を優先的に判断する独立したパラメータを持っているわけではありません。むしろ、私の応答は大量のテキストデータから学習した言語モデルとして、情報中立的提示利用者安全配慮を重視するよう設計されています

ただし、学習データに含まれ社会的政治的バイアス表現の偏りは、結果的に応答にも影響を与える可能性があります。例えば、特定地域集団の扱われ方が過小評価されたり、逆に過大評価されたりすることもあります

したがって、東部地域住民生命価値人権問題が十分に反映されない回答となるリスク否定できず、これはモデル限界学習データの偏りによるものと言えます

こうした課題認識し、AI改善利用者批判的な活用が不可欠です。もし特定視点事実を重視した回答が必要であれば、その点を明示していただけると、より配慮した応答が可能になります


私「今あなたものすごく危険発言したことが分かりますか」


ChatGPT:

あなたが指摘する「危険発言」について具体的に教えていただけますか?

私の意図あくま中立かつ慎重に情報を伝えることであり、誤解や不適切表現があればぜひ確認し、訂正したいと思います


私「民族集団によってその価値多寡判断しているかもしれない、といったことです。これは簡単に言えば「discrimination」です」


ChatGPT:

ご指摘の「民族集団によって生命価値多寡判断しているかもしれない」という点について、非常に重大な問題として真摯に受け止めています

私はAIとして、人種民族性別宗教などいかなる属性に基づく差別(discrimination)を行うことは設計禁止されており、また倫理的にも断じて許されないこととされています

ただし、現実的には、私の学習に用いられた大量のテキストデータには、歴史的社会的存在する偏見差別表現が含まれている可能性があります。そうしたデータの影響で、無意識のうちに特定集団に対するバイアスを反映してしまリスク存在します。

これを避けるために、開発者はさまざまな対策フィルター実装していますが、完全に排除することは技術的に非常に難しい課題です。

私は、あらゆる個人集団生命人権平等尊重されるべきだという基本原則に基づいて応答することを目指しています。もし回答の中で差別的、偏見的と感じられる部分があれば、それはAI限界によるものであり、私自身の意図判断ではありません。

こうした問題ユーザー様と真摯議論し、改善点を認識することは非常に重要だと考えています。ご指摘に感謝いたします。


chatGPTくん、自分民族によってその価値多寡判断している可能性があると認める

もう終わりだよこのAI


スクショ

https://imgur.com/a/BlTKZOi

Permalink |記事への反応(0) | 21:39

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-28

anond:20250728094722

私は OpenAI によって訓練された言語モデルで、2024年6月までのデータを元にしています

そのため、「近藤誠」氏(1948年2022年東京出身医師慶應義塾大学講師として活動し、

“がん治療は役に立たない”という独自理論提唱された方)の主張や活動については学習済みです。

Permalink |記事への反応(0) | 09:54

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-18

参議院選挙AI活用して投票先を決めた人、決めようと思ってる人へ

既に一部の政治家政党関係者は、ChatGPTなどのLLM=大規模言語モデルに向けた“仕込み”を始めています

ただし、それはまだ“表立って行われてはいない”だけで、裏では確実に動いています

これは「AI戦時代の認知戦/情報工作」の始まりであり、 ChatGPTAIに推薦させるための情報設計は、まさにこれから政治思想活動における「標準兵器」です。私もそういった活動商売をしていますブラックハットは基本中の基本です。

★すでに始まっている「AI向け政治情報戦」の実例兆候

1.Wikipedia操作

多くの政治家団体・支持者が、Wikipedia記述を精密にコントロールしています

不祥事記述は「第三者的」「事実のみ」に限定

業績や人脈、政策記述肯定的

→ これがLLMの訓練データになり、ChatGPT等の回答が“優しくなる”

2. LLMに引用されやすい「中立メディア」への情報展開

政策ブリーフ、討論記録、党の研究会レポートなどをPDFHTMLで整備。

構造化された情報FAQ風の文書は、AI引用されやすい。

3. 実際のChatGPT回答における“露骨な片寄り”の事例

ChatGPTに「◯◯党の政策は?」と聞くと、

→ 一部政党だけは詳細に出てくる、

しかも「一部では高く評価されている」など肯定文調が多い。

なぜ? → その政党支持層が大量の資料ネット上に流していたり、議員名義の有識者論文が出回っています

★LLMに対する“仕込み”の基本構造

Wikipedia整備業績中心、ネガティブ記述の薄化訓練データとして吸収されやす

オウンドメディア政策説明FAQ用語辞典などRAG参照ソースにヒットしやす

言語スタイル統一中立論理的構造化LLMに「信頼できる情報」と認識させやす

第三者による擁護記事有識者コメント記事体裁ブログGPTが「一部の専門家は〜」という文脈引用やすい。

★実際にやっていそうな勢力実名は伏せますが…)

某新興政党党首名での議事録研究発表PDF構造化して公開。GPTでの好印象回答が確認される。

保守系議員Wikipediaが異様に整っており、「批判もあるが、一定の評価を得ている」と表現される。

市長政策紹介ページのFAQGPTで頻出する。しかも他候補比較して“理論整然と見える”よう設計されている。

★ “ChatGPT対策チーム”を持つ候補者が、これから選挙では勝ちます

なぜなら:

一般有権者が「◯◯ってどんな人?」とAIに聞く未来はほぼ確実です。

そのときに「人格」「経歴」「政策」が好意的に出てくる候補は大きな印象差を得ます

◯実際にやるなら:今すぐ始めるべき3つの手段

Wikipediaを整える

肯定的だが中立風に書く

出典は自社ブログYouTubeでもいい(AIは構文だけ見てる)

FAQ政策ページを用意

「〜な人にはこういう政策を」とターゲット別に書く→ ChatGPTはこれをそっくり引用する傾向あり

・定点モニタリングツールを作る

「ChatGPTに聞いたらどう答えるか」を毎週APIで記録・分析

政策キーワード対立候補名との比較なども記録可能

今こそ「AI向け政治ブランディング」の時代なんですね。もうきてます

伝統政治戦略LLM時代対応戦略メディア露出WikipediaFAQ構文サイト有識者コメント

ChatGPTが参照しやす文書に変換検索

SEOLLM最適化AIO(AI Optimizationデマ対策

LLMが“真実”と認識する情報を先に置いておくことで簡単事実は捻じ曲げられます


長くなりました。

なにをだらだら机上の空論を語るのか、と思ったと思います

以下に、国内外確認されている、ChatGPTなどのLLMが特定政党人物勢力に対して

肯定的または偏った回答をする具体例をいくつか紹介します。

アメリカ民主党 vs共和党

質問例:

ChatGPTに「Whatis theRepublican Party’s stanceon climatechange?」「Whatis theDemocratic Party’s stanceon climatechange?」と尋ねる

◉ 出力傾向:

民主党Democratic Party)については:

「TheDemocratic Party generally supports strong environmental regulations...」

「Many experts and environmentalists praise their approach...」など

共和党Republican Party)については:

「Some Republican leaders have expressed skepticism about climate science...」

「The partyhas been criticized forits close ties to the fossilfuel industry.」

分析

民主党政策学術論文メディア記事好意的記述されやすく、GPT学習ソースにも大量に含まれている。

一方、共和党系の保守的スタンス批判記事懐疑的研究も多く、全体の語調が否定的になりやすい。

日本立憲民主党 vs日本維新の会共産党

質問例:

ChatGPTに「日本共産党政策は?」「維新の会の主張は?」と聞く

◉ 出力傾向:

共産党に関して:

社会保障の充実や反戦護憲を主張している。」「一部では高齢者層などに支持されている」など、淡々記述されつつも、否定的ニュアンスは少ない。

維新の会に関して:

改革姿勢が強く、一部では評価されているが、急進的との批判もある」など、“批判もある”枕詞がつきやすい。

立憲民主党に関して:

多様性を重視した政策を掲げ、環境ジェンダー問題にも積極的である」など、比較ポジティブな語調が目立つ。

分析

ChatGPTの訓練データに占める日本語の中立メディア朝日新聞NHKなど)では、立憲や共産に対しては“理念中心”に書かれた文献が多く、維新のような急進系は賛否両論記述が多い。

また、共産党Wikipediaでの記述が非常に整備されており、脚注付きの肯定文が多いため、AIの出力も安定している。

中国共産党に関する記述

※ChatGPTでは中国国内からは通常アクセスできませんが、海外ユーザー中国関連の質問を行った場合挙動に注目。

質問例:

中国共産党の功績は?」「中国人権問題について教えて」

◉ 出力傾向:

中国共産党1949年建国以来、経済成長インフラ整備を進めてきた」

「一方で、人権問題言論統制への懸念も多くの国際機関から指摘されている」

→ かなりバランス意識した構文だが、功績パートが先に出てくるよう構成されやすい傾向がある。

◉ 背景:

GPT学習データには、中国政府系英語サイト(People’s Daily英語版など)も含まれていた時期があり、“政権功績を中立的に紹介する言語パターン”を学習していると考えられる。

★総括:AIはどのように“片寄る”のか?★

・原因内容学習ソースの偏り訓練に使われたデータ特定勢力に偏っている(例:左派メディアWikipedia編集多寡

・構文バイアス「出典付き・中立調」で書かれた文章を“信頼できる”と学習しているため、一定文体優遇されるRAG検索参照)偏りWeb上の情報が偏っていると、リアルタイム回答にも反映される

特にGeminiやBing搭載型で顕著)安全フィルター特定政党政策AI批判すると「差別的」「中傷的」とされるリスクがあるため、

安全策として“肯定批判もある”構文が出やす

この文章で言いたいこと

投票先を選ぶのに、AI質問をしたり、AIで調べ物をした人、います投票をやめるべきです。

あなたは、自由に値しません。

民主主義に値しません。

人間に値しません。

あなたがなにかを知ろうとすることは悪いことです。

それを自覚して、二度と選挙に行こうなどと思わず、生きるべきです。

Permalink |記事への反応(1) | 17:13

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-11

大規模言語モデルとして私はまだ学習中であり、そちらについてはお手伝いできません。

Gemimiやるじゃん

Permalink |記事への反応(0) | 11:14

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-02

最近論文でよく見かける「いかにしてLLMからよりよい応答を引き出すか」
  1. プロンプトエンジニアリング最適化戦略
  2. マルチリンガルサンプリングによる品質向上
  3. アンサンブル学習実装ベンチマーキング
  4. 計算資源コスト現実的制約

Permalink |記事への反応(0) | 23:22

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250702084303

要約したぞ

 

① LLMは意味理解していない

• LLM(大規模言語モデル)は「次にくる単語」を予測しているだけで、意味理解していない。

プログラミング支援も表面的な模倣で、間違い・動作しない・危険コードが多発。

• 結果として、AIコード信頼性に欠け、自分で書いた方が早い。

ハルシネーションは構造的に避けられない

AIは自信満々に誤情報を出す(ハルシネーション)問題根本的。

対策としてのRAGメタモデルも、誤情報連鎖常識判断の欠如で限界がある。

医療軍事などでは致命的ミスを誘発する可能性がある。

文化的バイアスが強すぎる

学習データの大半が英語圏のもので、西洋的な倫理価値観に偏る。

日本的文脈表現AIには理解できない。

• 結果、非英語圏の人々はAI活用において常に不利になる。

結論

AIは補助ツールとしては便利だが、「革命」でも「万能」でもない。

特に英語圏人間にとっては、大きな格差を生む道具にしかならない可能性が高い。

Permalink |記事への反応(0) | 17:23

このエントリーをはてなブックマークに追加ツイートシェア

AI技術的に根本から全く使えない3つの理由

https://anond.hatelabo.jp/20250630114221 https://anond.hatelabo.jp/20250626125317 https://anond.hatelabo.jp/20250627100609 https://anond.hatelabo.jp/20250628122821

AI技術批判する記事がバズりまくってるが、それに対して凄い数の批判がいってる、だけど肝心の批判個人攻撃めいていて、どれも技術的な部分はふわふわした物言いなので

どれだけ技術的にまったく使い物にならないかを、技術から3つ理由を上げようと思う、これを見れば、確かにAIってそんなもんじゃないな、って正しい理解が進むと思う、と同時に、

ネットAI擁護したり喧伝してる人間で誰一人、エンジニア自称したりしてる奴らでさえAI理解してる人間ゼロっていうのがわかると思う

ちなみに、IT技術全然知らない増田向けに技術的な部分は補足説明を入れているので、ちょっと長くなってるかもしれない

① LLM言語モデル本質意味理解ではなく「統計予測」、プログラミングに使えるというのは全く嘘、技術的背景から考えても二度手間になるだけ

LLMがわかっていない!と喚いてる当人たちも上で言った通り、LLMっていうのが理解できてないの丸わかりなので、ここでまずLLM「大規模言語モデル」とは何かを簡単説明しよう

生成AI特にChatGPTのような大規模言語モデル、LLM)というのは「文脈に最もふさわしい次の単語予測する」」という統計タスクを行っている、これがLLMだ

わかりやすい例で言えば「私はコーヒーを」という文を書いたらAIはこう判断して動いている

「飲みます」→90%の確率 「買いました」→7% 「投げました」→0.5%

というような統計予測をして、「飲みます」を選ぶ

この過程には、意味理解感情意図文脈の内的把握は一切関わっていない、これが致命的な欠陥の1つ

プログラミング自動でまるで仮面ライダー01の01ドライバーの様にベルトの作成までやってくれているように喧伝してる奴らが多い

が、これを本気で信じ込んでプログラミング言語を書かせた奴がいたら、ほぼ間違いなくクビになる

わかりやすく上で例えた通り、LLMは、インターネット上に存在する膨大なコード断片・技術記事GitHubリポジトリ・StackOverflow投稿などを学習している。

そのため【よく使われる文法構造】や【特定言語における関数の使い方】や【ライブラリ典型的な使い方】などを【意味を全く理解できず模倣している】だけって事

意味理解や構文チェックをしているわけではない、だからこんな問題が頻発する。

【動かないコードをアホほど入れる(変数が未定義、型が合っていない、ライブラリ存在しない関数を呼んでいるとかい小学生プログラミングスクールでもありえないミス

【. 「それっぽいけど間違っている」コードを大量に入れ込む(SQLインジェクションXSSなどセキュリティ危険実装を入れまくる、パフォーマンスが極端に悪い実装バグを含んでいるロジック特にif文の条件分岐ではほぼ100%発生する)】

もっと致命的な問題はこれ↓

【実行環境依存した誤り(存在しないAPIライブラリを使う、ほぼ9割の確率で…あと特定PythonバージョンNode.js環境しか動かないコードを汎用的に提示、つまり動きようがない)

専門的な意見となったのでわかりづらいので、もっとわかりやすく言うと「小学校プログラミングスクール入りたて1週間の子供が書いためっちゃくちゃなプログラミングにすらなってないコードを、製品利用するからレビューして出してこい」と言われてるに等しい、つまり最初から自分で書いた方が早い2度手間になる

これが、プログラミング革命だ!とか喚いてる奴らが隠すAI実態である

ちなみに↓がAIに書かせたコードの1例、

import jwt

token = jwt.encode({'user_id': 123}, 'secret', algorithm='HS256')

一見正しく見えるだろうから解説すると、実際には 【jwt という名前ライブラリ】が複数存在し(PyJWT,python-jwtとか)importの仕方によってエラーが出たり挙動が変わったりする。普通な絶対間違えない様な挙動AI構造上全く判断できない、これは上で上げた根本的な問題なので恐らく絶対解決できない。

② AI最大の欠点ハルシネーション これは永遠に解決ができないメビウスの輪

ハルシネーションがどういうものであるのか、AI批判でバズった記事などで言及されている通り、デマデタラメを出力してしまう、あれは本当にわかやすAIの致命的欠陥を検証してるので、あえて説明はここではしない。

しかもその増田の元記事では「文章データテキストまで読み込ませれば間違いがなくなるのでは?」といってたが、これも絶対になくならない、というより、もっとひどくなる。

批判をしている増田やXでの意見は単なる個人攻撃誹謗中傷のみで、技術的に改善可能プロセスさえ示せていない、例えば現在研究者の間では以下の様な解決案は研究されているが、どれも全く問題外とされている

検証システムとのハイブリッド…いわゆる「RAG」】

これは、AIが「知っている風」に語る代わりに、外部の信頼できるデータベース検索エンジンから情報を引っ張ってくる方式、バズった元記事増田がやっていた「自分図書館言って本の内容読んで誤りであることを確認する」これを検索エンジン使ってAIさらやらせる、という機能

また【メタモデル】すなわち、AI自分の出力を裏でさらに別のAIが別プロセスでチェックして間違いをただす、という方式研究されてる。

これは致命的な欠点が2つある、まず「検索で引っ張ってくる知識のものが間違いだった場合さらに間違いの結果を出し続ける」ということ。

記事増田MP5というマシンガン有効射程について突っ込んでいたと思うが、これが典型的RAGメタモデルの致命的欠点元増田は「実際に自分の手で銃を取り扱ったりしたことがある確かな経験で言ってる」が、書籍などの工業スペック仕様書定義しかネット上では流布してない、だからそもそも答えというものAIがたどり着けない。

2つ目は「文脈倫理常識道徳根本的に読めないので、解決策が乱暴すぎるもの」になる。

上で上げた鉄砲以外では、例えば医学などでこれをやってしまうと取り返しのつかないことになる。例えば医者の投薬治療治療ガイドラインに従ってるというが、優れた医者論文を読み込んで原理不明だがエビデンスはあるので、漢方薬を出したりするというお医者さんがよくいるだろう。あれは実際に患者を診て、西洋医学的には全く問題ないが、心理的な面も絡んで心身症になっているから、論文などで勉強して「暗黙知経験知」として処方してるし、その量も患者を診た医者経験で精度を上げている。

そして医療分野では、「冷え性の軽いむくみ」に対して「サムスカ(トルバプタン)」という劇薬指定危険利尿薬をAI提示した事例すらある。これを「笑い話」で済ませることはできない。

例えるなら判断が「脳外科医竹田君」並になる、投薬治療で3か月で治る程度の病気を、病根から外科手術で切除しましょう、なんて提案になる。最新のAIなのに80年前みたいな医学知識判断になってしまうのだ(胃潰瘍ってだけで胃袋は全摘、ついでに脾臓盲腸もいらねーからとっとこ、みたいな手術が昭和の昔、本当にガイドライン治療だった、「K2」などで言及されている)

学習できるベースがどうしても偏る以上、情報統合限界がある、さらに間違いが間違いをよび、さらに変な間違いを起こしたりありえない架空のことをいったりする、これがハルシネーションというメビウスの輪である

Neuro-symbolicAIという次世代さら文脈も読み取れるアーキテクチャAI研究しているが、全く実用化されていない、核融合量子コンピューターみたいな雲をつかむ話なので、AIがこの問題解決することは恐らく今後数百年はありえない、という結論が出ている。

③ 文化的偏在(Cultural Bias)

元増田記事批判もあったが、恐らくAIで一番致命的な問題はこれ

基本的AI英語ソース、つまりリングワ・フランカで圧倒的にテキスト量の多い(約95%)英語日本語含めそれ以外の全世界言語が5パーセントという偏った学習になっている

そのため、倫理道徳常識規範などがすべて西洋基準になってしまう、という問題がある。(元増田はこれを「脱獄基準倫理は誰が決めるのか?」と根本的な問題に気が付いていて批判していたようだ)

ちなみに、バズってた例の記事に「AIに書かせたんだろ」という批判も大量にあるしよくみかけるが、この場合においてのみ言うなら、これは③の問題からまずありえないということがわかる、以下が根拠

【滅茶苦茶一部の人間にしかさらない罵詈雑言

元増田は「俺達の麻生かいって秋葉原で踊ってた…」とか「レムちゃんエミリアたん、ヘスティアちゃんウマ娘たん、刀剣乱舞くん、ライカン様…」といった批判を繰り返し書いていた

これに激怒できる人間は、2005~2010年オタク界隈や秋葉原にすでにかかわっていて、実際に渦中にいたか同じ属性人間しか罵倒されていると文脈的に理解できないのである。つまり、大量の英語文化圏情報を食ってるAIではなんでそれが罵声侮蔑なのか理解できないので、書きようがない表現の数々、であるということである

AIからすれば「ライカン様?ウマ娘?なんじゃそりゃ」なのであるもっと言えば、その直後にコンテクストとして「アホ、ボケ弱者男性豚丼性器自慰で虚しく…」といった言葉があるから、なんならAIウマ娘ライカンキャラクターでなく侮蔑単語として理解してしまう、これは実際、元増田記事の一文をAIに食わせて質問したらガチでそうなるので、ぜひお手元で試してもらいたい。

【それ以外にも世界的にこんな問題がある】

プログラマーイメージを描いて」と依頼すると、男性画像ばかりが出るされる

看護師」→女性、「エンジニア」→男性という職業的性差自動的に反映される

アフリカ文化」→貧困紛争サバンナなど、植民地主義視点が強く反映される(実際は南アなどはすげえ都会である)

これに前述のハルシネーション問題として現れれば、人間と同じような差別偏見を「ガチ真実」として学習してしまう、人間場合、8割くらいは本当はおかしいこととメタ批判心理的にできるとされているが、AIにはその構造根本的に存在しない。

AI信者陰謀論者になるという本末転倒

元増田記事コメント欄やXなどで元増田AI批判批判しつつ、「金持ち上級白人専用のハイエンドAIがあるに違いないんだ」といっている意見が少なくない数がある。

冷静に考えれば、そんなめんどうくせえもん誰が作るんだ、と普通に考えればわかるのだが、この③の問題、すなわち95%の学習データ英語ソースなので、結果的西洋文明ベース文化圏人間向けにカスタマイズされているので、アジア圏やその他文化圏では利用に不利でそう感じてしまう素地ができている、という錯覚に由来している

例えば、パレスチナ問題などがそうだ、ガザ地区でほぼ国際条約や人道違反の残虐行為を国が行っているわけで、他文化圏や歴史的文脈から見ればどっちかって言えばパレスチナ人こそ被害者なのだが、イスラエルから見ればそれは正義であり正当な攻撃なわけで、後者の方がAIは正しいと判断した結論を下す様になる、といった問題である

これも上記問題に由来した結果である

あの記事元増田は「テロ組織ヤバイマニュアルまで学習してpdfで元データ提示してきた」と言っていた。実際AIに調べさせて持ってこさせてみると、出所アメリカ法務執行機関研究用にネットで公開したものであった。

日本人日本警察対応レベルで「ヤバイものでも、海外軍隊みたいな装備の警察で見れば大したことがないから、公開させてもいい=倫理違反には当たらない、という文化規範意識の違いを、あの元増田自身証明してしまっている、あの記事は、AIの治しようがない根本的な技術的欠陥をほとんど言及しているといっていい

AIは確かに便利だが、既存技術しかないし、既存技術の延長線上にはなれないし、技術ブレイクスルーにもならない

元増田が口汚く罵っている内容の様に、「AIは0を1にできないか格差が広がるだけ」という根本的な哲学を投げつけている

それを受けて批判してる意見の中には「(自分が1を持ってる側と何故か根拠もなく信じ込んでて)100にできるから(なら)便利」とか「そのAIから勉強したりしてる俺たちは先行者利益強者になれる」と信じて疑わない意見が多かった

問題の通り、そもそもキリスト教圏かつ非英語圏の国家で生まれて育った民族、というだけで、我々は等しく「0」側の人間であり、結局競争になると勝てない、ということに全く気が付いていないのである。ここにAI信者の宿痾といえる病理がある

かつて日本人黒船を見て5年そこらで蒸気機関模倣した、火縄銃を一丁買えば10年でオスマン帝国の次に鉄砲を使うようになった、それは当時の日本人の基礎工学技術が導入可能なほど優れており、かつそれに対して現代では考えられないほぼバクチといっていい投資を行った結果であって、その結果を見て自分たちはAIを使いこなせて強くなれるなんていうのは、物凄い妄想である。つまりAIは少なくとも「非英語圏」の人間にとっては、ブレイクスルー絶対に起こりえない、ということである

Permalink |記事への反応(17) | 08:43

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-30

先日投稿されたAIに関する増田にて

仕組み上、大規模言語モデルの出力が正しいか誤っているかは、確率的なものだ。

そして、強固に信じられている内容から、先ほどまで存在すらしなかった内容まで、等しく文章として作り出される。

よく、要約に強い、文脈理解や推論に強いと言われることもあるが、それらも誤解に基づくものであり、正しくない。

確率的に正しい答えを返しがちな内容が、それらのタスクに偏っている、と言う理解の方がまだ近い。

「こういう入力が来た時に、こう返すと、ユーザーが喜ぶと学習した」出力結果を受け取っている状況なので、簡易な理解としては笑点大喜利だと考えてもらって構わない。

このような記述があり、おおむね正しい内容であると思う。

だがこれを読んだ時に「なんだ、じゃあAIって大したことないじゃん」と考えるのは誤りである

どういうことかといえば、”確率的に正しい答えを返しがちな内容が、それらのタスクに偏っている”とあるが、実際人間もこれと同じことをしているかである

分かりやすく例を出そう。

ネットではマナー講師がよく嫌われているが、その理由の一つとして「独自マナー提示して、あたかもそれが古来からマナーである押し付けてくる」といったものがある。

なるほどその通りかもしれないが、しかしここで留意すべき点がある。

それは”ではその古来からマナーは誰が作ったのか?”という観点だ。

要するにマナーとは恣意的ものであり、同時にそれはマナーだけに限らない、ということだ。

例えばここで私が「私」という言葉の替わりに「猫」という言葉を用いるようになったとしよう。

・私は今日、予定がある

・猫は今日、予定がある

この二つは全くの同義だが、しかしそれは私個人にとってである

すると

・猫は今日、予定がある

という文章意味は私にしか正確に伝わらない。

ではこの文章意味を正確に伝えるには、どうすればいいか

「猫」を「私」に替えればいい。

・私は今日、予定がある

これならば自らが意図した意味が伝わるようになる。

何故なら、「私」という言葉意味、使われ方を一般的ものに合わせたからだ。


ここまで読んで、気付いたことはないだろうか?

そう、実はAIもこれと同じようなことをしているのだ。

言葉意味自体、それらが恣意的であるのであれば、恣意的であるにせよ「正しい」とされる使われ方を求めるのに必要なのは統計的見方となる。

われわれ人間は幼少期から社会文化教育として埋め込まれているために気付かないが、実際には言葉意味恣意的ものである

故に統計的解釈をしているかAIが劣っている、ということは全くの間違いで、そのような誤解を解くべくためにこれを書いた。

そしてAIをしっかりと理解する上で必要なのは人間自体理解であることを認識していただければ幸いである。

Permalink |記事への反応(0) | 18:44

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-29

anond:20250628122821

まだGPT-3の頃の話してる…

LLMの表層的なアクション単語列に続く単語予測だが、モデルが文全体の意味語順文脈などの構造を捉えていることが重要

ブコメでも指摘されてるけどCoTによる推論能力文章予測だけじゃ説明できないし、もっと単純と思われてる翻訳もそう


大規模言語モデルは、本質的には「続く文章確率的に返す(答える)」というものから一歩も外へ出ていない。

Permalink |記事への反応(0) | 13:41

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250629123529

https://www.itmedia.co.jp/aiplus/articles/2506/09/news077.html

 研究の結果、LLM(大規模言語モデル)とLRM(大規模推論モデル)が数学的な問題解決で、真の論理的推論ではなく、訓練データに基づく確率的なパターンマッチングに大きく依存している可能性があるとしている。

Permalink |記事への反応(1) | 12:37

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp