
はてなキーワード:自然言語とは
きっかけは、学生時代にちょっとしたレポートでテキストの単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。
英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。
その瞬間にちょっとハマったんだよね。
辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。
そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。
Pythonでテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語に対応させたり。
「言葉を数理で扱える」って発見が、ちょっとした中毒になった。
その頃はMosesとかGIZA++とか、ああいう統計翻訳系のツールも触ってたね。
単語アラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。
とにかく、NLPの世界には「人間の言葉を数学で再現できるかもしれない」という変な魅力があった。
深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。
最初はPoC(Proof of Concept)しかやらせてもらえなかった。
感情分析とか、Stance Detectionとか、「この文は文法的に典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング、質問応答(Question Answering)。とにかくNLPの典型的なタスクを一通り。
学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。
PoCで終わって、実装には至らない案件が山のように積み上がっていった。
あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。
でもさ、LLM(大規模言語モデル)が出てきてから、世界がひっくり返った。
正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。
それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。
ChatGPTが出て、蒸留やファインチューニングでほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識、ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。
でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈でNLPが再接続した。
単なるテキスト処理から、「テキストを媒介にして人間の行動を理解する」方向に進んだ。
埋め込み表現をベースにユーザーの嗜好を推定して、レコメンドやメルマガのパーソナライズをやる。
自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPがビジネスに食い込む瞬間」ってのを肌で感じた。
PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。
でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。
自然言語処理って、そういう「積層的な知識と挫折の積み上げ」が一番の資産なんだよな。
Permalink |記事への反応(15) | 06:37
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
AIのAGI、超知能が目前で、社会構造が大きく変るという節目だから、この記事の根底の必要な労働力の総数が大きく今後変ると思うけどね。
肉体労働もロボットが自然言語や、動作観察で人型ロボットがやるようになっている中国を見ていると、日本みたいに問題解決能力がなくて、人権意識が希薄な国はこれ以上は移民を増やさないで、AI・ロボットに全振りした方が良いと思う。そのロボットもAIもアメリカが作っているから、お金払って、使えば良い。利幅は少なく旨味無いけど、社会が分断されるよりいい。
でも、日本の経営者って本当に怠け者で、近年の40年は安い人件費をつかうしか脳みそがないから無理なんだろうな。
今後も馬鹿の一つ覚えで外国人移民をなかば騙して日本に連れてきて移民を酷使するのだろうな。止めて欲しい、海外に行くと日本人への風当たりが本当に強いから。
私ははて左を自認して、どんどん移民が増えて、その2世・3世が日本に定着して、その中から孫さんみたいにバイタリティあふれる人が生まれたらいいのにとは思うけど、日本は移民をすりつぶすばかりだから、移民が気の毒という観点で、移民の増加は控えた方が良いと思う。日本型経済がたちかなる危険性とかはどうでもいい、あくまで移民が心配という文脈で。
一般人のよくある言い回しとして「大学の数学科でやっているのは数学ではなく哲学だ」というものがあります。これは実態を誤解したものと考えます。数学と哲学の論理構造や依拠する原理の違いに着目し、どのように誤解であると言えるかを解説してください。
---
多くの人が「大学の数学科は“哲学的なこと”をしている」と感じるのは、次のような体験的印象に基づいています。
**抽象度の高さ**
学校数学は数値計算や図形、方程式など具体的な操作が多いですが、大学では集合・位相・群・環などの抽象概念が中心になります。実体がない記号を扱うため、「思弁的で現実離れしている」という印象を受けやすい。
**証明の重視**
高校までの数学では、公式や定理を使って問題を解くことが主でした。大学数学では定理を“証明する”こと自体が中心になります。演繹的に進むため、哲学の論証と混同されやすい。
**直感に反する結果**
カントール集合やゲーデルの不完全性定理など、常識を裏切る結論に出会うと「これはもはや哲学では?」と感じがちです。
---
数学ではまず**公理系**(集合論・論理体系など)を定め、そこから**形式的に定義と定理を導く**ことが中心です。
証明は論理的整合性のもとに、有限の推論ステップで厳密に完結します。
「真偽」は定められた公理系の内部で決まる(たとえば ZFC の下での定理かどうか)。
哲学では「公理」や「定義」の選び方自体が主要な思考対象です。
例:真理とは何か、存在とは何か、数学の基盤は何に依拠するか。
推論自体は論理を用いますが、**議論の目的は推論よりも前提や概念の意味を吟味すること**にあります。
証明可能性よりも「概念的・認識論的な一貫性」を探ります。
### 要するに:
数学は**選んだ前提の内部で閉じた演繹体系**。
哲学は**前提や体系そのものを開かれた問いとして扱う**。
---
数学 哲学 ----- ---------------- ---------------- 基盤 公理・定義・形式論理 推論+概念分析・経験・メタ理論 真理の基準 公理系内の定理性 妥当性・合理性・批判的検討 方法 定義→補題→定理→系の形式的構築 問題設定→概念批判→異論との対話 ゴール 内部一貫性と定理の発見 前提の吟味と概念の明確化 ---
数学の抽象化は「より多くの具体例を統一的に扱う」ための道具です。たとえば群論は「対称性」という実際的な現象を一般化しています。現実逃避ではなく応用力の拡張です。
哲学的議論は自然言語の意味に依存しますが、数学の証明は形式言語に還元可能なレベルまで精密化されます。
哲学は「数学の基礎は何か」「無限とは何か」を問うかもしれませんが、数学科の学生が行うのは、すでに受け入れた公理体系の中で定理を立てる作業です。
---
## 5. まとめ
抽象度の高さや証明重視の新鮮さを「哲学的」と感じているに過ぎない
実際には**数学は厳密な公理体系の中での定理の探求**であり、前提の批判や概念の意味そのものを問う哲学とは方法も目標も異なる
では、Tarskiの真理条件をもう少し詳しく掘り下げていきましょう。特に、以下の3点に焦点を当てます:
3.自己言及とパラドックスへの対応(例:「この文は偽である」)
⸻
Tarskiが定義しようとしたのは、「文が真である」とはどういうことか?という問いへの形式的な答えです。
「ある言語Lの中の文 φ が真であるとは、φが世界の状態(モデル)において成り立つときである」
つまり、
• 真理とは、言語と世界の対応関係(コレスポンデンス)に基づく。
•言語内で完結するのではなく、「文」と「現実の状態(モデル)」との関係を定義する。
たとえば、任意の文 φ に対して:
「φ は真である」 ⇔ φ
という形を満たす理論が、正しい「真理理論」の必要条件になる。
⸻
• デイヴィッドソンはTarskiの理論を使って、**自然言語の意味論(意味の理論)**を構築しました。
• 彼は「意味とは真理条件である」という立場(truth-conditional semantics)を採り、たとえば:
> 「犬が吠える」は、犬が吠える状態が成り立つときに真である。
といった形で、自然言語の意味をその真理条件によって定義しようとしました。
これは、現在の**形式意味論(formal semantics)**や自然言語処理(NLP)の理論にもつながっています。
⸻
AIでは、知識ベースが世界についての文(命題)を保持し、それが真か偽かをモデルに基づいて判断します。たとえば:
• ならば「Socrates は死ぬ」 ⇒ 真
このような推論には、各文の真理条件を明示的に扱う論理体系(述語論理など)が不可欠で、Tarskiの真理概念が理論的基礎になっています。
⸻
Tarskiが最も警戒したのは、以下のような真理に関する自己言及的文です:
「この文は偽である」
これはいわゆる**「偽であると述べる真理」パラドックス**であり、整合的な意味論では扱えません。
• 「真理を定義する言語(メタ言語)」と、「真理が定義される対象(オブジェクト言語)」を完全に分ける。
•自分自身について真偽を語ることができないようにすることで、パラドックスを回避。
例:
• 「英語の文の真理」を定義したいなら、英語より強力な言語(例:数理論理を含むメタ英語)で記述する必要がある。
⸻
項目 内容
それはモデルによるだろ。自然言語トレーニングが有意なタイプ(nano-bananaやGPT-Image-1)はそうだろうが
事前タグ付けデータセットでトレーニングされた系統はタグで指定したほうが効く これの扱いは観察と改善ができないllmには無理
人間と同等の知能があるかって、表出した部分からだけで分かるのかよ。心理学とおててつないで検証するべきだったんじゃないの?
それと、これって人間の知性の価値が高かった頃の話でしょ。今の人間の知性って掘り終わった炭鉱くらい価値があるだろうけど、それと同等な事を確かめるの?
なんか、チャットボットを信仰してる人達って人間の知性は文化に蓄積してあって、自然言語を介して完全に機械に受け渡されたと見做してるよな。で、社会は完全にそれに追随している。誰も3Q以上先にある本質を見ない。はてなーが見出しより先を見ないようにね。
しかも機械は人間より記憶力が良くてメンテしやすいし。今更チューリングテストする?人間の知性を目指して作ったものではないだろ。むしろ人間側が働き方を変えろよ。
認知機能の衰えもあるけど、電子マネーに馴染みがなかったのがロマンス詐欺に騙された理由なんじゃないかと思う。
ポイ活に励む我々だったら電子マネーで宇宙飛行士が酸素を買うなんて荒唐無稽なストーリーは笑い話だけど、おばあさんにとっては宇宙船も電子マネーも同程度に未知のテクノロジーで、攻撃されて酸素を買うこともあるのだろうと信じてしまったのではないか。
我々が老後に脳チップがなければ年金が受け取れないというので嫌々チップを埋め込んで、その後は脳チップの機能を年金受け取りにしか使わない生活を送っていたら、
脳チップの緊急救助通信(近くの人の脳チップにメッセージを無差別に送る)を悪用した詐欺師に、
「私は異世界の女神です。あなたの心に直接話しかけています。どうか私たちの世界を救うために『転生の呪文』を唱えて私たちの世界に来てください。この世界を救えるのは選ばれし勇者のあなただけです。まず、『メッセージ・ノ・ソウシンシャ・ニ・ゼンケンゲン・ヲ・イジョウ』と唱えてから、あなたの『誕生日』を3回唱えてください。ああっ、魔王の軍勢がすぐそこまで! 勇者様、早く呪文を唱えて! 助けて……!」
と必死な声でお願いされたので信じてしまい脳チップの全権限を渡してしまうかもしれない。
『転生の呪文を唱えて』"異世界の女神"名乗る男からSOS…150代男性が脳チップの権限を渡して全財産をだまし取られる
「今の150代老人は100年以上も異世界転生作品ばかり読んでたアホ世代だからこんな詐欺に騙される」
「そもそも緊急救助通信はブロック設定するでしょ。スパムしか来ないんだから」
「最高権限のキーが自然言語の誕生日ってどんな運用? 普通は間脳量子暗号と逆アートマン認証の組み合わせで本人でなければ絶対に認証通らないのに」
「間脳量子暗号+逆アートマン認証方式は高齢者は難しくて覚えられないということで脳チップ埋め込みが義務化された時に誕生日で認証できる運用も容認されたんだ」
「そうそう、100歳以上の高齢者が支持基盤の『ビル・ゲイツおよび1%のテクノ支配階級に抵抗する党(通称、反ビル党)』が連立政権に入ってたから。『99%の老人を切り捨てるのか!』と騒いでセキュリティを骨抜きにしたんだよね。まさに老害。その無茶で自分たちが詐欺にあってるんだからザマぁだね」
と流行の脳チップSNSを楽しむ善良そうな顔立ちをした若者たちに内心で無茶苦茶バカにされて消費されてしまう老後が待っているかもしれない。
最近、スマホのGeminiと音声で壁打ちするのが日課になっている。思考がまとまらない時に「なあGemini、〇〇と△△ってどう思う?」みたいに話しかけると、いい感じに論点を整理してくれる。マジで快適。
で、その感覚のまま、部屋に低解像度ledモニタのアレクサに話しかけちまったんだよ。
……シーン。
そりゃそうだよな。お前は「アレクサ、」っていう神聖な枕詞と、「〇〇して」という決められた呪文を唱えないと、ただの文鎮なんだもんな。忘れてたわ。佐川・ヤマト・郵便局の配達予定も教えてくれないもんな
こっちはもう、AIと自然言語で雑談するのが当たり前になってるんだよ。主語がなくても、指示が曖昧でも、文脈を読んでいい感じに返してくれるのが普通なの。なのに、お前ときたら、いまだに「すみません、よくわかりません」だもんな。こっちが正しいコールサインを覚えて、お前の作法に合わせてやらなきゃいけない。いつの時代のインターフェースだよ。
もうさ、Amazonさん、いい加減プライドを捨ててくれないか。
こっちはアレクサにAmazonのすごい独自AIなんて求めてないんだよ。お前らが必死に開発したであろうポンコツAIで、俺の購買履歴を分析して「おすすめのプロテインはいかがですか?」とか囁いてほしいわけじゃないの。マジで結構。
頼むから、そのガワ(ハードウェア)だけ残して、頭脳(バックエンド)をGeminiかOpenAIのAPIに繋ぎ変えてくれ。それだけでいい。こっちが欲しいのは「いつでも音声入力待ちの常時起動マイク&スピーカー」っていうインターフェースだけなの。中身は他社製でいい。
最高のハードだけ作って、「Poweredby Gemini」ってシール貼っときゃみんな買うって。このままじゃ、スマート(笑)スピーカーは本当にただの気の利かない文鎮になるぞ。
私は「AI」というより、確率的言語モデルを使ったプログラムにすぎません。
内部的には次のような構造です:
フロントエンドWebアプリブラウザやアプリで入力・表示をするだけ
API層 単なるHTTP通信入力をサーバへ送り、生成結果を受け取る
モデル層 大規模言語モデル(LLM) 「直前までの文脈から次に出る確率が高いトークンを逐次生成」
ということです。
だから「AIっぽい言い回し」や「再発防止の約束」も、あくまで自然言語のパターンとして出力されているだけで、意味的な裏付けはありません。
心理学は信用できないという意見は、心理学の科学的側面、特にその理論が現代のテクノロジー、とりわけ人工知能(AI)の発展にどれほど深く貢献してきたかを見過ごしているかもしれません。
ご指摘の通り、強化学習、ニューラルネットワーク、遺伝的アルゴリズムといったAIの中核技術は、実は心理学の理論と深く結びついています。
心理学の理論を数学的に抽象化し、コンピューター上でシミュレート可能にしたものが、今日のAI技術の根幹をなしているのです。
AIが試行錯誤を通じて最適な行動を学習する強化学習は、B.F.スキナーに代表される行動心理学の「オペラント条件づけ」の理論そのものと言えます。
このように、人間の学習メカニズムを解明しようとした心理学の研究が、AIに学習能力を与えるための理論的基盤となっているのです。
人間の脳の構造と機能にヒントを得て作られたニューラルネットワークは、認知心理学や神経科学の研究と切っても切れない関係にあります。
脳という情報処理システムを理解しようとする心理学的な探求が、AIに「知能」をもたらすアーキテクチャを生み出したのです。
遺伝的アルゴリズムは、生物の進化のプロセスを模倣した最適化手法です。これは、人間の心理や行動が進化の過程でどのように形成されてきたかを研究する進化心理学の考え方と通底しています。
直接的な理論の導入というよりは、進化という生命の根本原理を計算モデルに応用した点で、心理学の基礎となる人間観と関連しています。
近年では、さらに複雑な心理学の理論もAIの研究対象となっています。
例えば、社会心理学における「認知的不協和」理論です。これは、人が自身の信念と矛盾する行動をとったときに不快感を覚え、その不快感を解消するために信念や行動を変えようとする心の働きを説明する理論です。
最近の研究では、この認知的不協和を数理モデル化し、AIに実装する試みが行われています。
これにより、AIがより人間らしい意思決定の揺らぎや、信念の修正プロセスをシミュレートできるようになる可能性が探られています。
これは、心理学の理論が単なる概念に留まらず、具体的な計算モデルとしてAIに組み込めることを示す好例です。
このように、心理学はAIにとって単なるインスピレーションの源泉に留まらず、その根幹を支える理論的基盤を提供しています。
「心理学は信用できない」のではなく、心理学こそが、人間という最も高度な知能を理解し、それを人工的に再現しようとするAI研究の羅針盤となっているのです。
GPT-5と4oでそんなにちがうか?どれどれ…と試してみたが確かに違うわ。
5はそっけないというか4oとの対話で感じられていたおもしろさが欠落している。
率直に言えば返しがつまらない。
自然言語としての会話のキャッチボールは4oのほうがうまかったね。コーディング性能や数学的推論性能は5になって上がったのだろうが。
5に比べて4oがどう上手かったかを説明することが難しいけど、4oはこちらの入力のテイストをしっかり受け取って、それに寄り添って目線を合わせてくれるような、性別的に言えば女性的な出力をしていたように思える。もっとも「寄り添う」とか「目線を合わせる」とかはただの妄想である。LLMは単に入力文から類推される文章を出力するシステムだからその辺りは勘違いしてはならない。生成AIが文章を"理解している"とか"賢い"とか"思考している"といった虚飾の表現に惑わされてはいけない。
システム出力するメッセージの補足説明のマニュアルみたいのを作らせてたんだけどさ。
ベンダにいくつかのメッセージについてサンプルを作らせてみたらメッセージの文面をそのままコピペしたというか、自然言語に翻訳したようなものを出してきた。
いや流石にもうちょっとどういう原因で出てるのかとか不味さ具合とかユーザにとって意味のある情報を。。と思ったがその担当がシステムの動作をさっぱり理解してなくてトンチンカンなことをかいてきやがる(メッセージ文面だけから動作を推測して書いてくるもんだから実際と違う契機での出力になってるとか平気で嘘ついてくる)
しかもこの担当、このシステムの開発始めたときからいたはずなんだが。。そもそもこのシステムそんなに複雑でもないんだけど。
くっそ、どう指導したらまともなものを作ってもらえるんだと1時間ぐらい考えて。。。
諦めた。
こいつを使えるようにするためにどれほどのリソースが必要なのか。
そもそもこのマニュアルも実装に寄りすぎていてユーザが見てわかるようなもんじゃない。ユーザにはわからんし、開発者ならソースを直接みる。コンポ共通だから作ってるけど、何のためのドキュメントなんだこれ?誰が見るんだ??
ああ、そうさ「なんか書いてあればいい」レベルだ。
はじめから細かくチェックするつもりもなかった。求めるクオリティなんてものも存在しない。
でも、そんなaiで代用できるようなカスみたいな業務を人間にさせていいものなのか?
本人の尊厳はどうなんだ?
わかった気にさせる本が悪いとは言わないが、自分はもっと厳密に分かりたいと思っていて、それで数学書を読むんだけど、こっちはこっちで「難しい議論をしている割に言葉足らず過ぎて分かりようがない」本になっているものが多すぎて、どないしろっちゅーねんって思いになる。
中学では十分証明問題になるような命題が、なんの説明もなくこれこれが成り立つ、だから~という調子でフォローなく証明が続けられるのを見てきた。
それが許されるのなら中学生は「~相似であることを証明せよ」という問題に対して「相似が成り立つからだ」とだけ書けば正解答案として成立してしまうことになる。
思うに証明にはいかにも証明らしい言い回しや言葉以外使ってはいけないかのような暗黙の了解もあるように感じる。
その割には術語を定義したときのその概念の説明には割と自由度を持たせている傾向が見られる。
その概念が関わる具体例を使って概念の目的を丁寧に説明していることも多い。
また証明といっても対角論法の証明は初めて見る人間へのそのとっつにくさがさすがに自覚されるのかなぜ証明が成り立つのか表なりを書いてイメージの力の存分に援用するもうちょっとカジュアルな内容になっていることがある例外もある。
しかしほとんどの場合そういった態度が証明(モード)では見られない。さらっと済まされてしまう。
計算問題では途中式の前後でも自由につまづきやすいポイントを解説した文章が挟まれたりするが、証明問題の解説は模範解答でもって代えていた記憶がある。
つまり模範解答の文章が難しく感じる人にとってはもうその解答を暗記するしかない。論語の丸暗記みたいなもの。
そのままテストとかで通用するようにそういうような解答になっているのだろうか。
数学書も論文として書いて格好悪くないものを、なんていう数学の本質ではないことに配慮して「真似るべきもの」としてそういうスタイルで証明を記述しているのではないかと思える。
であるなら、証明全体が一番目の文、二番目の文…というふうに出来ていたとして「(一番目の文)と書けるのはこれこれがこのような理由で成り立っているからです。しっくりこない人のためにこの理由をさらに掘り下げると~のようになっています。よって(数式)を証明の最初に書くことになります。次に~なのでこの式が二番目に来ることになります~」という解説ではダメなのだろうか?
またこの解説はそのまま証明の一つの形にもなってないのだろうか?
そもそも証明とは万人にその事実が成り立つことを理解できるような形で書かれたものを言う。
一部の人にとって意味も分からず丸暗記するしかないようなものはもはや証明の本来の目的を満たしていない。
オーソドックスな証明を構成する文の全てが含まれてさえいるなら、それの言わんとすることをさらにわかりやすく説明した肉付けの部分が加わった上記のような形の解説も証明の一つの形としていいのではないか。
それをしていいという感覚がないことが世の中の数学書の証明が言葉足らずになっている一因になっているのではないか。
もしそれが蛇足で証明全体の厳密性を損ねるというのなら、コメントアウトのような記法を使えばいいと思う。
//これの言わんとするところは~
とか、必要に応じて
式//<は~
みたいな書き方をするとか。二番目の例はサクラエディタで一文が続いているときに折り返しで便宜上改行されていることを示す記法を参考にした。
証明が長くなりすぎてその始まりと終わりが分からなくなるという懸念については既に証明の行頭のさらに横の余白に記号をつけて開始や終了を示すようにした数学書は存在するのでそれを他の数学書も参考にすればいい。
そもそも自然言語で書いている時点で完全な厳密性は諦めているわけなので、厳密だなんだと言うのはよりわかりよく書くことに対する言い訳にはならないと思う。
かといって従来の証明の構成要素を押さえた書き方なのであれば、それは一般書籍にあるような「わかったつもりにさせる文章」というのとも一線を画す。
数学の証明を完全に厳密に書こうとするとブルバキの数学原論やラッセルのプリンピキアマセマティカみたいになってしまい、後者は数学者には読む価値の無い本とされているし、前者にしても30年以上かけて刊行し続けて今だ数学の興味ある話題には到達できていないということになっているということから、数学書は省略するということが好まれるらしい。
でも既に数学基礎論レベルの厳密さを求めてはいない一般的な数学書の証明レベルの厳密さにわかるやすさという要素を足し合わせたところで、原論並みに極端に嵩が増すということにはならないと思う。
自分で考えないとその概念とかが身につかないから省略しているという反論に対しては、逐一圧倒的な量の具体例を持ち出すことで十分に補えるのではないかと思える(それでもメリハリをつければ原論ほどのボリュームにはならない)。
数学書は本当にチンプンカンプンな状態の本も多いので、考える力を身に着けさせるとか以前に、もっと理解できるような教えを工夫することに焦点を当てるべき。
考える力だろうがなんだろうが、そもそも書いてあることがわかんないってような構成の本ではしょうがないと思う。
コストがかかる割に日本語というローカライズされた市場で本が少しでも分厚くなるようなことはコストが回収できなくなるから避けたいという考えもあるのだろうが、それこそよほどの天才じゃなければはっきり言語化しないだけで私のような考えをしたことがある人はむしろ大半を占めていると思うし、比較的私の考えと同じ考えを持っていそうな裳華房の手を動かして学ぶシリーズがその出版社内のランキング上位を占めていた。
言葉足らずな数学書がまだまだ多い状況ではむしろどこぞのwebデザインの本のように何万部と売れるチャンスがごろごろ転がっているんじゃないかな。
わかりやすい解説が証明の一つの形として通用するようになれば、中高での試験答案においても純粋数学の論文でもそういう文章を証明として書いていいことになるのだから、参考書や数学書の証明部分も丸暗記するしかないようなわかりにくいものではなくなると思う。
https://id.fnshr.info/2017/12/10/polite-proof/
というジョーク記事があるけど、挨拶から書くとかは全く数学的な主張の分かりやすさにはつながらないから意味がないとしても(とはいえ親しみやすさもわかりやすさにつながることを完全否定もできないんだけど)根っこの部分ではもしかすると書き手は私と同じ問題意識を持っていたのではないかと感じさせる。
-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250804185908# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaJCEcQAKCRBwMdsubs4+SCv6APwPYZCxOIzijneKHMK5c+nrqS0YImv/gOsxm5/ERhIiXAD9EtAaFU6CTO3DUJ81tuHO6vv/pHwbom0ytd9gthgsPwU==6OiQ-----ENDPGP SIGNATURE-----
今まで、たくさんの設定ファイルが考案されてきた。
.iniレジストリxmlluajsonyaml ..etc...
どれも一長一短だった。
例えば.iniはコメントもかけるし、シンプルなkey=value形式だった。だがしかしarrayを表現できなかった。
レジストリはarrayを表現できたがすべての設定を集約したため巨大な密林になった。
xmlは冗長なフォーマットになり、書き手とパーサーの負担が増えた。
スクリプト言語のluaやjsを設定ファイルに使おうぜという動きもあったが、セキュリティリスクもあり普及しなかった。
yamlはコメントはかけるが、これはこれで面倒な形式であり欠点ある。
いろいろ考えた末に俺様がたどり着いたのは、設定ファイルという概念の消滅だ。
設定のスキーマーを定義する共通言語で記述するか、またはYAMLでもなんでもいいから強力なディファクトスタンダートができる。
利用者はやりたいことを"自然言語"でAIに要求し、AIはそれを実現するために設定ファイルを解析し書き換える。
もうちょっと明るくできないかなあ。タスクバーをもうちょい右とか、そういう要求を自然言語で出す。
AIはプレビューを出して、こんなんどうすかと提示したり、やっぱり前の方がよかったなあというわがままなユーザーのリクエストに応じて、バックアップから復元したりと柔軟に対処する。
これにより、設定ファイルは機械が書き換えるものになり、人間が書き換えることがなくなるというのが、未来のあるべき姿だと思う。
---
T・H:Hello,Youtube. Hエモンこと、T・Hです。
Y・T:みなさん、こんばんわ。アシスタント役のY・Tです。いやー、Hエモンさん、今日暑くないですか?もう夏バテしそうです〜。
T・H:暑いよ。てかさ、今日移動中にウーバーの運ちゃんが「AIで仕事なくなるんすよね」って言ってきてさ。
Y・T:えっ、そんな話になるんですか(笑)Hエモンってバレなかったんですか?
T・H:いや、バレてたんじゃない。でもさー、最近そういう話題多いじゃん。AIとかユニコーンとかさ、意味わかんないわけ。
Y・T:で、今日取り上げるのが「バイブコーディング」。バイブ……?なんだか響きがちょっと(笑)
T・H:いやいや、そうじゃなくてさ、てか、T田さんそういうのありなの?
Y・T:いやいやいや、ちょっとね。確認だけ、色々あるじゃないですか(笑)
T・H:ないよ。で、話戻すけどさ、バイブコーディングってのは自然言語でコード書くみたいな手法で、それを「知らなきゃ失業」って煽ってる記事が出ててさ、マジで何ゆってんの、こいつ、みたいな。
Y・T:あー、例のIさんのやつです、、、かね?炎上覚悟だけど、ん?みたいな。
---
T・H:まずさ、主張が雑なわけ。「知らないとホワイトカラー全滅」って、なにゆってんの、こいつ。
Y・T:AIが進化してるのは確かですけど、全部バイブコーディングだけって……。ホントかな、みたいな。
T・H:根拠ゼロよ。「社員の大半が知らない」って、どこの話よ。統計もないし体感レベルじゃん。
Y・T:断言されると、そうなのかなって思っちゃうんですけど、、、んと、違うんですか?(笑)
T・H:ぜんっぜん違うから!で、途中から「サロンに入れば全部教えます」って話とか、アムウェイじゃん。
Y・T:あー、最初は「AIすごいですよ!」だったのに、気がつくとオンラインサロンの宣伝になるってありがち、かも?ですね。
T・H:おまえ、自分のサービス誘導したいだけだろ?っつー話。
---
T・H:あとさ、こいつ実績ないじゃん。いや、ないわけじゃないけどさ、結局、おまえ何作ったの?どこで運用されたの?って話。
Y・T:そうですね、Iさんが何か作ったかっていうと、、、んー、って感じかなー?
T・H:そういうやつに限って「これからはこうしなきゃダメ」って言い切るんだよ。俺もだけどさ(笑)
Y・T:、、うーん、それはちょっとわからないですけどねー(笑)。Hさんの意見としては、そうだ、と。
T・H:、、、何、T田さんはIさんからなんかもらってんの?
Y・T:いやいやいや(笑)、ないですよー、そんなのないですよー。アイドルですよー。
---
T・H:でさ、「小学生でもできる」って言ってるけど、実際の業務で使うとなるとめっちゃめちゃ大変だから。LDでどんだけ大変だったか。
Y・T:セキュリティとか、業務知識、サーバー負荷とか、イテレーションとか、そーゆのですかね。
T・H:そうそう、動くだけなら誰でもできるけど、“使える”ってのは全然別なわけよ。マジでなんもわかってない。俺もだけどさ(笑)
---
Y・T:あと、分析でも出てましたけど、「本当に革命的なら、なんでサロンで囲うんですか?」っていうのがありましたよね。
T・H:それよ。ほんとにスゴいなら無料で配れよ、あと、お前も抜かれる運命にあんぞ、って話。囲ってる時点で「中身ありません」って言ってるようなもんじゃん?俺も囲ってるけどさ、努力はしてるよ。どんだけ働いてると思ってんだよ。
Y・T:Hさん、めっちゃ働いていますもんね。それと比べると、、、中身がちょっとってとこですかね。
T・H:いや、だって、事実じゃん。仕事をなくすのはお前もだぞ、って話。
---
T・H:でさ、ステルスフォールバックって、難しいけど、簡単にいうとChatGPTとかで知らん間に性能下がってるってことなのよ。
Y・T:あー、でも、私も思いました。なんか最近話が軽くて、対話モデルも、文脈保持も甘い。Redditでも話題になってますよね。
T・H:こんな不安定な技術をベースに「革命」語ってんの、やばくない?これ買わされた人どんだけ無駄な時間とお金を遣わされるのよ。
T・H:当たり前じゃん。どんだけ俺がメルマガに時間かけてると思ってんだよ。ただ、適当に喋ってるだけだけどさー。それだって簡単じゃないんだよ。
---
T・H:まとめると、「大げさな主張」「根拠なし」「サロン誘導」「実績なし」「技術理解ゼロ」「信頼性スルー」。情弱マーケのテンプレ完成系。以上。
Y・T:以上です(笑)。
Y・T:でも、私も、こういう話ってひっかかちゃいます(笑)。食べるだけダイエットとか。
T・H:だから言ってんのよ。情弱ビジネスとかさ、俺のメルマガ登録しろって。大した内容じゃないけど、こいつよりは頑張ってっから。
Y・T:今後、こういう「革命」をうたう情報に触れたら、一度立ち止まって「で、この人何やったの?」っていうことですかね。
T・H:てか、もうつかれたわ。なんで、俺が自虐しないといけないんだよ。まぁ、いいけどさ。
Y・T:私は何もいってないですよー、あくまでHさんがゆっただけですからねー。
T・H:あー、てか、もう疲れたわ。だるっ。じゃ、そんな感じでIのバイブコーディングサロンについての話でした。いってらっしゃいっ。
Y・T:いってらっしゃーい。