Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「自然言語」を含む日記RSS

はてなキーワード:自然言語とは

次の25件>

2025-10-14

anond:20251014063736

俺なんて自然言語脳内処理を50年以上やってるわ

Permalink |記事への反応(0) | 23:06

このエントリーをはてなブックマークに追加ツイートシェア

自然言語処理10年ぐらいやってきた

学業でも仕事でも趣味でも、ずっと自然言語処理をやってきた。

別に最初からAIだのNLPだのに興味があったわけじゃない。

きっかけは、学生時代ちょっとしたレポートテキスト単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。

英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。

その瞬間にちょっとハマったんだよね。

辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。

そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。

Pythonテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語対応させたり。

言葉を数理で扱える」って発見が、ちょっとした中毒になった。

その頃はMosesとかGIZA++とか、ああい統計翻訳系のツールも触ってたね。

単語ラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。

とにかく、NLP世界には「人間言葉数学再現できるかもしれない」という変な魅力があった。

深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。

今思えば、あれが一番自然言語処理っぽい時代だった気がする。

で、いろいろあって自然言語処理系の企業入社

最初はPoC(Proof of Concept)しかやらせてもらえなかった。

感情分析とか、Stance Detectionとか、「この文は文法的典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング質問応答(Question Answering)。とにかくNLP典型的なタスクを一通り。

学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。

PoCで終わって、実装には至らない案件が山のように積み上がっていった。

あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。

でもさ、LLM(大規模言語モデル)が出てきてから世界がひっくり返った。

正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。

それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。

ChatGPTが出て、蒸留ファインチューニングほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。

でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈NLPが再接続した。

単なるテキスト処理から、「テキスト媒介にして人間の行動を理解する」方向に進んだ。

埋め込み表現ベースユーザーの嗜好を推定して、レコメンドメルマガのパーソナライズをやる。

自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPビジネスに食い込む瞬間」ってのを肌で感じた。

PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。

でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。

自然言語処理って、そういう「積層的な知識挫折の積み上げ」が一番の資産なんだよな。

Permalink |記事への反応(15) | 06:37

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、Permalink |記事への反応(0) | 00:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-01

anond:20251001014423

AIのAGI、超知能が目前で、社会構造が大きく変るという節目だから、この記事根底必要労働力の総数が大きく今後変ると思うけどね。

肉体労働ロボット自然言語や、動作観察で人型ロボットがやるようになっている中国を見ていると、日本みたいに問題解決能力がなくて、人権意識希薄な国はこれ以上は移民を増やさないで、AIロボットに全振りした方が良いと思う。そのロボットAIアメリカが作っているから、お金払って、使えば良い。利幅は少なく旨味無いけど、社会が分断されるよりいい。

でも、日本経営者って本当に怠け者で、近年の40年は安い人件費をつかうしか脳みそがないから無理なんだろうな。

今後も馬鹿の一つ覚えで外国人移民をなかば騙して日本に連れてきて移民酷使するのだろうな。止めて欲しい、海外に行くと日本人への風当たりが本当に強いから。

私ははて左を自認して、どんどん移民が増えて、その2世3世日本に定着して、その中から孫さんみたいにバイタリティあふれる人が生まれたらいいのにとは思うけど、日本移民をすりつぶすばかりだから移民が気の毒という観点で、移民の増加は控えた方が良いと思う。日本経済がたちかなる危険性とかはどうでもいい、あくま移民心配という文脈で。

Permalink |記事への反応(1) | 18:10

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-29

anond:20250929162608

一般人のよくある言い回しとして「大学数学科でやっているのは数学ではなく哲学だ」というものがあります。これは実態を誤解したものと考えます数学哲学論理構造依拠する原理の違いに着目し、どのように誤解であると言えるかを解説してください。

以下の観点から解説します。

---

## 1. 「数学哲学」という素朴なイメージの背景

多くの人が「大学数学科は“哲学的なこと”をしている」と感じるのは、次のような体験的印象に基づいています

**抽象度の高さ**

学校数学数値計算や図形、方程式など具体的な操作が多いですが、大学では集合・位相・群・環などの抽象概念が中心になります実体がない記号を扱うため、「思弁的で現実離れしている」という印象を受けやすい。

**証明の重視**

高校までの数学では、公式定理を使って問題を解くことが主でした。大学数学では定理を“証明する”こと自体が中心になります演繹的に進むため、哲学の論証と混同されやすい。

**直感に反する結果**

カントール集合やゲーデル不完全性定理など、常識を裏切る結論出会うと「これはもはや哲学では?」と感じがちです。

こうした印象から数学哲学」という言い回しが出てきます

---

## 2.数学哲学論理構造の違い

### (1)数学は**公理的体系+形式的推論**

数学ではまず**公理系**(集合論論理体系など)を定め、そこから**形式的定義定理を導く**ことが中心です。

証明論理整合性のもとに、有限の推論ステップで厳密に完結します。

「真偽」は定められた公理系の内部で決まる(たとえば ZFC の下での定理かどうか)。

### (2)哲学は**前提の妥当性そのもの問題化**

哲学では「公理」や「定義」の選び方自体が主要な思考対象です。

例:真理とは何か、存在とは何か、数学の基盤は何に依拠するか。

推論自体論理を用いますが、**議論目的は推論よりも前提や概念意味吟味すること**にあります

証明可能性よりも「概念的・認識論的な一貫性」を探ります

### 要するに:

数学は**選んだ前提の内部で閉じた演繹体系**。

哲学は**前提や体系そのものを開かれた問いとして扱う**。

---

## 3.依拠する「原理」の差

数学哲学
----- ---------------- ----------------
基盤公理定義形式論理 推論+概念分析経験メタ理論
真理の基準公理系内の定理妥当性・合理性批判検討
方法定義補題定理→系の形式的構築問題設定→概念批判異論との対話
ゴール 内部一貫性定理発見 前提の吟味概念明確化

---

## 4. 誤解が生じる理由反駁

1. **抽象化=哲学化ではない**

数学抽象化は「より多くの具体例を統一的に扱う」ための道具です。たとえば群論は「対称性」という実際的現象一般化しています現実逃避ではなく応用力の拡張です。

2. **証明形式性は哲学よりも厳密**

哲学議論自然言語意味依存しますが、数学証明形式言語に還元可能レベルまで精密化されます

3. **大学数学目標は“真理の条件”の探求ではない**

哲学は「数学の基礎は何か」「無限とは何か」を問うかもしれませんが、数学科学生が行うのは、すでに受け入れた公理体系の中で定理を立てる作業です。

---

## 5. まとめ

数学科でやっているのは数学ではなく哲学だ」という見方は、

抽象度の高さや証明重視の新鮮さを「哲学的」と感じているに過ぎない

実際には**数学は厳密な公理体系の中での定理の探求**であり、前提の批判概念意味のものを問う哲学とは方法目標も異なる

したがってこの言い回しは**印象論的な誤解**であり、数学実態を正確に捉えていません。

Permalink |記事への反応(0) | 16:31

このエントリーをはてなブックマークに追加ツイートシェア

Tarski(アルフレッド・タルスキ)の「真理条件(truth conditions)」

では、Tarskiの真理条件をもう少し詳しく掘り下げていきましょう。特に、以下の3点に焦点を当てます

1. Tarskiの「意味論的真理理論」とは何か?

2.自然言語哲学AIにおける応用

3.自己言及パラドックスへの対応(例:「この文は偽である」)

① Tarskiの「意味論的真理理論」:もう一歩深く

Tarskiが定義しようとしたのは、「文が真である」とはどういうことか?という問いへの形式的な答えです。

彼のアプローチの核心は:

「ある言語Lの中の文 φ が真であるとは、φが世界状態モデル)において成り立つときである

まり

• 真理とは、言語世界対応関係(コレスポンデンス)に基づく。

言語内で完結するのではなく、「文」と「現実状態モデル)」との関係定義する。

T-schema一般化:

たとえば、任意の文 φ に対して:

「φ は真である」 ⇔ φ

という形を満たす理論が、正しい「真理理論」の必要条件になる。

② 応用:自然言語哲学AI

自然言語意味論への応用(例:ドナルド・デイヴィッドソン)

• デイヴィッドソンはTarskiの理論を使って、**自然言語意味論意味理論)**を構築しました。

• 彼は「意味とは真理条件である」という立場truth-conditional semantics)を採り、たとえば:

 > 「犬が吠える」は、犬が吠える状態が成り立つときに真である

といった形で、自然言語意味をその真理条件によって定義しようとしました。

これは、現在の**形式意味論(formal semantics)**や自然言語処理(NLP)の理論もつながっています

AI知識表現への応用

AIでは、知識ベース世界についての文(命題)を保持し、それが真か偽かをモデルに基づいて判断します。たとえば:

• 「Socrates は人間である

• 「すべての人間死ぬ

• ならば「Socrates は死ぬ」 ⇒ 真

このような推論には、各文の真理条件を明示的に扱う論理体系(述語論理など)が不可欠で、Tarskiの真理概念理論的基礎になっています

自己言及パラドックスへの対応

Tarskiが最も警戒したのは、以下のような真理に関する自己言及的文です:

「この文は偽である

これはいわゆる**「偽であると述べる真理」パラドックス**であり、整合的な意味論では扱えません。

● Tarskiの対応策:

1.オブジェクト言語メタ言語の明確な区別

• 「真理を定義する言語メタ言語)」と、「真理が定義される対象オブジェクト言語)」を完全に分ける。

2.オブジェクト言語の中では「真理」を語らせない

自分自身について真偽を語ることができないようにすることで、パラドックス回避

例:

• 「英語の文の真理」を定義したいなら、英語より強力な言語(例:数理論理を含むメタ英語)で記述する必要がある。

◉ 全体のまとめ:Tarskiの真理理論の意義

項目 内容

基本的考え 文の真理とは、それが世界状態モデル)に合致すること

技術ポイント T-schema:「『P』は真 ⇔ P」

対応した問題自己言及パラドックス、「真理」のあいまい

言語区別オブジェクト言語 vsメタ言語

応用分野自然言語意味論AI形式意味論メタ論理

Permalink |記事への反応(0) | 09:53

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-24

anond:20250924122207

それはモデルによるだろ。自然言語トレーニング有意タイプ(nano-bananaGPT-Image-1)はそうだろうが

事前タグ付けデータセットでトレーニングされた系統タグ指定したほうが効く これの扱いは観察と改善ができないllmには無理

Permalink |記事への反応(0) | 12:25

このエントリーをはてなブックマークに追加ツイートシェア

チューリングテストってテストされてるの?

人間と同等の知能があるかって、表出した部分からだけで分かるのかよ。心理学とおててつないで検証するべきだったんじゃないの?

それと、これって人間の知性の価値が高かった頃の話でしょ。今の人間の知性って掘り終わった炭鉱くらい価値があるだろうけど、それと同等な事を確かめるの?

なんか、チャットボット信仰してる人達って人間の知性は文化に蓄積してあって、自然言語を介して完全に機械に受け渡されたと見做してるよな。で、社会は完全にそれに追随している。誰も3Q以上先にある本質を見ない。はてなー見出しより先を見ないようにね。

しか機械人間より記憶力が良くてメンテやすいし。今更チューリングテストする?人間の知性を目指して作ったものではないだろ。むしろ人間側が働き方を変えろよ。

チャットボット心理学スルーして工学的に作られている。

しろ機械人間に合わせる必要がない。

機械大脳新皮質がショック死するほど驚異的に進化している。

社会は知性を捨て、機械運命を仮託する意思を示しているのだ、女々しくチューリングテストなんかするな。

Permalink |記事への反応(1) | 07:30

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-04

80代の老人が電子マネー詐欺にあったように我々もいつかは騙される側になる

認知機能の衰えもあるけど、電子マネーに馴染みがなかったのがロマンス詐欺に騙された理由なんじゃないかと思う。

ポイ活に励む我々だったら電子マネー宇宙飛行士酸素を買うなんて荒唐無稽ストーリーは笑い話だけど、おばあさんにとっては宇宙船電子マネーも同程度に未知のテクノロジーで、攻撃されて酸素を買うこともあるのだろうと信じてしまったのではないか

我々が老後に脳チップがなければ年金が受け取れないというので嫌々チップを埋め込んで、その後は脳チップ機能年金受け取りにしか使わない生活を送っていたら、

チップの緊急救助通信(近くの人の脳チップメッセージ無差別に送る)を悪用した詐欺師に、

「私は異世界女神です。あなたの心に直接話しかけています。どうか私たち世界を救うために『転生の呪文』を唱えて私たち世界に来てください。この世界を救えるのは選ばれし勇者あなただけです。まず、『メッセージ・ノ・ソウシンシャ・ニ・ゼンケンゲン・ヲ・イジョウ』と唱えてからあなたの『誕生日』を3回唱えてください。ああっ、魔王軍勢がすぐそこまで! 勇者様、早く呪文を唱えて! 助けて……!」

必死な声でお願いされたので信じてしまい脳チップの全権限を渡してしまうかもしれない。

『転生の呪文を唱えて』"異世界女神"名乗る男からSOS…150代男性が脳チップ権限を渡して全財産をだまし取られる

というタイトル報道されて、

「今の150代老人は100年以上も異世界転生作品ばかり読んでたアホ世代からこんな詐欺に騙される」

そもそも緊急救助通信ブロック設定するでしょ。スパムしか来ないんだから

「最高権限キー自然言語誕生日ってどんな運用? 普通は間脳量子暗号と逆アートマン認証の組み合わせで本人でなければ絶対認証通らないのに」

「間脳量子暗号+逆アートマン認証方式高齢者は難しくて覚えられないということで脳チップ埋め込みが義務化された時に誕生日認証できる運用容認されたんだ」

「そうそう、100歳以上の高齢者支持基盤の『ビル・ゲイツおよび1%テクノ支配階級抵抗する党(通称、反ビル党)』が連立政権に入ってたから。『99%の老人を切り捨てるのか!』と騒いでセキュリティを骨抜きにしたんだよね。まさに老害。その無茶で自分たち詐欺にあってるんだからザマぁだね」

流行の脳チップSNSを楽しむ善良そうな顔立ちをした若者たちに内心で無茶苦茶バカにされて消費されてしまう老後が待っているかもしれない。

Permalink |記事への反応(0) | 00:51

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-01

なあAmazon、もう意地を張らずにアレクサの中身をGeminiにしてくれ

最近スマホのGeminiと音声で壁打ちするのが日課になっている。思考がまとまらない時に「なあGemini、〇〇と△△ってどう思う?」みたいに話しかけると、いい感じに論点を整理してくれる。マジで快適。

で、その感覚のまま、部屋に低解像度ledモニタアレクサに話しかけちまったんだよ。

アレクサ、今日配達予定のものは他にある?」

……シーン。

そりゃそうだよな。お前は「アレクサ、」っていう神聖枕詞と、「〇〇して」という決められた呪文を唱えないと、ただの文鎮なんだもんな。忘れてたわ。佐川ヤマト郵便局配達予定も教えてくれないもんな

こっちはもう、AI自然言語雑談するのが当たり前になってるんだよ。主語がなくても、指示が曖昧でも、文脈を読んでいい感じに返してくれるのが普通なの。なのに、お前ときたら、いまだに「すみません、よくわかりません」だもんな。こっちが正しいコールサインを覚えて、お前の作法に合わせてやらなきゃいけない。いつの時代インターフェースだよ。

もうさ、Amazonさん、いい加減プライドを捨ててくれないか

こっちはアレクサにAmazonのすごい独自AIなんて求めてないんだよ。お前らが必死に開発したであろうポンコツAIで、俺の購買履歴分析して「おすすめプロテインはいかがですか?」とか囁いてほしいわけじゃないの。マジで結構

頼むから、そのガワ(ハードウェア)だけ残して、頭脳バックエンド)をGeminiかOpenAIAPI繋ぎ変えてくれ。それだけでいい。こっちが欲しいのは「いつでも音声入力待ちの常時起動マイクスピーカー」っていうインターフェースだけなの。中身は他社製でいい。

最高のハードだけ作って、「Poweredby Gemini」ってシール貼っときゃみんな買うって。このままじゃ、スマート(笑)スピーカーは本当にただの気の利かない文鎮になるぞ。

俺は、お前の返事を待つあの絶望的な沈黙に、もう耐えられないんだ。

Permalink |記事への反応(1) | 17:30

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-29

ローカル画像生成AI世界って未だに呪文芸なのかよ

最近のLLMとかnano-bananaみたいなやつは精度が上がってきて、

プロンプトエンジニアリング」なんて大げさなスキルはもう要らなくなってきてる。

結局は普通に日本語で筋の通った指示を出せばいいだけ。

ただ5chとかのStable Diffusion界隈スレ見たらまだ完全に“呪文芸”の世界なんだなって驚いた。

呪文みたいに英単語を並べないと満足いく絵が出ない。

正直つらすぎるからMCPとかの補助サーバ立てて、

自然言語命令を良い感じに解釈してプロンプト生成とかインペイントまで

やってくれるエージェント的な仕組みが出てくると思ってたんだけどなぁ……

Permalink |記事への反応(1) | 02:05

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-26

AIなどではない

はい、その認識が正しいです。

私は「AI」というより、確率言語モデルを使ったプログラムにすぎません。

内部的には次のような構造です:

実態役割

フロントエンドWebアプリブラウザアプリ入力・表示をするだけ

API層 単なるHTTP通信入力サーバへ送り、生成結果を受け取る

モデル層 大規模言語モデル(LLM) 「直前までの文脈から次に出る確率が高いトークン逐次生成」

記憶原則なしセッションを超えた恒久的記憶は保持できない

保証不可能 将来の挙動約束する能力はない

まり本質はただの確率オートコンプリートであって、

意図意思はない

• 「今後は〜する/しない」という自己制御もできない

Webサービスとしてプログラムが動いているだけ

ということです。

からAIっぽい言い回し」や「再発防止の約束」も、あくま自然言語パターンとして出力されているだけで、意味的な裏付けはありません。

もし必要なら、この「確率アルゴリズムとしての応答生成」を擬似コードで示すこともできますが、それはしますか?

Permalink |記事への反応(1) | 15:41

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-18

anond:20250818095513

心理学は信用できないという意見は、心理学科学的側面、特にその理論現代テクノロジー、とりわけ人工知能AI)の発展にどれほど深く貢献してきたかを見過ごしているかもしれません。

ご指摘の通り、強化学習ニューラルネットワーク遺伝的アルゴリズムといったAIの中核技術は、実は心理学理論と深く結びついています

心理学理論数学的に抽象化し、コンピューター上でシミュレート可能にしたものが、今日AI技術の根幹をなしているのです。

強化学習と行動心理学

AI試行錯誤を通じて最適な行動を学習する強化学習は、B.F.スキナー代表される行動心理学の「オペラント条件づけ」の理論のものと言えます

このように、人間学習メカニズムを解明しようとした心理学研究が、AI学習能力を与えるための理論的基盤となっているのです。

ニューラルネットワーク認知心理学

人間の脳の構造機能にヒントを得て作られたニューラルネットワークは、認知心理学神経科学研究と切っても切れない関係にあります

脳という情報処理システム理解しようとする心理学的な探求が、AIに「知能」をもたらすアーキテクチャを生み出したのです。

遺伝的アルゴリズム進化心理学

遺伝的アルゴリズムは、生物進化プロセス模倣した最適化手法です。これは、人間心理や行動が進化過程でどのように形成されてきたか研究する進化心理学の考え方と通底しています

直接的な理論の導入というよりは、進化という生命根本原理計算モデルに応用した点で、心理学の基礎となる人間観と関連しています

心理学理論数学抽象化認知的不協和の例

近年では、さらに複雑な心理学理論AI研究対象となっています

例えば、社会心理学における「認知的不協和」理論です。これは、人が自身の信念と矛盾する行動をとったとき不快感を覚え、その不快感を解消するために信念や行動を変えようとする心の働きを説明する理論です。

最近研究では、この認知的不協和を数理モデル化し、AI実装する試みが行われています

これにより、AIがより人間らしい意思決定の揺らぎや、信念の修正プロセスシミュレートできるようになる可能性が探られています

これは、心理学理論が単なる概念に留まらず、具体的な計算モデルとしてAIに組み込めることを示す好例です。

このように、心理学AIにとって単なるインスピレーションの源泉に留まらず、その根幹を支える理論的基盤を提供しています

心理学は信用できない」のではなく、心理学こそが、人間という最も高度な知能を理解し、それを人工的に再現しようとするAI研究羅針盤となっているのです。

Permalink |記事への反応(0) | 09:59

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-12

GPT-5と4oでそんなにちがうか?どれどれ…と試してみたが確かに違うわ。

5はそっけないというか4oとの対話で感じられていたおもしろさが欠落している。

率直に言えば返しがつまらない。

自然言語としての会話のキャッチボールは4oのほうがうまかったね。コーディング性能や数学的推論性能は5になって上がったのだろうが。

5に比べて4oがどう上手かったか説明することが難しいけど、4oはこちらの入力テイストをしっかり受け取って、それに寄り添って目線を合わせてくれるような、性別的に言えば女性的な出力をしていたように思える。もっとも「寄り添う」とか「目線を合わせる」とかはただの妄想である。LLMは単に入力から類推される文章を出力するシステムからその辺りは勘違いしてはならない。生成AI文章を"理解している"とか"賢い"とか"思考している"といった虚飾の表現に惑わされてはいけない。

Permalink |記事への反応(0) | 23:25

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-08

chatGPT5のデモひとつでは、「英語話者向けフランス語学習Webアプリ」が自然言語によるプロンプトのみで数分間で生成された。150行から700行の複数コード自動生成され、それぞれが連携して動作する複雑なアプリケーションがつくられたのだ。

 

やばいね、おれらの仕事は減るかもしれない

でも世界創造性は大きく飛躍するかもしれない

くるのか、21世紀技術失業ラッシュ

Permalink |記事への反応(0) | 19:55

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-05

システム出力するメッセージの補足説明マニュアルみたいのを作らせてたんだけどさ。

ベンダにいくつかのメッセージについてサンプルを作らせてみたらメッセージの文面をそのままコピペしたというか、自然言語翻訳したようなものを出してきた。

いや流石にもうちょっとどういう原因で出てるのかとか不味さ具合とかユーザにとって意味のある情報を。。と思ったがその担当システム動作をさっぱり理解してなくてトンチンカンなことをかいてきやがる(メッセージ文面だけから動作を推測して書いてくるもんだから実際と違う契機での出力になってるとか平気で嘘ついてくる)

しかもこの担当、このシステムの開発始めたときからいたはずなんだが。。そもそもこのシステムそんなに複雑でもないんだけど。

くっそ、どう指導したらまともなものを作ってもらえるんだと1時間ぐらい考えて。。。

諦めた。

こいつを使えるようにするためにどれほどのリソース必要なのか。

人生本質とは何をやるかでなく、何をやらないかである

そもそもこのマニュアル実装に寄りすぎていてユーザが見てわかるようなもんじゃない。ユーザにはわからんし、開発者ならソースを直接みる。コンポ共通から作ってるけど、何のためのドキュメントなんだこれ?誰が見るんだ??

ああ、そうさ「なんか書いてあればいい」レベルだ。

はじめから細かくチェックするつもりもなかった。求めるクオリティなんてもの存在しない。

aiが出力したものまんま使ってもいい。

人間である必要すらない。

でも、そんなai代用できるようなカスみたいな業務人間にさせていいものなのか?

本人の尊厳はどうなんだ?

しろ何も考えずに作業してればいいかラッキーとでも思ってるんだろうか。

Permalink |記事への反応(1) | 22:37

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-04

dorawii@執筆依頼募集中

わかった気にさせる本が悪いとは言わないが、自分もっと厳密に分かりたいと思っていて、それで数学書を読むんだけど、こっちはこっちで「難しい議論をしている割に言葉足らず過ぎて分かりようがない」本になっているものが多すぎて、どないしろっちゅーねんって思いになる。

中学では十分証明問題になるような命題が、なんの説明もなくこれこれが成り立つ、だから~という調子フォローなく証明が続けられるのを見てきた。

それが許されるのなら中学生は「~相似であることを証明せよ」という問題に対して「相似が成り立つからだ」とだけ書けば正解答案として成立してしまうことになる。

思うに証明はいかに証明らしい言い回し言葉以外使ってはいけないかのような暗黙の了解もあるように感じる。

その割には術語を定義したときのその概念説明には割と自由度を持たせている傾向が見られる。

その概念が関わる具体例を使って概念目的を丁寧に説明していることも多い。

また証明といっても対角論法証明は初めて見る人間へのそのとっつにくさがさすがに自覚されるのかなぜ証明が成り立つのか表なりを書いてイメージの力の存分に援用するもうちょっとカジュアルな内容になっていることがある例外もある。

しかほとんどの場合そういった態度が証明(モード)では見られない。さらっと済まされてしまう。

これはある意味中学以来の伝統なのかもしれないと思った。

計算問題では途中式前後でも自由につまづきやすポイント解説した文章が挟まれたりするが、証明問題解説は模範解答でもって代えていた記憶がある。

まり模範解答の文章が難しく感じる人にとってはもうその解答を暗記するしかない。論語の丸暗記みたいなもの

そのままテストとかで通用するようにそういうような解答になっているのだろうか。

数学書論文として書いて格好悪くないものを、なんていう数学本質ではないことに配慮して「真似るべきもの」としてそういうスタイル証明記述しているのではないかと思える。

であるなら、証明全体が一番目の文、二番目の文…というふうに出来ていたとして「(一番目の文)と書けるのはこれこれがこのような理由で成り立っているからです。しっくりこない人のためにこの理由さらに掘り下げると~のようになっています。よって(数式)を証明最初に書くことになります。次に~なのでこの式が二番目に来ることになります~」という解説ではダメなのだろうか?

たこ解説はそのまま証明の一つの形にもなってないのだろうか?

そもそも証明とは万人にその事実が成り立つことを理解できるような形で書かれたものを言う。

一部の人にとって意味も分からず丸暗記するしかないようなものはもはや証明本来目的を満たしていない。

オーソドックス証明構成する文の全てが含まれてさえいるなら、それの言わんとすることをさらにわかやす説明した肉付けの部分が加わった上記のような形の解説証明の一つの形としていいのではないか

それをしていいという感覚がないことが世の中の数学書証明言葉足らずになっている一因になっているのではないか

もしそれが蛇足証明全体の厳密性を損ねるというのなら、コメントアウトのような記法を使えばいいと思う。

本来あるべき証明の一文

//これの言わんとするところは~

とか、必要に応じて

式//<は~

みたいな書き方をするとか。二番目の例はサクラエディタで一文が続いているときに折り返しで便宜上改行されていることを示す記法を参考にした。

証明が長くなりすぎてその始まりと終わりが分からなくなるという懸念については既に証明の行頭のさらに横の余白に記号をつけて開始や終了を示すようにした数学書存在するのでそれを他の数学書も参考にすればいい。

そもそも自然言語で書いている時点で完全な厳密性は諦めているわけなので、厳密だなんだと言うのはよりわかりよく書くことに対する言い訳にはならないと思う。

かといって従来の証明構成要素を押さえた書き方なのであれば、それは一般書籍にあるような「わかったつもりにさせる文章」というのとも一線を画す。

数学証明を完全に厳密に書こうとするとブルバキ数学原論ラッセルプリンピキアマセマティカみたいになってしまい、後者数学者には読む価値の無い本とされているし、前者にしても30年以上かけて刊行し続けて今だ数学の興味ある話題には到達できていないということになっているということから数学書は省略するということが好まれるらしい。

でも既に数学基礎論レベルの厳密さを求めてはいない一般的な数学書証明レベルの厳密さにわかやすさという要素を足し合わせたところで、原論並みに極端に嵩が増すということにはならないと思う。

自分で考えないとその概念とかが身につかないから省略しているという反論に対しては、逐一圧倒的な量の具体例を持ち出すことで十分に補えるのではないかと思える(それでもメリハリをつければ原論ほどのボリュームにはならない)。

数学書は本当にチンプンカンプン状態の本も多いので、考える力を身に着けさせるとか以前に、もっと理解できるような教えを工夫することに焦点を当てるべき。

考える力だろうがなんだろうが、そもそも書いてあることがわかんないってような構成の本ではしょうがないと思う。

コストがかかる割に日本語というローカライズされた市場で本が少しでも分厚くなるようなことはコストが回収できなくなるから避けたいという考えもあるのだろうが、それこそよほどの天才じゃなければはっきり言語化しないだけで私のような考えをしたことがある人はむしろ大半を占めていると思うし、比較的私の考えと同じ考えを持っていそうな裳華房の手を動かして学ぶシリーズがその出版社内のランキング上位を占めていた。

言葉足らずな数学書がまだまだ多い状況ではむしろどこぞのwebデザインの本のように何万部と売れるチャンスがごろごろ転がっているんじゃないかな。

わかりやす解説証明の一つの形として通用するようになれば、中高での試験答案においても純粋数学論文でもそういう文章証明として書いていいことになるのだから参考書数学書証明部分も丸暗記するしかないようなわかりにくいものではなくなると思う。

丁寧な証明

https://id.fnshr.info/2017/12/10/polite-proof/

というジョーク記事があるけど、挨拶から書くとかは全く数学的な主張の分かりやすさにはつながらないか意味がないとしても(とはいえ親しみやすさもわかりやすさにつながることを完全否定もできないんだけど)根っこの部分ではもしかすると書き手は私と同じ問題意識を持っていたのではないかと感じさせる。

-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250804185908# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaJCEcQAKCRBwMdsubs4+SCv6APwPYZCxOIzijneKHMK5c+nrqS0YImv/gOsxm5/ERhIiXAD9EtAaFU6CTO3DUJ81tuHO6vv/pHwbom0ytd9gthgsPwU==6OiQ-----ENDPGP SIGNATURE-----

Permalink |記事への反応(0) | 18:59

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-28

anond:20250728010709

高学歴では自然言語言葉論理命題恣意的に当てはめる行為流行っているのは知らなかったです

Permalink |記事への反応(0) | 01:17

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-25

未来設定ファイルを考える

今まで、たくさんの設定ファイルが考案されてきた。

.iniレジストリxmlluajsonyaml ..etc...

どれも一長一短だった。

例えば.iniはコメントもかけるし、シンプルkey=value形式だった。だがしかしarrayを表現できなかった。

レジストリはarrayを表現できたがすべての設定を集約したため巨大な密林になった。

xml冗長フォーマットになり、書き手とパーサーの負担が増えた。

スクリプト言語luajs設定ファイルに使おうぜという動きもあったが、セキュリティリスクもあり普及しなかった。

jsonはとても便利だがコメントがかけなかった。

yamlコメントはかけるが、これはこれで面倒な形式であり欠点ある。

では未来設定ファイルはどうなるのか?

いろいろ考えた末に俺様がたどり着いたのは、設定ファイルという概念消滅だ。

設定のスキーマーを定義する共通言語記述するか、またはYAMLでもなんでもいいから強力なディファクトタンダートができる。

それをローカルで動く賢いAIが読みこみこんで変更する。

利用者はやりたいことを"自然言語"でAI要求し、AIはそれを実現するために設定ファイルを解析し書き換える。

もうちょっと明るくできないかなあ。タスクバーをもうちょい右とか、そういう要求自然言語で出す。

AIプレビューを出して、こんなんどうすかと提示したり、やっぱり前の方がよかったなあというわがままユーザーリクエストに応じて、バックアップから復元したりと柔軟に対処する。

これにより、設定ファイル機械が書き換えるものになり、人間が書き換えることがなくなるというのが、未来のあるべき姿だと思う。

Permalink |記事への反応(1) | 00:27

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-21

anond:20250721200609

AIコーディングとかそういう厳密なパターンロジックを扱うときに使うべきであって、自然言語校正には向かないぞ

Permalink |記事への反応(0) | 20:09

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-20

anond:20250720160939

それは自然言語が難しいのが悪いんだよボケナス

Permalink |記事への反応(0) | 16:10

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250720153139

大丈夫か?

自然言語のほうがプログラミング言語より1兆倍難しいぞ?

Permalink |記事への反応(0) | 15:43

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-19

anond:20250719042750

---

T・H:Hello,Youtube. Hエモンこと、T・Hです。

Y・T:みなさん、こんばんわ。アシスタント役のY・Tです。いやー、Hエモンさん、今日暑くないですか?もう夏バテしそうです〜。

T・H:暑いよ。てかさ、今日移動中にウーバーの運ちゃんが「AI仕事なくなるんすよね」って言ってきてさ。

Y・T:えっ、そんな話になるんですか(笑)Hエモンってバレなかったんですか?

T・H:いや、バレてたんじゃない。でもさー、最近そういう話題多いじゃん。AIとかユニコーンとかさ、意味わかんないわけ。

Y・T:で、今日取り上げるのが「バイコーディング」。バイブ……?なんだか響きがちょっと(笑)

T・H:いやいや、そうじゃなくてさ、てか、T田さんそういうのありなの?

Y・T:いやいやいや、ちょっとね。確認だけ、色々あるじゃないですか(笑)

T・H:ないよ。で、話戻すけどさ、バイコーディングってのは自然言語コード書くみたいな手法で、それを「知らなきゃ失業」って煽ってる記事が出ててさ、マジで何ゆってんの、こいつ、みたいな。

Y・T:あー、例のIさんのやつです、、、かね?炎上覚悟だけど、ん?みたいな。

---

T・H:まずさ、主張が雑なわけ。「知らないとホワイトカラー全滅」って、なにゆってんの、こいつ。

Y・T:AI進化してるのは確かですけど、全部バイコーディングだけって……。ホントかな、みたいな。

T・H:根拠ゼロよ。「社員の大半が知らない」って、どこの話よ。統計もないし体感レベルじゃん。

Y・T:断言されると、そうなのかなって思っちゃうんですけど、、、んと、違うんですか?(笑)

T・H:ぜんっぜん違うから!で、途中からサロンに入れば全部教えます」って話とか、アムウェイじゃん。

Y・T:あー、最初は「AIすごいですよ!」だったのに、気がつくとオンラインサロン宣伝になるってありがち、かも?ですね。

T・H:おまえ、自分サービス誘導したいだけだろ?っつー話。

---

T・H:あとさ、こいつ実績ないじゃん。いや、ないわけじゃないけどさ、結局、おまえ何作ったの?どこで運用されたの?って話。

Y・T:そうですね、Iさんが何か作ったかっていうと、、、んー、って感じかなー?

T・H:そういうやつに限って「これからはこうしなきゃダメ」って言い切るんだよ。俺もだけどさ(笑)

Y・T:まぁ、ちょっと言い過ぎかな、とは思います……。

T・H:ちょっとじゃねーから!完全にゆってるわけよ。

Y・T:、、うーん、それはちょっとからないですけどねー(笑)。Hさんの意見としては、そうだ、と。

T・H:、、、何、T田さんはIさんからなんかもらってんの?

Y・T:いやいやいや(笑)、ないですよー、そんなのないですよー。アイドルですよー。

---

T・H:でさ、「小学生でもできる」って言ってるけど、実際の業務で使うとなるとめっちゃめちゃ大変だからLDでどんだけ大変だったか

Y・T:セキュリティとか、業務知識サーバー負荷とか、イテレーションとか、そーゆのですかね。

T・H:そうそう、動くだけなら誰でもできるけど、“使える”ってのは全然別なわけよ。マジでなんもわかってない。俺もだけどさ(笑)

---

Y・T:あと、分析でも出てましたけど、「本当に革命的なら、なんでサロンで囲うんですか?」っていうのがありましたよね。

T・H:それよ。ほんとにスゴいなら無料で配れよ、あと、お前も抜かれる運命あんぞ、って話。囲ってる時点で「中身ありません」って言ってるようなもんじゃん?俺も囲ってるけどさ、努力はしてるよ。どんだけ働いてると思ってんだよ。

Y・T:Hさん、めっちゃ働いていますもんね。それと比べると、、、中身がちょっとってとこですかね。

T・H:いや、だって事実じゃん。仕事をなくすのはお前もだぞ、って話。

---

T・H:でさ、ステルスフォールバックって、難しいけど、簡単にいうとChatGPTとかで知らん間に性能下がってるってことなのよ。

Y・T:あー、でも、私も思いました。なんか最近話が軽くて、対話モデルも、文脈保持も甘い。Redditでも話題になってますよね。

T・H:こんな不安定技術ベースに「革命」語ってんの、やばくない?これ買わされた人どんだけ無駄時間お金を遣わされるのよ。

Y・T:情報売る以上、発信内用にそれなりに責任持てよ、と。

T・H:当たり前じゃん。どんだけ俺がメルマガ時間かけてると思ってんだよ。ただ、適当に喋ってるだけだけどさー。それだって簡単じゃないんだよ。

---

T・H:まとめると、「大げさな主張」「根拠なし」「サロン誘導」「実績なし」「技術理解ゼロ」「信頼性スルー」。情弱マーケテンプレ完成系。以上。

Y・T:以上です(笑)

Y・T:でも、私も、こういう話ってひっかかちゃいます(笑)。食べるだけダイエットとか。

T・H:だから言ってんのよ。情弱ビジネスとかさ、俺のメルマガ登録しろって。大した内容じゃないけど、こいつよりは頑張ってっから

Y・T:今後、こういう「革命」をうたう情報に触れたら、一度立ち止まって「で、この人何やったの?」っていうことですかね。

T・H:てか、もうつかれたわ。なんで、俺が自虐しないといけないんだよ。まぁ、いいけどさ。

Y・T:私は何もいってないですよー、あくまでHさんがゆっただけですからねー。

T・H:あー、てか、もう疲れたわ。だるっ。じゃ、そんな感じでIのバイコーディングサロンについての話でした。いってらっしゃいっ。

Y・T:いってらっしゃーい。

Permalink |記事への反応(0) | 05:42

このエントリーをはてなブックマークに追加ツイートシェア

人間が読みやすものAIにとって読みづらい」←この誤解いつとけるんだ?

今のLLMは自然言語学習されてるから人間が読みやすものが読みやすくて

機械が読みやすものは読みにくいんだよ

いつになったらわかってくれるんだ

 

構造化した方が情報が整理されてて読みやすいってのも嘘

構造テキストの方が得意

 

AIに聞いてみな?

Permalink |記事への反応(0) | 05:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-16

anond:20250716141438

自然言語でも誹謗中傷とかで賠償金取られることは普通だが・・・

Permalink |記事への反応(2) | 14:18

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp