聞いてやったぞ(chatgpt o3)
下記のA, Bのやり取りにおいて、Bがトートロジーに陥っていると言えるかどうか検証してください。
A「アカデミアの学者でも、AIに負けを認めてその前提で考えるタイプと、負けを認められずいかに(今の)AIがダメか苦しい理屈を延々並べる不毛な作業に勤しんでいるタイプとに分かれてきたな。」
B「さすがに今はまだAIに負けないでしょ 勝ってたらシンギュラリティだし」
B「学者=人類最高峰の知性AIが人類の知性を超えればシンギュラリティだよ それこそAI研究者の知性を超えていれば自己改善できるはずだからね」
A「その程度の雑な定義だったらとっくにシンギュラリティ達成してると言えるだろうな」
B「現実として達成してないじゃん」
B「ぜんぜん陥ってないでしょ ChatGPTに聞いてみなよ」
回答
1. 「トートロジー」とは何か
命題の真理値表で常に真になる恒真命題 (例: P ∨ ¬P)。これは「言葉の使い方だけで必ず真」となる形。
結論を前提に埋め込んでしまい、新しい情報や検証可能な条件を与えない議論。「AIが勝っていれば勝っているはずだ」のような円環構造を指すことが多い。
今回 A が指摘したのは後者、「循環論法に陥っているのでは」という問いです。
1 「AI に負けていない。もし負けていたらシンギュラリティ」定義 :AI ≻ 学者 ⇒ Singularity
3 「学者=人類最高峰。AI が人類知性を超えればシンギュラリティ」同値 :AI ≻ Human ⇔ Singularity
4 A 「その定義ならもう達成してるかも」
5 B 「現実として達成してない」経験的前提 : ¬Singularity
6 (結論) 「だから負けていない」 推論 : ¬Singularity ⇒ ¬(AI ≻ Human)
論理式にすると
前提① : (AI ≻ Human) ⇔ Singularity
結論 : ¬(AI ≻ Human) (モーダス・トレンス)
3. これはトートロジーか?
論理的には循環していない 「If P then S」「Not S」「ゆえに Not P」という有効な三段論法(modus tollens)で、厳密な意味のトートロジーではない。
しかし情報価値は低い - Singularity を「AI ≻ Human」と同義語的に定義した時点で、
つまり検証手段も数値指標も提示せずに “起きていない” と断言しており、
4.結論
B は P ⇒ S, ¬S ⇒ ¬P という形で循環せずに推論している。
だが実質的には「定義と事実認定を自分で固定し、その固定を根拠に結論を下す」自己完結型の主張になっており、
「循環論法で新しい情報を与えていない」という日常語的批判としてはあたっている。
まとめ
学者=人類最高峰の知性 AIが人類の知性を超えればシンギュラリティだよ それこそAI研究者の知性を超えていれば自己改善できるはずだからね
その程度の雑な定義だったらとっくにシンギュラリティ達成してると言えるだろうな
現実として達成してないじゃん
トートロジーに陥ってることを認識した方がいい
ぜんぜん陥ってないでしょ ChatGPTに聞いてみなよ
聞いてやったぞ(chatgpt o3) 質問 下記のA, Bのやり取りにおいて、Bがトートロジーに陥っていると言えるかどうか検証してください。 A「アカデミアの学者でも、AIに負けを認めてそ...
「自己改善」の部分を軽視して無視しちゃってるな やっぱAIってまだまだだな
質問 上記の結論に対して以下のような反論がありました。この反論の妥当性を検証してください。 B「「自己改善」の部分を軽視して無視しちゃってるな。やっぱAIってまだまだだな...
AIが人間の知能を超える =人間がAIを改善するよりもAIがAIを改善するほうが効率が良くなる =AIが自己改善を繰り返すようになると爆発的にAIの知能が増大していく これがシンギュラリ...