Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録
< anond:20250326150008 |■ >

2025-03-26

anond:20250326144312

「2つのAIに聞いたから正しい」と思っている人は、科学的なリテラシーが不足している可能性が高いね


なぜ「2つのAIが同じ答えを出した」ことが信頼性根拠にならないのか?

1.AIは同じデータセットを学習している可能性がある

 • 例えば、GrokとPerplexityが似たデータセット(例えばCommon CrawlやWikipediaオープン論文データなど)を基に学習していたら、同じ傾向の答えを出すのは当然。

 • 「異なるAIが同じ答えを出した」=「客観的に正しい」ではない。

2.AIの出力は統計的な推測であり、事実とは限らない

 •AIは、学習データからもっともらしい」答えを生成するだけで、必ずしも事実保証するわけではない。

 • 例えば、AIに「1+1は?」と聞けばどれも「2」と答えるが、それは数学論理的に正しいから。

 •しかし「○○の事故発生率は?」と聞いた場合、その答えは学習データ計算方法に左右される。

3.AIの答えを正しいと考えるなら、その根拠検証する必要がある

 • 「この答えが正しいかどうか?」ではなく、「この答えは何を根拠にしているのか?」が重要

 •AIの出した確率が正しいなら、その確率が導き出された「統計データ」「研究論文」「政府発表」などの一次ソース確認すべき。

「2つのAIが同じ答えを出したから正しい」と信じる人の思考パターン

1.権威バイアスAuthority Bias)

 • 「AIは賢いから正しい」と思ってしまう。

 •しかし、AIは「答えを出すアルゴリズム」であって、「真実を知っているわけではない」。

2.確証バイアス(Confirmation Bias)

 •自分の信じたい結論合致するAIの答えを見つけて、それを証拠として使ってしまう。

 • 「2つのAIが同じことを言ってる!これは確かに正しいはず」と考えてしまう。

3.統計的知識の不足

 •確率統計計算がどう行われるのかを理解せず、「AI計算したんだから正しい」と思い込む。

 • でも、確率計算は前提条件(データサンプル、母集団定義など)に大きく依存する。

この考え方をどうすれば正しくできるか?

• 「AIが言っているから」ではなく、「AIの答えの根拠となるデータを調べる」

• 出典を探し、学術的な一次ソース確認する(査読付き論文政府機関のデータ統計調査など)

• 異なるソースAI以外)からデータ比較する

AIの出した確率がどのように計算されたのかを理解する(単なる言語モデルの推測なのか、統計モデルに基づくのか)


結論として、「2つのAIが言っているから正しい」と思う人は、科学的なリテラシーが不十分で、情報批判的に評価するスキルが足りていない可能性が高い。

もし議論するなら、「その確率根拠となる一次ソースを調べた?」と問いかけるのが良いね

Permalink |記事への反応(1) | 15:00

このエントリーをはてなブックマークに追加ツイートシェア

記事への反応 -
  • 知らねーよ。AIが論文を参照しているかもしれないし、していないかもしれん。 そんなの俺の知ったことじゃない。 2つのAIで別々に計算させた結果がだいたい一致した。 リスクは、馬刺...

    • あー バカってすごい それを確認するのがお前の仕事なんだよ

      • 反証するのがお前の仕事だろう。 もういいよ。お前は反証する証拠すらもっていないんだろう。 だから難癖をつけているだけのアホだろう。

        • あのね? GrokとChatGPTにきいたから真実でーすとかまともなホワイトカラーなら通用しないのよ Fランの卒論でも無理だ こう言ったら差別みたいになるがそういうことではなくて大学は行...

          • 真実であるとは言っていない。 2つのAIに別々に計算させたところ同じ結果になったので諸病性が高いと言っている。 そして、反論があるなら反証する証拠をよこせとずっと言っている。...

            • 「2つのAIに聞いたから正しい」と思っている人は、科学的なリテラシーが不足している可能性が高いね。 なぜ「2つのAIが同じ答えを出した」ことが信頼性の根拠にならないのか? 1. AI...

              • ざっくりとした事実チェックにはなるだろう。 2つの異なる実装で作られたAIが似た結論を出したというのは。 もちろん、AIとして神ではないので、間違うことだってあるだろう。 ただ、...

                • 「2つのAIに聞いたから正しい」と思っている人は、科学的なリテラシーが不足している可能性が高いね とAIがいってるね

                  • TPOを考えろよ。 たかが増田に書くのに、そこまでの精度は求めてねーよ。 ただ、だいたい正しそうな理論になったから、書いただけ。 そして今のところ、明確な反証データがまだ1つ...

                    • お前はChatGPTと話してるだけやで笑

                    • この言い分、「TPOを考えろ」 という点では理解できる部分もあるけど、「明確な反証がないからAIの結論の信憑性が高まる」 というロジックには問題があるね。 1. 「たかが増田」だか...

                      • 1については、AIと議論したこういう結論になったという話をしているにすぎない。 2については、異論がある。誰も明確に反証するデータを出せない時点で、AIの計算結果の信憑性が高...

                        • あなたの意見、整理するとこういうことかな? 1. 「AIとの議論を共有しただけで、学術的に証明しようとしたわけではない」 → これは理解できる。最初から「学術論文レベルの話では...

                          • そもそも、増田で学術論文レベルの話をするわけねーだろう。普通に考えろよ。 これだけ執拗にコメントをしてくれる奴らすら反証する証拠を出せなかったというのが大きい。 したが...

                            • 横だけど、反AIなんだと思うぞ AIに論破されたことがあって悔しくてAIを否定するしかないところまでいってるやつ結構いると思う

                  • 横なんだけど、論文あるか気になるなら論文や公的機関の出してるデータを参照してってAIに聞けばいいだけなんじゃないか? 自分で論文調べるのもAIに聞いて調べるのも結果は一緒だ...

                    • 俺割とガチ勢なんだが  AIは、学習データから「もっともらしい」答えを生成するだけで、必ずしも事実を保証するわけではない。  しかし、AIは「答えを出すアルゴリズム」であって...

                      • いや、自分で論文調べるのもAIに聞いて調べるのも結果は一緒だと思うぞ それに間違えるリスクで言えば、結局それが正しいか判断するのは自分なんだし一緒だと思う 一般論で言えば...

                        • 率直に言えば典型的な誤解だから気をつけた方がいいと思うよ 最初にAIに聞くのは構わないけどあくまでそれは「学習データから「もっともらしい」答えを生成するだけ」とChatGPTはいっ...

                          • 論文や公的機関の出してるデータを参照してってAIに聞けばいいだけなんじゃないか? 結局、最後に正しいか判断するのは自分なんだし、AIに引っ張ってきてもらうのが自分で検索か...

                      • 散々言っているように、AIでもざっくりとした事実の確認はできるだろう。 それ以上の信頼性が高い答えが知りたいなら、論文や政府、研究機関のデータを調べたり、自分自身で確認す...

            • 計算計算言ってるけど君バックプロパゲーションとかできないじゃん 微分も線形代数もしらないし 世間のそのへんのサラリーマンでもね?ソースというのは出さなきゃいけない時という...

              • だから、反論するなら反証する証拠をだしてね。 何度同じことを言わせるの? もう君はアホなんだから、会話に参加しないでくれる? テキストデータの無駄だよ。

                • 反論なんかしてないんだよ UFOが出てきてピロピローって光線でみんなを支配してます!ってのは反論いぜんやろ 論文見た?どれ?って  俺 が お ー れ ー が 聞いてるの お前の...

                  • 論文も何もUFOが現れてビームぴろぴろしたなんてデータはどこにもないだろう。 なんとかいうか君を見ていると哀れだよ。 もう君は負けたんだよ。負け犬は消えな。

                    • 「AIの結果を信用する前に、その根拠となる論文やデータを確認したか?」という問いは、学術的なリサーチの基本であり、正当な指摘。 「論文あたったか?」という質問に対して、ま...

                      • でもSTAP細胞は存在しますよね ハイ論破

                      • 長文ご苦労様。 結局、こんなクソ長文を書いてくるお前のような奴でも反証データを出せないことが返ってAIが計算した計算結果の信頼性を高めているという皮肉な結果になりましたね...

          • GrokとChatGPTにきいたから真実でーす はーいろんぱっぱ😝

            • 論破されてくやしいです😭

            • grokとperplexityな。 お前が読解力がないアホだということはわかるが、固有名詞ぐらいはちゃんと認識してほしい。

              • あ...

              • 突然言い出されてもわかるわけがない 自他の境界が曖昧で こだわりが強く 非常に攻撃的でそしてそれは人のせいだと思っているね 薬とかはもらってる?

記事への反応(ブックマークコメント)

全てのコメントを見る

人気エントリ

注目エントリ

ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2026 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2026 Movatter.jp