
人間とAIは何が一緒で、どう違うのか?AIの考え方や得意な事を知れば「仕事が奪われる」なんて思わない(はず)
筆者はマーケティングについて解説する機会が多いですが、作家としてエンジニアとして、AI領域もキャッチアップし続けています。情報を集め始めてから、かれこれ8年が経とうとしています。
数カ月前に「これはAIには出来ない」と評価されたタスクがいつの間にか実現するなど、とにかく進化が速い領域です。キャッチアップし続けないと、頓珍漢な発言をして(あの人、いつの話してるんだろう…?)とバカにされて「何も分かっていない人」という烙印が押されかねません。
進化の速いAIは、少し齧った程度の知識では話せません。語るなら、なによりも誠実さや真摯さが求められると筆者は考えています。
例えば、AIを取り上げて「〇年以内に仕事が無くなる」と恐怖訴求で注目を集めるのはとても簡単です。2013年に英オックスフォード大学のマイケル・A・オズボーン准教授らが発表した「雇用の未来」以降、『AIに仕事を奪われる論』はアテンションエコノミー(他人から注目を集めて金に換えるアコギな商売)の一丁目一番地と化しました。
マーケティング界隈にも(個人を特定しませんが)「マーケターの仕事が奪われる」と喧騒している方がおられます。論文は読んでいない、研究開発しているわけでもない。ただ、ちょっと触った感想をマーケターとしての影響力を使って喧騒している。その姿勢は本当に誠実・真摯でしょうか?
論文を読んでいるから正しい、読んでいないから間違っているということではなく、クリティカルシンキングを実践するための一次資料としてもっとも有効なのが論文だと筆者は考えます。AIの場合、論文に触れずして、どうやって思考が深まるのか?という疑問・問いを投げかけています。
電子レンジの仕組みが分からなくても、私たちは雰囲気で電子レンジを使えます。「便利になったね~」で良いじゃないですか。それなのに「料理人の仕事が奪われる!」と騒いでいるように筆者は見えます。
AIは人間のように色んな事をやってくれるし、人間ですら出来ない事もやってくれます。とても便利な機械です。
でも「だからこそ不安なんだ(仕事が奪われてしまうかもしれない)」と思われている方もおられるようです。ならば、AIと人間が同じ点・違う点を知ると良いかもしれません。まとめてみました。
人間とAI、何が一緒なのか?
私たち人間は、スキーマを通じて物事を知ります。スキーマとは「状況や人物に関する『体系化された知識』から作られた認知構造」という意味です。平たく言えば、スキーマとは「脳内の辞書」みたいなもんです。
例えば、目の前の火災報知器から大音量でサイレンが鳴ったとします。赤ちゃんや小さな子供にはサイレンの知識がありませんから、ただただ不快でしょう。どうすればいいかも分からず、泣いてしまうかもしれません。
一方で、大人にはサイレンの知識があります。何があればサイレンが鳴るのかは知っています。火災か、あるいは機器の故障です。とにかく、火災報知器が鳴っているからには、今いる場所からの避難を考えるでしょう。
サイレンが鳴る理由・背景・意味など、サイレンに関する知識が「脳内の辞書」にある・ないで、こんなにも態度(行動)は分かれます。
私たち人間はサイレンに限らず、無数のスキーマを持って日々を過ごしています。ただし、バブーと生まれたての赤ちゃんはスキーマを持ち合わせていません。成長に合わせてスキーマが成長するのです。
その過程を『認知発達理論』としてまとめたのが、心理学者ジャン・ピアジェです。具体的には、同化・調節・均衡化として解説されています。
同化(Assimilation)とは、脳内のスキーマに新しい経験や情報を当てはめて理解する働きです。例えば、子供が初めて犬を見た後、四本足の動物全てを「犬」と認識します。
調節(Accommodation)とは、新しい経験や情報が脳内のスキーマではうまく理解できない場合に、スキーマ自体を変化させる働きです。例えば、先ほどの子供が続いて猫を見た場合、四本足の動物全てが「犬」ではないと認識して、スキーマを修正します。
均衡化(Equilibration)とは、同化と調節のバランスを取る働きです。例えば、先ほどの子供で言えば、新しい情報に出会うたびに、同化と調節を繰り返して「動物」という概念をより深く知るようになります。
膨大な回数の同化・調節・均衡化を経て、私たち人間は日常生活を難なく過ごせているのです。例えば赤ちゃんは、ボールを投げた後に違う大きさのボールを握り方を変えて投げることが出来ます。同化と調節をほぼ同時に行い均衡化を図っているのです。
ただし、歳を重ねるとスキーマが強くなり過ぎて、同化ばかりして調整が弱くなる(均衡化に失敗する)傾向を感じます。ハラスメントはダメですよと世間一般では言われているのに、未だにセ・パ両方達成して追放されるおじさん・おばさんは後を絶ちません。
その意味で、「若さ」の本質とは肌艶などの見た目ではなく、スキーマの同化・調節を続けられる脳だと筆者は考えます。
では、AIはどないなもんでしょうか。
『AIの父』としても知られるマービン・ミンスキーは、1974年に『A Framework for Representing Knowledge』を発表し、知識とは何かをアップデートして、AI開発を大きく推進させました。
論文の中で、ミンスキーは知識を「別々の単純な断片の集まり」ではなく、「大きく構造化された"単位"」で捉えるべきだと主張しました。この単位をミンスキーは「フレーム」と名付けました。
ミンスキーは、フレームについて以下のように解説します。
フレームとは、ある種の典型的な状況(たとえば、ある種類の居間にいることや、子供の誕生日パーティに行くこと)を表現するためのデータ構造である。
フレームとは記憶された枠組みであり、必要に応じて細部を変更することで現実に適合させる。
フレームの「上位レベル」は固定されており、想定される状況について常に成り立つ事柄を表す。下位レベルには多数の「スロット」があり、そこには具体的な事例やデータを埋めなければならない。
まさに「スキーマ」であり「同化と調節」そのものです。ミンスキーは人間の持つスキーマを、機械上でフレームとして再現しようとしたのです。
つまり、人間の見え方・聞こえ方・考え方をプログラムで再現しようとしている点において、AIと人間は「一緒」なのです。LLMを中心とする生成AIも発想は変わっていません。
人間とAI、どう違うのか?
私たち人間は、アブダクションが得意です。アブダクションとは「観察した事象(結果)から最もありえそうな原因を推測する(知識を拡張する)思考法」です。平たく言えば、アブダクションとは「一を見て十を知る能力」みたいなもんです。
例えば、目の前の火災報知器から大音量でサイレンが鳴ったとします。スキーマを用いれば、サイレンが鳴る原因は無数に推察できます。さらに観察を進めて(煙が全く無いぞ…)と気付けば「故障」かもしれませんし、(外から悲鳴が聞こえるぞ…)と気付けば「火事」かもしれません。
私たち人間は、常日頃から、目に見えない因果関係を予測したり洞察したりするのが得意です。江戸川コナンは、現場をちょっと観察するだけで「あれれ~おかしいな~」と気付きます。尋常じゃない観察力・洞察力の持ち主。私が犯人ならドキッとしちゃう。
ただし、アブダクションが得意だとして、良いことばかりではありません。勝負事ではげんを担いで同じ服を着続けたり、黒猫が横切れば不吉だと騒いだり、迷信に思考や行動を縛られてしまうのです。それもまた人間。
つまり人間は「無い」のに「いる」と妄想出来るのです。「あったとして」と仮定をおけるのです。風呂でシャンプーしていたら視線を勝手に感じて、天井の木目を人間だと錯覚して、親戚のおじさんが来ていたらお土産を期待してしまう。
では、AIはどないなもんでしょうか。
昨今進化が著しい生成AI(LLM)は、めちゃくちゃ頭が良いのですが、良過ぎるが故に「次に出力すべき単語は何か統計的に考えるの上手いマシーン」であり、アブダクションも洞察も苦手です。
「今日は雨が…」まで書けば高い確率で「降っている」と続きますし、「儲かりまっか?」と呼び掛ければ高い確率で「ぼちぼちでんな」「さっぱりワヤですわ」と続きます。それは、収集した膨大なデータから(そう書かれた文章が多い)と分かっているのです。
もちろん、サイレンが鳴れば「火事かもしれない」と回答できるのですが、それはアブダクションが働いて原因を推測したのではなく、既にフレームに組み込まれていたに過ぎません。
実際、生成AIの苦手なアブダクション領域の研究が進んでいます。2025年2月に発表された『Evaluating the Robustness of Analogical Reasoning
in GPT Models』(Lewis & Mitchell)では、AIが私たち人間のような柔軟で汎用的な推論を行っているのか、それとも単にフレームに含まれる表面的なパターンを模倣しているだけなのか検証しています。
Analogical Reasoningとは、「類推による推論」を意味しています。二つの異なる事柄の間にある構造的・関係的な類似性を見つけ出し、それに基づいて推論する能力です。
論文によると、「abcd → abce」なら「ijkl → ?」という簡単な問題は人間もGPTも解けるのですが、「abbcd → abcd」なら「ijkkl → ?」という少し捻った問題は人間が解けてGPT系が苦手とする傾向を確認できました。
特に「abcd → 1234」なら「hgfe → ?」という英語から数字への置き換え+英字の並びを変えたような複雑な問題は、GPT系は壊滅的に解けませんでした。
つまり、生成AIは私たち人間のような抽象化・推論は苦手で、パターンに当てはめて後に続く単語を確率的に導き出しているだけなのです。ある特定の問題を解くために正答率を高めても、そのモデルに最適化されただけなら脆いと言えるでしょう。
ただし、これらの問題はGPT5では既に高い解答率を示しています。推論モデルが出来たのではなく、現在のフレームがこれらの問題を覚えたに過ぎません。
つまり、AIは賢過ぎるがゆえに膨大なデータから「次に来る言葉は…」と統計的に出力できるものの、人間のようにアブダクションを用いて因果関係を見たり・見過ぎたりしない(いや、むしろ出来ない)点において、AIと人間は「違う」のです。LLMを中心とする生成AIも発想は変わっていません。
人間がAIに負けないために
以上のことを踏まえると、AIは知識量を問うクイズなら人間に負けません。しかし、閃きを問うクイズならなら人間が勝ちます。
ChatGPT5がめちゃ弱いことを確認できているのは、例えば「あるなしクイズ」です。こちらのサイトからクイズを参照しました。

10分も考えて不正解でした。
うしろ。さいふ。ぶたい。いしかわけん。正解は、「ある」には動物が隠れていました。漢字を平仮名に置換し、さらに隠れている文字を発見するなんて、「次に出力すべき単語は何か統計的に考えるの上手いマシーン」には出来ませんでした。学習したデータには無かったようです。かかか!
Lewis & Mitchell の論文で指摘されたように、後ろ・財布・部隊に共通するフレームから「ファスナー(チャック)」を導き出したようです。
ただし、いずれ「あるなしクイズ」用のフレームが出来てしまい、あたかも推察しているかのように振る舞う生成AIとなるでしょう。
つまり、AIに(今のところは)負けないのは、人間がもっとも得意とするアブダクションであり、観察であり洞察であり考察です。
記憶していることを思い出すのではなく、自分の頭で考えることです。みんなが知っていることの価値は下がり、あなたしか気付けなかった着眼点の価値は上がります。

日本の生成AI活用も遅れているようですが、以上の流れを踏まえると「なぁ~んだ、使えるところは使えるじゃん!」と不安も和らぎません?(多少粗いフリでオチとさせていただきます)
いいなと思ったら応援しよう!
1本書くのに、だいたい3〜5営業日くらいかかっています。良かったら缶コーヒー1本のサポートをお願いします。

