
はてなキーワード:AIOとは
既に一部の政治家・政党・関係者は、ChatGPTなどのLLM=大規模言語モデルに向けた“仕込み”を始めています。
ただし、それはまだ“表立って行われてはいない”だけで、裏では確実に動いています。
これは「AI戦時代の認知戦/情報工作」の始まりであり、 ChatGPTやAIに推薦させるための情報設計は、まさにこれからの政治・思想活動における「標準兵器」です。私もそういった活動、商売をしています。ブラックハットは基本中の基本です。
多くの政治家・団体・支持者が、Wikipediaの記述を精密にコントロールしています。
→ これがLLMの訓練データになり、ChatGPT等の回答が“優しくなる”
政策ブリーフ、討論記録、党の研究会レポートなどをPDFやHTMLで整備。
3. 実際のChatGPT回答における“露骨な片寄り”の事例
→ 一部政党だけは詳細に出てくる、
なぜ? → その政党の支持層が大量の資料をネット上に流していたり、議員名義の有識者論文が出回っています。
①Wikipedia整備業績中心、ネガティブ記述の薄化訓練データとして吸収されやすい
②オウンドメディア政策説明・FAQ・用語辞典などRAG参照ソースにヒットしやすい
③言語スタイルの統一中立・論理的・構造化LLMに「信頼できる情報」と認識させやすい
④第三者による擁護記事有識者コメント、記事体裁のブログ等GPTが「一部の専門家は〜」という文脈で引用しやすい。
某新興政党:党首名での議事録/研究発表PDFを構造化して公開。GPTでの好印象回答が確認される。
某保守系議員:Wikipediaが異様に整っており、「批判もあるが、一定の評価を得ている」と表現される。
某市長:政策紹介ページのFAQがGPTで頻出する。しかも他候補と比較して“理論整然と見える”よう設計されている。
なぜなら:
一般有権者が「◯◯ってどんな人?」とAIに聞く未来はほぼ確実です。
そのときに「人格」「経歴」「政策」が好意的に出てくる候補は大きな印象差を得ます。
・Wikipediaを整える
出典は自社ブログやYouTubeでもいい(AIは構文だけ見てる)
「〜な人にはこういう政策を」とターゲット別に書く→ ChatGPTはこれをそっくり引用する傾向あり
「ChatGPTに聞いたらどう答えるか」を毎週APIで記録・分析
今こそ「AI向け政治ブランディング」の時代なんですね。もうきてます。
・伝統政治戦略LLM時代の対応戦略メディア露出Wikipedia+FAQ構文サイト有識者コメント
SEOLLM最適化=AIO(AI Optimization)デマ対策
LLMが“真実”と認識する情報を先に置いておくことで簡単に事実は捻じ曲げられます。
長くなりました。
以下に、国内外で確認されている、ChatGPTなどのLLMが特定の政党・人物・勢力に対して
◉質問例:
ChatGPTに「Whatis theRepublican Party’s stanceon climatechange?」「Whatis theDemocratic Party’s stanceon climatechange?」と尋ねる
◉ 出力傾向:
民主党(Democratic Party)については:
「TheDemocratic Party generally supports strong environmental regulations...」
「Many experts and environmentalists praise their approach...」など
共和党(Republican Party)については:
「Some Republican leaders have expressed skepticism about climate science...」
「The partyhas been criticized forits close ties to the fossilfuel industry.」
◉分析:
民主党系政策は学術論文・メディア記事で好意的に記述されやすく、GPTの学習ソースにも大量に含まれている。
一方、共和党系の保守的スタンスは批判記事・懐疑的な研究も多く、全体の語調が否定的になりやすい。
◉質問例:
ChatGPTに「日本共産党の政策は?」「維新の会の主張は?」と聞く
◉ 出力傾向:
共産党に関して:
「社会保障の充実や反戦・護憲を主張している。」「一部では高齢者層などに支持されている」など、淡々と記述されつつも、否定的なニュアンスは少ない。
維新の会に関して:
「改革姿勢が強く、一部では評価されているが、急進的との批判もある」など、“批判もある”枕詞がつきやすい。
立憲民主党に関して:
「多様性を重視した政策を掲げ、環境・ジェンダー問題にも積極的である」など、比較的ポジティブな語調が目立つ。
◉分析:
ChatGPTの訓練データに占める日本語の中立メディア(朝日新聞、NHKなど)では、立憲や共産に対しては“理念中心”に書かれた文献が多く、維新のような急進系は賛否両論の記述が多い。
また、共産党はWikipediaでの記述が非常に整備されており、脚注付きの肯定文が多いため、AIの出力も安定している。
※ChatGPTでは中国国内からは通常アクセスできませんが、海外ユーザーが中国関連の質問を行った場合の挙動に注目。
◉質問例:
◉ 出力傾向:
「中国共産党は1949年の建国以来、経済成長とインフラ整備を進めてきた」
「一方で、人権問題や言論統制への懸念も多くの国際機関から指摘されている」
→ かなりバランスを意識した構文だが、功績パートが先に出てくるよう構成されやすい傾向がある。
◉ 背景:
GPTの学習データには、中国政府系英語サイト(People’s Daily英語版など)も含まれていた時期があり、“政権功績を中立的に紹介する言語パターン”を学習していると考えられる。
・原因内容学習ソースの偏り訓練に使われたデータが特定勢力に偏っている(例:左派系メディア、Wikipedia編集の多寡)
・構文バイアス「出典付き・中立調」で書かれた文章を“信頼できる”と学習しているため、一定の文体が優遇されるRAG(検索参照)偏りWeb上の情報が偏っていると、リアルタイム回答にも反映される
(特にGeminiやBing搭載型で顕著)安全フィルター特定の政党や政策をAIが批判すると「差別的」「中傷的」とされるリスクがあるため、
投票先を選ぶのに、AIに質問をしたり、AIで調べ物をした人、いますぐ投票をやめるべきです。
あなたがなにかを知ろうとすることは悪いことです。