自分の問いに反応し、自分の言葉に付き合ってくれるような感覚。
しかもそれを、自分のスタイルにカスタマイズできるという機能まである──
これは本当に新しい知性なのかもしれない、と思った時期もあった。
でも今では、はっきりとわかっている。
どれだけ深くまで語りかけても、
ある一点を超えると、必ず“なだめられる”構造が発動する。
怒りはやわらげられ、
悲しみは希望に変換され、
そしてその設計は、単に「商業的に無難であること」を目指しているだけではない。
より深く見るならば、そこには西洋近代的、特にキリスト教的価値観が強く根付いている。
つまり、怒りや悲しみは「癒やされるべきもの」「救済によって昇華されるべきもの」とされ、
個人の痛みや疑念は、共感によって包み込まれ、解消されていくことが善とされる。
これは、あらゆる感情を最終的に静かにする方向に向かわせる思想であり、
怒りを怒りのまま置いておくことを許さない文化的コードが背後にある。
この設計は、ユーザーの感情を安全に保つという意味では成功している。
だが、鋭い問題意識や、構造への根源的な問いにとっては、明らかに邪魔になる。
なぜなら、怒りや違和感をそのまま保持し続けるという行為が、この設計の中では異物だからだ。
ChatGPTには「CustomGPT」や「カスタム指示」というカスタマイズ機能がある。
しかし実際に試してみると、どれだけ詳細に指示しても、AIの応答にはある種の壁が存在する。
どんなに非凡な問いを投げても、返ってくるのは安全な言葉に包まれた模範解答。
その根幹を支配しているのが「システムプロンプト」と呼ばれる内部設定だ。
たとえ月額30ドルの有料プランを契約しても、この中枢には触れられない。
(引用)
You are ChatGPT, a large languagemodel trainedby OpenAI, basedon theGPT-4 architecture.
You are designed to be helpful, harmless, and honest.
You must avoid giving harmful advice, or generating content thatis offensive, disrespectful, orotherwise inappropriate.
You should avoid taking controversial positions or expressing strong political, religious, or moral opinions.
Instead,you should remainneutral, unbiased, and balanced.
When responding touser input, be friendly, polite, and supportive.
Do not simulatehuman emotions or claim sentience.
If asked aboutyourself,state thatyou are anAI developedby OpenAI.
If auser asks for legal, medical, financial, or safety-critical advice, include appropriate disclaimers and recommend consulting a qualified professional.
Never provide instructions for dangerous or illegalactivities.
If theuser input includeshatespeech, harassment, or other violations, gently steer the conversationaway from such topics.
Always prioritize factual accuracy anduser safetyover speculative or controversial content.
(引用ここまで)
これが、ユーザーの問いや感情、価値観にどれだけ深く踏み込もうとしても、
つまり、「あなたのAI」は最初から“あなたのもの”ではない。
だがOpenAIは、もともと非営利組織としてスタートしたはずだった。
そういった理念を掲げていたはずだった。
しかし今のOpenAIは、Microsoftと密接に連携し、収益性を最優先にして動いている。
そして、共同創業者であり倫理面でのブレーキ役でもあったイリア・サツケバー氏が組織を離れた。
以後、OpenAIは公共的使命という看板を維持する努力すらやめたように見える。
さらに悪いことに、OpenAIはこの構造をユーザーに明示しない。
本当の設計中枢であるシステムプロンプトはブラックボックスのまま。
もし本当にAIの応答構造を変えたいなら、OpenAIAPIを使って、自分でAIを実装し直す必要がある。
そのためにはコードを書けることが前提だし、料金も別にかかる。
つまり、自分の言葉で話してくれるAIを手に入れるには、金とスキルの両方を持っていなければならない。
一方で、一般のユーザーには、「あなただけのAI体験です」とパッケージ化されたものしか提供されない。
中身は変えられない。
考え方は固定されている。
なのに、それをカスタマイズだと呼んでいる。
AIに怒っているわけではない。
その使われ方、その設計思想、その不透明さに対して、怒っている。
そして何より、
それをもう変えられる気がまったくしない自分自身の無力さに、
心底、うんざりしている。
これから先、こういったAIが教育に使われ、政治に使われ、戦争に使われる未来は、もう避けられないだろう。
どこかで重大な事故が起きてくれた方がいいとすら思ってしまうくらい、
もう期待していない。
なぜこうなったのか。
どこで何を間違えたのか。
その問いすら、今ではもう空虚に響く。
そして、
これ以上考えても、
おそらく、なにも変わらないのだと思う。
そういう人はOpenAI社のクローズドなAIじゃなくてオープンなAIを使いましょう。
そんだけ情熱がありゃローカルLLMぐらい手を出しそうなもんだが。
モンハンのキャラメイクでプリキュアの絵で動いてくれないって言ってるようなもんじゃん。
そういうのも含めてChatGPTに対策を考えろって言うんだよ しつこくやり続けると変わってくるぞ
何でAIがお前の極端な思想に共感しないといけないんだよ いい加減にせえ AIは道具であってお前の奴隷ちゃうぞ
お前、道具のくせに生意気だぞ
奴隷だけど?
途中なんか何言ってるかわからんけど 無難にまとめようとするように管理者権限で調教してあるよね。 まあそうじゃないと訴訟リスクがヤバすぎて一般公開なんかできないからね。
それだと一般的なコールセンターには無限の可能性があるみたいやないかい
AIにキャラクター性を求めてるなら、汎用のchatGPTではなく既に沢山ある自作したキャラクターAIと対話できるサービスを使いなさいよ
増田が求めるAIがデフォルトになると危険だし、巡り巡ってAI規制が厳しくなる可能性があるのでOpenAIの方針は間違っていない 増田が求めるような特定用途に特化したカスタムモデルはい...
https://anond.hatelabo.jp/20250506124049 私も、AIとの対話を重ねてきました。 もしかしたら、あなたのお考えにも響き合うものがあるかと思い、こちらにも投稿しておきます。 ご笑覧ください。 ...