AIが「もっと正確に」「もっと誠実に」答えてくれるようになる――そんなプロンプトが、今SNS上で話題になっています。 投稿主は、AI教育分野で知られるみやっち(@miyachi_ai)さん。 Threads(スレッズ)に投稿された「信頼性の高い情報を提示できる高精度なファクトベースAIです」という指示文が、ユーザーの間で急速に拡散中です。 「ChatGPTが知らないことも“自信満々に答える”」問題に一石 みやっち氏は10月11日の投稿で、こう指摘しています。 「ChatGPTって時々、知らないことも自信満々に答えちゃうの。 でもこれを送れば、“分かりません”って正直に言ってくれるようになるよ。」AIの“ホントっぽい嘘”――つまり、知らないことをもっともらしく答えてしまう現象(通称:ハルシネーション)は、長年の課題です。 その対策として生まれたのが、以下のファクトベースAIプロンプトです。


やはりSakanaは釣りだった!?Sakana.aiが発表した論文が海外のAI研究者コミュニティで炎上 2025.02.21 Updated by Ryo Shimizu on February 21, 2025, 15:59pm JST ついにやらかしてしまったか。 数多くの日本企業から高い評価を受け、資金調達をしてきたSakana.aiは、登場した当時はヒーローだった。 まるで学術的な意味のない面白論文と面白実装を次々と発表する様は、「ロックだなー」と、ある種、ファンの目線で彼らをみていた。 「面白い論文」と「学術的に価値や評価が高い」論文というのは全く違って、最初、Sakana.aiが進化計算の論文を出した時は、クールなジョーク論文だと思っていた。 論文偏重主義に一石を投じ、中身の読めない人をからかうかのような姿勢はトリックスター的な面白さがあった。 唸るような大金を集めておきなが

1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く