この記事は何 ナレッジセンスでは、エンタープライズ向けにRAGサービスを提供しています。その中で「RAGは簡単に作れるけど、精度を上げるのは難しい」という課題に日々向き合っています。本記事は、2024~2025年に公開された研究や事例をもとに、RAGの回答精度を高める代表的なアプローチを ざっくりまとめたものです。 ざっくりサマリー この記事では、企業の社内データを利用したRAG、特に大企業で「エンタープライズRAG」での実装手法についてざっくり理解します。まず、エンタープライズRAGでのよくある課題をお伝えします。その上で、2025年現在の最新動向を踏まえ、評価手法のような基本戦略から、ちょっと高度なテクニックまで、RAGの精度を向上手法を概観します。 RAG、実装は簡単。しかし、精度向上は「茨の道」 *Langchainによる『RAG FromScratch』から引用。一部改変 RA

先日の記事で「CoTを用いて『推論』する生成AI」の「推論」能力の限界について、論文2点を挙げて論じたところ思いの外反響が大きくてちょっとびっくりしたのでした。 なのですが、最近になって同じテーマに対して「厳密に条件統制されたデータセットを用いてLLMを実際に構築した上で実験した」という論文が出てきたとのことで、ちょっと読んでみました。それがこちらです。 実のところ、読んでみたらかなり技巧的かつ綿密に設計された内容の論文で当初一読した範囲では理解し切れない感じがありました。なのですが、非常に興味深い内容だったのと、その検証手法が斬新だったということもあり、このブログでは珍しいことですが2回連続で論文紹介をしてみようと思います*1。なおいつもながらですが、記事中に理解不足や認識の誤りなどの箇所がありましたら何なりとご指摘くだされば幸いです。 巧みな実験設計:CoT推論に影響し得る「3つの次元

ChatGPTに「○○は将来どうなりますか?」と直接的に尋ねても、大抵は「確かなことは言えません」といった控えめな返答しか得られない。その背景には、未来の出来事を予測しないようChatGPTの頭脳であるLLM(大規模言語モデル)に調整が施されている可能性も指摘されている。ところが、プロンプトにある工夫を加えると、雄弁に未来を語り出すという。どういう工夫なのだろうか。(小林 啓倫:経営コンサルタント) 生成AIの予測力を上げるには 質問すれば何でも答えてくれる、便利な生成AI。いっそ未来のことも聞けないかというわけで、さまざまな形で生成AIを未来予測に活用する取り組みが行われてきたことは、この連載でも何度か取り上げた。 たとえば、専門家が編み出した「未来予測手法」に従うよう指示した生成AIは、予測精度が上がるという研究結果が出ている(参照記事)。 しかし、もっと簡単にChatGPTの予測精度

1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く