0. はじめに ELYZAと株式会社マイナビが共同開発した「マイナビAI Pencil」が公開されました。本記事ではこの開発過程において重要な役割を果たした「Prompt Engineering」と、それを支える体系的な運用基盤「PromptOps」について解説します。 「マイナビAI Pencil」については、当社リリースならびにマイナビリリースをご覧ください。 株式会社ELYZA プレスリリース:https://prtimes.jp/main/html/rd/p/000000062.000047565.html 株式会社マイナビ様 プレスリリース:https://www.mynavi.jp/news/2025/07/post_49493.html なお、本ブログに関する研究開発は、プロジェクトに関わった ML(機械学習)エンジニアの曽我部 (@sog4be)、堤 (@ozro_223)
「想像するな」の逆説 「ピンクの象を想像するな」 この一文を読んだ瞬間、あなたの脳内にはすでにピンクの象が踊っていませんか? この現象は「皮肉過程理論」と呼ばれるもので、「何かを考えないようにしよう」とすればするほど、かえってそれについて考えてしまうという人間の心理的な特性を指します。心理学者ダニエル・ウェグナーが研究したこの現象は、私たちの日常でもよく起こります。 驚くべきことに、ChatGPTやBERTなどの最新AI(大規模言語モデル、略してLLM)も、この人間と同じ弱点を持っているようなのです。AIの内部で何が起きているのかAIモデルは言葉を「数値の羅列(ベクトル)」として理解します。興味深いことに、「好き」と「好きではない」という正反対の意味を持つ文でも、AIの内部では非常に似た数値パターンとして表現されてしまうことがあります。 例えば: これらは約92%も似ているとされていま
Chat in Visual Studio Code can give you responses and generate code that matches your coding practices and project requirements, if you giveit the right context. Instead of repeatedly adding this information in every chat prompt, you can store this context in files and automatically includeit in every chat request. In this article, you learn how to use custom instructions and prompt files to cus
シンプルかつ網羅的なAWS設計を生成するAIプロンプトの核心は: 構造化された出力フォーマット:設計書の章立てと各セクションの説明内容を明確に指定 具体的なパラメータ要求:抽象的な説明ではなく、実装に使える具体的な設定値を求める 選定理由の明確化:「なぜその選択をしたのか」の説明を求める 代替案との比較:検討した代替オプションとの比較を含める Well-Architectedの原則適用:AWSのベストプラクティスに基づく設計を促す このアプローチを活用すれば、AIの力を借りつつも、実装に直結する高品質なAWS設計書を効率的に作成できます。何より、設計者の時間を節約しながらも、その専門知識と判断を最大限に活かせるところに大きな価値があります。 ※以下を全量使用すると量が多いので、該当箇所のみの抜粋を推奨 以下の要件に基づいて、詳細かつ実装可能なAWSアーキテクチャを設計してください。各セクシ
\r\n<li><span class=\"biz-smb-fs-m1\"><b><span class=\"biz-smb-txt-link\"><a href=\"#prompt\">プロンプト一覧</a></span></b></span></li>\r\n<li><span class=\"biz-smb-fs-m1\"><b><span class=\"biz-smb-txt-link\"><a href=\"#move\">ChatGPT活用動画</a></span></b></span></li>\r\n<li><span class=\"biz-smb-fs-m1\"><b><span class=\"biz-smb-txt-link\"><a href=\"#blog\">関連記事</a></span></b></span></li>\r\n<li><span class
Prompt engineering is a relatively new discipline for developing and optimizing prompts to efficiently use language models (LMs) for a wide variety of applications and researchtopics. Prompt engineering skills help to better understand the capabilities and limitations of large language models (LLMs). Researchers use prompt engineering to improve the capacity of LLMs on a wide range of common and
ChatGPTを利用するときに漫然とプロンプトを入力するだけでは、その能力を十分に引き出せない。ChatGPTの達人である深津貴之氏が、プロンプトの極意を伝授する。 第5回 深津氏に学ぶChatGPTプロンプトの極意、必要な行動を考えさせてから尋ねるChatGPTの達人である深津貴之氏にプロンプトの書き方を整理して教えてもらう。今回取り上げるのは「ReAct(Reasoning + Acting)」だ。 2024.09.06 第4回 深津氏に学ぶChatGPTプロンプトの極意、段階ごとやアプローチ別に考えさせるChatGPTの達人である深津貴之氏にプロンプトの書き方を整理して教えてもらう。今回取り上げるのは「Chain of Thought」と「Tree of Thought」だ。 2024.09.05 第3回 深津氏に学ぶChatGPTプロンプトの極意、資料そのものをAIに作ってもら
Don’t have a first draft prompt? Try the prompt generator in the Anthropic Console! When to prompt engineer Thisguide focuses on success criteria that are controllable through prompt engineering. Not every success criteria or failing eval is best solved by prompt engineering. For example, latency and cost can be sometimes more easily improved by selecting a different model. Prompt engineering is
この記事は "What We’ve Learned From A Year ofBuilding with LLMs" という記事を著者の一人である Eugene Yan さんから許可を得て翻訳したものです。 https://applied-llms.org/ Thank you for giving me a permission to translate this wonderful article! 著者の方々 Eugene Yan Bryan Bischof Charles Frye Hamel Husain Jason Liu Shreya Shankar 原文の公開日 2024/6/8 今は大規模言語モデル(LLM)を使った開発がとってもエキサイティングな時期です。この1年間で、LLMは実世界のアプリケーションに対して「十分に良い」ものになりました。そして、年々良くなり、安く
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く