ChatGPTやGeminiなどの生成AIは便利だが、「思ったような答えが返ってこない」と感じる場面は多い。原因の多くはAIの性能不足ではなく、指示の出し方が曖昧で、AIが何を優先すべきか判断しにくいことにある。
本記事では、AIに意図を正しく伝え、回答の精度を上げるための実践的なコツを整理する。具体例の渡し方、長い文脈の組み立て方、モデルごとの指示の出し分けまで、今日からそのまま使える形でまとめる。
フォーマットではなく具体例を渡す
「簡潔に」「分かりやすく」といった言葉での指示には限界がある。人間が考える「簡潔」とAIが判断する「簡潔」にはズレが生じるからだ。
意図を伝える有力な方法のひとつは、「具体例(見本)」を見せることである。1つだけ例を示す方法は「ワンショット」、複数の例を示す方法は「few-shot prompting」と呼ばれる。特に文体・フォーマット・粒度を揃えたいときに効果を発揮する。
- 具体例が効きやすい場面: 「過去に褒められた日報の見本」を1つ提示するだけでも、AIはその「熱量」「構成」「雰囲気」を掴みやすくなる。文章の型を揃えたいときは、抽象的な説明よりも見本のほうが伝わりやすいことが多い。
- 注意点: 推論や分析が中心のタスクでは、例を増やしすぎると出力が見本に引っ張られることがある。OpenAI系では、まず指示を明確にしてから必要に応じて例を足す進め方が扱いやすい。一方でGemini系では、少数の具体例を早めに添えることが有効な場面もある。つまり、「最初は例なしが正解」と決めつけず、使うモデルに合わせて調整するのが安全だ。
- 正解がない場合: 初めての仕事で手元に見本がない場合は、最初の1つだけは人間が本気で作り込み、それを「お手本」としてAIに渡すと、後続の作業を安定させやすくなる。
長い文脈では、依頼内容を最後に書く
長い資料や複数の条件を含むプロンプトでは、最後に「今回やってほしいこと」を書くと、AIがタスクを見失いにくくなる。ただし、常に最後の言葉が最重要と断言できるわけではない。役割、禁止事項、出力形式のような重要ルールは、システム指示または冒頭に置くのが基本だ。
実務では、以下の順序が扱いやすい。
- 最初:役割・制約・出力形式を書く
「何者として振る舞うか」「何をしてはいけないか」「どんな形式で返すか」を先に固定する。 - 必要なら例を置く
文体やフォーマットを揃えたい場合は、短い見本をここに入れる。 - 中盤:参照資料を置く
会議の書き起こしや仕様書など、今回だけ変わる情報をまとめて渡す。 - 最後:今回の具体的なタスクを書く
「以上の資料から決定事項を抽出し、メール形式で出力してください」のように、今回の依頼を最後に明記する。
Google(Gemini)の公式ガイドでは、長いコンテキストで資料を先に置き、質問や依頼を後ろに置く構成が案内されている。OpenAIでも、役割や重要制約は先頭に置きつつ、資料とタスクを明確に分けて書くのが基本だ。
複雑なタスクでは観点や手順を整理する
複雑なタスクでは、必要な観点や手順を整理してから答えさせると精度が上がることがある。ただし、「ステップバイステップで考えて」のような一文を毎回足せばよいわけではない。計算、条件分岐、診断のように複雑な問題では有効なことがあるが、モデルによって効き方が変わる。
- 使いやすい言い方: 「回答前に、必要な観点を整理してください」「判断に必要な条件を先に洗い出してください」など
なぜ効くのかというと、問題を分解するよう促すことで、途中の「推論ミス」や条件漏れを減らせる場合があるからだ。特に以下のケースで効果が出やすい。
- 複数の条件が絡む判断や分析
- 計算・数値を含む問題
- 原因と結果の連鎖を追うタスク(トラブルシューティングなど)
ただし、OpenAIの最新のreasoning系モデルでは、思考過程を細かく要求するよりも、ゴール・制約・成功条件を明確に書くほうが重視される。万能テクニックとして常用するのではなく、複雑なタスクで必要に応じて使うのが無難だ。
マークダウン形式・XMLタグで構造化する
AIは、入力された言葉の次にどんな言葉が来るかを膨大な計算で予測する「連想ゲーム」のような仕組みで回答を生成している。そのため、指示文の構造がぐちゃぐちゃだと、AIは誤った連想をしてしまい、回答の精度が下がる。
そこで有効なのが、記号を使って文章を構造化する「マークダウン形式」と「XMLタグ」である。
- 「#(ハッシュ)+半角スペース」: これを見出しの頭に付けるだけで、AIは「ここは命令」「ここは参考資料」と構造をパッと理解できる。
- 「 “`(バッククォート3つ)」: これで文章を囲むと、「ここからここまでが一塊のデータである」とAIに明示できる。複数の資料を貼り付ける際にAIが混乱するのを防ぐのに非常に効果的だ。
- XMLタグ(
<context>〜</context>など): Gemini では XMLタグのような明確な区切りが案内されている。OpenAIでも、セクションを明確に分けた一貫した構造は有効だ。どちらか一方が絶対に優れているというより、1つの形式に統一して使うことが大切だ。
<context>
ここに参照資料を貼り付ける
</context>
<task>
ここに具体的な指示を書く
</task>
このように区切りを明確にして構造化すると、AIはプロンプトの各セクションの役割を把握しやすくなる。
ハルシネーションを減らすには、出典と不明点を明示させる
AIを使ううえで厄介なのが、もっともらしいが事実ではない内容を自信ありげに出してしまうことである。これを完全にゼロにするのは難しいが、回答の作らせ方を工夫することでかなり減らせる。
重要なのは、「正確に答えて」とだけ頼まないことである。その一文だけでは、AIは「何を根拠に答えるべきか」「確信が持てないときにどう振る舞うべきか」が分からない。
実務では、次の3点をセットで指示すると安定しやすい。ただし、出典を付けさせるだけで正確性が保証されるわけではない。引用可能な資料をあらかじめ渡すか、検索・grounding機能で参照元を取得できる状態にしておくことが前提になる。
- 参照元を限定する: 「以下の資料だけを使って答えてください」「この検索結果だけを根拠にしてください」のように、使ってよい情報源を絞る。
- 各主張に対応する出典を付ける: 回答の最後に一覧だけを置くのではなく、本文の各要点や段落ごとに、どの資料を根拠にしたのか分かる形で示させる。
- 不明な点は不明と書かせる: 根拠が見つからない場合は推測で埋めず、「資料内では確認できない」と明記させる。
特に有効なのは、「各主張に対応するソースを出すこと」と「推測した箇所を分けること」である。これにより、読む側が「どこまでが確認済みの事実で、どこからが補足や推定なのか」を切り分けやすくなる。逆に、根拠のない内容にもっともらしいURLや文献名を付けてしまうこともあるため、出典の有無だけでなく、その出典が実在し、本文を本当に支えているかまで確認が必要だ。
たとえば、次のように依頼するとよい。
以下の資料だけを使って回答してください。
資料に書かれていない内容は推測で補わず、「資料内では確認できません」と書いてください。
回答では、各要点の末尾に参照元を付けてください。
最後に「参照したソース一覧」を補足としてまとめてください。
さらに厳密にしたい場合は、次の条件も有効だ。
- 引用と要約を分けさせる: 「引用」と「要約」を分けて出させると、AIが勝手に意味を膨らませにくくなる。
- 事実と意見を分けさせる: 「事実」「推測」「提案」を別見出しで出させると、読み手が誤解しにくい。
- 一次情報を優先させる: ニュース記事やまとめ記事より、公式ドキュメント、原文、仕様書、公開データを優先させる。
要するに、ハルシネーション対策では、AIに自由回答させるのではなく、根拠・範囲・不明時の振る舞いを先に固定することが重要である。
AIに提案してもらう
最も重要なコツは、「自分で解決策を決めつけて指示を出さない」ことである。多くの人が、自分の知識の範囲内で構成や内容を決めてしまい、AIをその狭い「思考の枠」に閉じ込めてしまっている。
AIの真の実力を引き出すには、以下の手順で「対話」を行う。
- 状況と悩みをそのまま伝える: 「〇〇を導入したいが、現場の反発が予想されて悩んでいる。戦略を一緒に考えて提案してほしい」と、あえて弱音や背景を正直に伝える。
- 魔法のフレーズを添える: 「良いアウトプットを出すために、私に聞きたいことを3つに絞って質問してください。質問は1つずつ行って進めてください」と付け加える。
この方法をとると、AIは「良い回答を作るために必要な情報」を自ら収集し始める。AIとのやり取りを通じて、人間の頭にはなかった戦略的なアイデアが盛り込まれた「120点の回答」が得られるようになる。
モデルの性質に合わせて指示を変える
現在の主要なAIサービスは、単純な「推論モデル / 通常モデル」の二分法だけでは説明しきれない。OpenAIでは同じ系列のモデルでも推論量を調整できるものがあり、Googleでもモデルごとに速度と推論の強さが異なる。
| モデルの傾向 | 特徴 | 指示のコツ |
|---|---|---|
| 高速・低コスト寄り | 応答が速く、日常的な要約や整形に向く | 手順、制約、例、出力形式を具体的に書く |
| 推論強化寄り(Reasoningモデル) | 複雑な判断、多段の分析、難しい問題に向く | ゴール、成功条件、制約、使ってよい情報源を明確に書く |
使い分けのイメージ:
- 高速・低コスト寄り: 日報の整形、定型メールの下書き、短い要約など、処理速度を重視したい場面に向く。
- 推論強化寄り: 原因分析、仕様の比較、複数条件の整理など、考える量が多い場面に向く。
どのモデルでも、禁止事項・出力形式・評価基準は具体的に書いたほうが安定する。「推論が強いモデルだから丸投げでよい」とは限らない。使っているAIサービスの設定で、モデル名や推論設定を確認してから使い分けるのが安全だ。
長いドキュメントは見出しや目次で整理する
マニュアルや会議資料など、長いドキュメントをAIに読み込ませる際は、見出し・要約・目次のような道しるべを用意すると、内容を参照しやすくなる。ただし、「100行以上なら必ず目次」のような共通ルールが公式に定められているわけではない。
AIは、与えられた情報(コンテキスト)が長すぎると、どこを参照すべきか分からなくなる「迷子」の状態に陥ることがある。
- メリット: 目次や見出し一覧があると、AIは膨大な情報の中から必要な箇所を探しやすくなる。
- 実践法: 既に見出しがある資料なら、その構造を保ったまま渡す。長文で見出しが弱い資料なら、「要約」「セクション一覧」「目次」を先頭に短く添えると扱いやすくなる。これは公式の必須ルールというより、長文を扱うときの実務上の工夫だ。
うまくいかなければ「言い換え」てみる
期待した回答が得られなかった場合、同じプロンプトを繰り返すのは効果がほとんどない。Gemini の公式ガイドでは、「別の言い方・表現に変えること」が明示的に案内されている。OpenAIでも、プロンプトを反復的に改善し、評価しながら調整する考え方が重視されている。
- 「〜について教えて」→「〜とは何か、3つの観点から説明して」
- 「〜を改善して」→「〜の問題点を列挙し、それぞれに改善案を提案して」
- 目的を直接聞く→多肢選択形式(「AとBとCのどれが良いか」)に変える
また、プロンプトの内容の順序を変えるだけでも回答が変わることがある。「例→状況→指示」の順で試してみたり、参考資料を指示の前に置いてみたりするのも有効だ。
まとめと効率化のヒント
こうした手順を効率化する工夫として、「ユーザー辞書登録」を活用する方法がある。
- 「や」→「# やってほしいこと」
- 「しつもん」→「良いアウトプットを出すために、私に聞きたいことを3つに絞って質問してください。質問は1つずつ行って進めてください」
- 「すてっぷ」→「回答前に、必要な観点を整理してください」
- 「こんてきすと」→「
<context></context>」(XMLタグのひな型) - 「そーす」→「参照したソースを必ず列挙し、資料にない内容は推測で補わず、不明と書いてください」
また、毎回ほぼ同じ文言を入れているなら、対応しているAIサービスでは「パーソナライズ」や「カスタム指示」に先に登録しておくと、毎回の入力を短くできる。特に、文体、確認不足時の振る舞い、出力の基本姿勢のような常に共通する条件は、カスタム指示に置くと管理しやすい。逆に、その案件だけで変わる目的、資料、納品形式、禁止事項は、都度のプロンプトに書き分けるほうが安全だ。なお、こうした機能の名称や利用可否は、サービスやプラン、アカウント種別によって異なる。
カスタム指示に入れておくと使いやすい文言例:
- 不明点の扱いを安定させる文言
「根拠が不十分な場合は断定せず、分かること・分からないこと・追加で必要な情報を分けて書いてください。」 - 文章の分かりやすさを揃える文言
「専門用語はできるだけ平易な言葉に言い換え、必要なら1文で補足してください。冗長な前置きは省き、結論から書いてください。」 - 実務向けの出力形式を安定させる文言
「回答は、結論、理由、次にやることの順で整理してください。複数案がある場合は、それぞれのメリットと注意点も添えてください。」
テクニックの早見表:
| テクニック | 効果 | 特に有効なシーン |
|---|---|---|
| 具体例(ワンショット) | 出力スタイルの統一 | 文体・フォーマットを揃えたいとき |
| 役割・制約は先頭、タスクは末尾 | 構造の明確化 | 長い資料を渡しつつ依頼内容も明確にしたいとき |
| 必要に応じた段階化指示 | 推論ミスの減少 | 複雑な分析・計算・判断 |
| マークダウン・XMLタグ | 構造理解の向上 | 複数の資料・長い指示 |
| 出典明記・不明点明示 | ハルシネーションの抑制 | 調査、要約、比較、事実確認 |
| 対話で提案させる | アイデアの引き出し | 初めてのタスク・戦略立案 |
| モデル特性に合わせた指示 | コストと精度の調整 | 日常タスクと高度な分析タスクの切り分け |
| 見出し・要約・目次で整理 | 参照しやすさの向上 | 長い資料を読ませるとき |
| 言い換え | 行き詰まり状況の打開 | 期待通りの回答が得られないとき |
参考にした公式情報
以下は、2026年4月時点で内容確認に使った公式ガイドである。
- OpenAI: Prompting
- OpenAI: Reasoning best practices
- OpenAI: Models
- Google: Prompt design strategies
- Google: Long context
コメント