精度よく生成AIを使うため、プロンプトのテクニックの一部を紹介します(写真:prathanchorruangsak/PIXTA)

流行語大賞にノミネートされるなど、生成AIはビジネスパーソンにとっても今や仕事で欠かせない存在だ。その生成AIを、ビジネスのプロフェッショナルであるコンサルタントたちはどのように使いこなしているのだろうか。『生成AI時代の「超」仕事術大全』(東洋経済新報社)の著者の一人である佐々木三泰氏が、実務で使えるプロンプトのテクニックの一部を紹介する。

仕事やビジネスで当たり前のように生成AIを使う時代が来た。本稿では、より精度高く生成AIに働いてもらえるよう、プロンプトの工夫の仕方について、3つのワザをご紹介しよう。

例を与える──Few-shot

人間は、何もないところから依頼に対応しようとすると、アウトプットするまでに時間がかかり、質も落ちる。これは、生成AIも同じだ。


「Few-shotプロンプティング」と呼ばれる手法は、プロンプトとしていくつかの例文を提示することで、生成AIから依頼人の意図に沿った回答を得やすくするテクニックである。いくつかの例(Few-shot)を提示したうえで同じタスクを実行してもらうと、生成AIの回答精度が上がるのだ。

例えば、生成AIに「ChatGPTの機能と特徴について教えてください」とシンプルに問いかけてみよう。生成AIは思いつく限りの機能と特徴を教えてくれるはずだ。

(*外部配信先では図や画像を全部閲覧できない場合があります。その際は東洋経済オンライン内でお読みください)


「ChatGPT の機能と特徴について教えてください」とシンプルに問いかけてみると

一方、『質問と3つのポイントに絞った回答』のセットを例文としてプロンプトに仕込んだうえで同じ質問を生成AIに投げかけると、生成AIがプロンプトの例文の意図を解釈し、例文に合ったフォーマットで回答を生成してくれる。


『質問と3つのポイントに絞った回答』のセットを例文としてプロンプトに仕込んだうえで同じ質問を生成AI に投げかけると

生成AIの回答の冒頭で生成AIが「3つのポイントに絞って説明します」と発言しているあたりも、例文の意図を正しく解釈していることがうかがえる。

思考連鎖型プロンプティング

「思考連鎖型プロンプティング(Chain-of-Thought Prompting:CoT)」と呼ばれる手法は、Wei et al.(2023)が提唱した論文「Chain-of-Thought Prompting Elicits Reasoning in Large Language Models」で紹介された。これは、複数ステップを処理しなければ回答できない問題を、中間のステップごとに行動内容を分解することで、解くべき課題を単純化することができる。人間が複数ステップの推論問題を処理する際の直感的な思考プロセスをAIモデルに模倣させているのである。つまり、CoTとは、実際に人間だったらこう考えるという思考ステップを生成AIに例示することで、回答の精度を上げるテクニックといえる。

以下に、Few-shotプロンプティングを使って課題を生成AIに解いてもらった場合と、CoTを使って解いてもらった場合を例示する。


Few-shot プロンプティングを使って課題を生成AI に解いてもらった場合


CoTを使って解いてもらった場合

CoTのほうが、いかに複雑な課題を説くのに適しているかがおわかりいただけると思う。

CoTの発展形として、Kojima et al.(2023)は論文「Large Language Models are Zero-Shot Reasoners」で「Zero-shot CoT」というアイデアを提唱した。これは、元のプロンプトに「ステップバイステップで考えてみてください」という文言を追加することで、回答精度が飛躍的に向上したことを報告している。論文ではGPT-3に上記の文言を追加するだけで、Zero-shotでの推論精度が17.7%から78.7%へと飛躍的に向上した、と主張している。

生成AIの回答精度に疑問を感じた読者の方がいれば、この「ステップバイステップで考えてください」という単純なプロンプトを追加してみてほしい。この一文を追加するだけで、生成AIは自ら複数ステップの問題をシンプルなステップの問題に読み替え、正しい答えにたどり着く可能性が高まる。またこれは、プロンプトに使用できる例があまりない場合にも有効な手法だ。

「嘘つき(ハルシネーション)」に対する対策

生成AIは高度な能力で、依頼人からのプロンプトに対し「それらしい」回答を生成するが、その真偽は生成AIでは判断できず、結果嘘をつく(ハルシネーションを起こす)ことが往々にしてある。また生成AIは、回答にバイアスがかかっているか否かの判断もできないため、偏見が含まれた回答を生成してしまうこともある。

そこで、プロンプトを工夫するいくつかの手法を使ってハルシネーションが発生するリスクを軽減する必要がある。

・追加情報の付加:漠然とした依頼や抽象的な質問だと、生成AIの生成能力が悪い方向に発揮され、事実に基づかない回答を無理やり生成する可能性が高くなる。この場合、生成AIに調査させる領域の幅を狭めてやるとよい。例えば、調査対象年度や調査対象の業務領域といった具体的なスコープをプロンプトに盛り込み、より情報源を特定しやすいようにしてあげよう。

・回答の比較:生成AIは同じ質問をしても、出力のたびに結果が変わることはよくある。これを利用し、複数回同じ質問を生成AIに投げかけ、出てきた回答内容を比較しよう。1つの回答が他の回答と比べ、内容が大きく異なる場合、ハルシネーションである可能性が高い。

・出典の提示:ファクトチェックができるよう、根拠となる情報ソース(例:Web サイトのURL)を回答と併せて生成AIに提示してもらおう。判断の根拠が明示されれば人間も確認でき、情報ソースが信頼のおけるものであれば、回答の信頼度も上がる。

もちろん大前提として、生成AIから出力された情報を鵜呑みにせず、人間が必ず確認することを怠ってはならない点に気をつけてほしい。

(佐々木 三泰 : アクセンチュア ビジネス コンサルティング本部 AI グループ AI センター アソシエイト・ディレクター)