生成AIが期待どおりに活用できない場面に出くわすたびに、「AIが使えない」と考えてしまいがちです。
そんなときこそ問い直したい視点を、彼が自身のブログ("It's Not an AI Problem. It's a You Problem.")で提案しています。このブログは、彼が登壇したYouTube動画が公開からわずか数週間で50万回以上再生されるなど大きな反響を呼んだことをきっかけに書かれたものです。
実は私自身もこの動画をきっかけに彼のことを知り、その内容に惹かれてブログ記事を読んでみたひとりです。
彼が何を語っているのか、一緒に見ていきましょう。
生成AIは、日々の業務に自然と組み込まれるようになってきています。ちょっとした調べ物から資料作成の下書きまで、使い道は日々広がっています。しかし一方で、「思ったような出力にならない」「結局自分でやり直すことになった」といった、期待とは違う出力に戸惑った経験がある方もいるかもしれません。
ジェレミー・アトリー氏も、そんな経験をしています。あるとき彼は、父親のためにPDFをCSVに変換しようとChatGPTに依頼しました。ところが返ってきたのは、すべてのデータが1行にまとまってしまった、実用に耐えないCSVファイルだったそうです。
一見すると、これはAIの性能不足のように思えますが、よく振り返ってみると、どの情報を抽出すべきか、どんな形式に整えてほしいのかといった前提を、自分がきちんと伝えていなかったことに気づいたといいます。
「AIが使えない」と感じたその瞬間には、自分でも気づかないまま曖昧な問いを投げかけていた可能性があります。
彼は、そうした“問いのかたち”こそが、根本的な課題だと指摘しています。
ジェレミー氏は、「AIの出力がイマイチだと感じるとき、その原因はAIそのものにあるのではない」と指摘しています。
むしろ問題は、こちら側の思考が十分に整理されておらず、“問いの設計“が曖昧であることにあるというのです。
AIは、私たちの思考をそのまま反映する存在です。考えが明確であれば、それに応じた出力が返ってきます。
しかし、意図や背景が不十分なまま依頼してしまうと、AIはその足りない情報を推測で補うしかなくなり、結果として期待とは異なる応答になってしまいます。
たとえば「このPDFをCSVにして」とだけ伝えても、どの情報を抽出したいのか、どのような形式に整えてほしいのかといった前提条件が共有されていなければ、AIはそれを理解することができません。
そのような状態で依頼をすれば、返ってくる出力がこちらの意図とずれてしまう可能性も十分にあると言えます。
ジェレミー氏は、「出力の質は、問いの明確さに比例する」と述べています。
つまり、AIが曖昧な応答を返してきたとしたら、それはAIの性能の限界ではなく、自分自身の問い方や伝え方にこそ課題があるというサインなのかもしれません。
AIと向き合う際、まず見直すべきは、自分の中にある“思考のかたち”なのです。
ジェレミー氏は、こう語っています。
“When people explicitly walk through their thought process step-by-step before making a decision,
they arrive at better outcomes.”
ジェレミー氏は、AIに期待する応答を得るためには、単なる命令だけでなく、その背景や意図もあわせて伝えることが重要だと指摘しています。
意図が共有されていないと、AIは与えられた情報をどう解釈すべきか判断できず、出力がずれてしまうことがあります。
たとえば、「この要素を重視してほしい」といった観点を伝えることで、出力の焦点が定まり、内容がより具体的になります。さらに、自分なりの仮説を共有することで、AIはその前提に立って応答を深めてくれます。
また、考えの流れを一度にすべて伝えるのではなく、段階的に共有していくことで、AIはその思考のプロセスに沿って応答を組み立てやすくなります。伝える順序や構造にも意識を向けることで、応答の質はさらに高まります。
目的や観点、前提、仮説、思考の流れといった情報をどう伝えるか。
その工夫しだいで、AIの理解の精度が変わり、返ってくる応答も大きく変わってきます。
ジェレミー氏は、AIを“ただのツール”ではなく“チームの一員”として捉えることで、関わり方が大きく変わると提案しています。
ただ命令を投げる相手ではなく、“共に仕事を進める存在”として接すること。それによって、やり取りの質も、引き出せる成果も変わってくるのです。
たとえば、カスタムGPTに人名をつけるという工夫もそのひとつです。ジェレミー氏の例では、「Betty Budget」(予算管理担当のベティ)、「Roger RevOps」(収益オペレーション担当のロジャー)といったように名前をつけることで、AIに人格が宿ったような感覚が生まれ、自然と“相手”として向き合う意識が高まるといいます。
さらに、役割を明確に与えることも重要です。「あなたは編集者としてこの文章をチェックしてください」「この分析はアシスタントとしてまとめてください」といったように、AIに役割を与えることで、その応答はより目的に沿ったものになります。
また、「その理由も教えて」や「どうやってそう思ったのか教えて」といった形で、AIに思考の過程まで答えさせることで、応答の論理性や説得力が格段に高まることがあります。
こうした“思考の流れ”に踏み込んだやりとりを、ジェレミー氏は「Chain of Thought(思考の連鎖)」と呼んでいますが、もともとこの手法は、人間がAIに対して思考のステップを段階的に示すことで、応答の精度を高めるために使われてきたものです。今回のように、AI自身に理由や根拠を語らせる使い方は、その応用的なアプローチといえるでしょう。
AIからより深い応答を引き出すためには、こちらの思考の流れや背景を先に共有しておくことも欠かせません。ゴールだけを伝えるのではなく、「なぜそうしたいのか」「どのような判断を経てその問いに至ったのか」といった文脈を共有することで、AIはその意図を汲み取った応答を返しやすくなります。
加えて、「わからない点があれば質問してください」といった一言を添えるだけでも、AIが前提に対する不明点を指摘してくれるようになり、やり取りの精度が上がります。
そして何より大切なのは、AIとのやり取りを「1回きりの出力」で完結させず、対話を重ねていくという姿勢です。1回の応答を最終成果物とせず、フィードバックを与えながら何度もやり取りを繰り返すことで、少しずつ理想のアウトプットに近づけていく。このフィードバックループこそが、AIをチームメンバーとして活用するうえでの最大のポイントだといえるでしょう。
AIの出力に満足できなかったとき、まず立ち止まって、自分の伝え方を振り返ってみることが大切です。目的や意図、背景といった前提情報を、AIにきちんと共有できていたでしょうか。
ただ命令を伝えるだけでなく、AIを思考のパートナーとして扱えていたでしょうか。出力を一度きりで完結させず、やり取りを重ねる姿勢を持てていたかどうかも、見直してみる価値があります。
こうした観点をもとに自分の関わり方を振り返ることで、「AIが使えない」と感じる状況にも、改善の余地が見えてきます。
ジェレミー氏は「まず1週間、“AIをチームメンバーとして扱う意識”で使ってみてほしい」と呼びかけています。
ほんの少し視点を変えるだけで、AIの力を引き出す方法も、成果の質も、大きく変わってくるかもしれません。
ジェレミー氏の提案を通じて見えてきたのは、AIとの向き合い方を少し変えるだけで、得られるアウトプットの質も大きく変わるということです。
重要なのは、AIをただのツールではなく、思考のパートナーとして捉える姿勢です。
そのためには、目的や前提をきちんと共有しながら、AIに質問も促しつつ、対話を重ねてアウトプットを少しずつ磨いていく姿勢が大切になります。
とくに、思考の過程や仮説を含めた「問いの背景」をどう伝えるかという点が、AIとのやり取りの質を大きく左右するポイントだと感じました。
出力がうまくいかないとき、「AIの限界かな」と思ってしまいますが、実は自分の入力や共有のしかたに原因があるケースも少なくありません。今回あらためてその点を実感しました。
まずは1週間、AIを“チームメンバー”として扱う意識を持って使ってみたいと思います。
AIとのやり取りに迷う場面では、今回のような視点がひとつの手がかりになるかもしれません。
執筆:ウー・ピーター
CONTENT MARKETING ACADEMY リサーチャー
※本記事は執筆及び画像作成にあたり、ChatGPTを利用しています。