- 2025/04/21 掲載
なぜChatGPTから「欲しい回答」が来ない? プロンプトではない精度“爆上げ”の秘訣(2/2)
日常会話は「ChatGPTに通じない」
質問者は、何を問題にしているのか、何を知りたいのかをはっきりと指定する必要がある。この場合は、下記のように質問したところ、話がかみ合ってきた。<次の文章で、事実に反するところがありますか? あれば、修正してください:トランプ政権が2025年に実施する相互関税のうち、一律10%の基本関税は、米国東部標準時4月5日正午に発効した。国・地域別の上乗せ分は、4月9日正午に発効した>
データを知りたいのは発効時点だが、これはChatGPTによる修正を期待して、適当な数字を書いておいた。これに対するChatGPTからの修正文は、下記の通りだった。
<トランプ政権が2025年に実施した相互関税のうち、一律10%の基本関税は、米国東部時間4月5日午前0時1分に発効した。国・地域別の上乗せ関税は、4月9日午前0時1分に発効したが、同日中に90日間の一時停止が発表された。ただし、中国(香港・マカオを含む)に対する関税は例外で、同日中に125%まで引き上げられた>
我々の日常生活での会話なら、曖昧な言い方でも意味が通じる。いつも話し合っている人であれば、「あの資料を教えて」とか、「例の件について話したい」というような言い方でも、意味が通じる。しかしこうした言い方では、ChatGPTには通じない。だから、ここで述べた例のような行き違いが起きる。
ChatGPTは「融通の利かない」物知り博士
学問は日常言語より厳密な言葉を用いているが、人文科学や社会科学では、曖昧な概念もある。たとえば「賃金」と言っても、さまざまな概念やデータがある。それらのどれをとるかによって、結論が異なる場合もある。同じことが国際比較についても言える。市場為替レートを用いて換算するか、購買力平価で換算するかによって、答えが違う。
我々が日常的に使っている言語は、厳密に定義されたものではないので、同じ言葉が何を指すかが、場合により相手により違うことがあるのだ。しかしChatGPTはどんな場合でも、正確な概念を求めている。
ChatGPTは、こちらが当然と思うことを当然と思ってくれない。このために話がかみ合わないのである。ChatGPTに質問する場合に、我々は無意識のうちに、物知りの人間に話しかけるような錯覚に陥っている。
ChatGPTはたしかに物知りなのだが、人間の物知りのように融通を利かしてはくれない。杓子定規の物知りだ。健全な常識がなく、融通が利かないとも言える。日本型組織では決して偉くなれないタイプの人だ。これを、はっきりと意識することが重要だ。
プロンプトより「重要なこと」とは?
何を知りたいのかをはっきりさせるのは、それほど簡単なことではない。ただし、ChatGPTとの会話を通じて修正していくことが可能だ。ChatGPTの理解とこちらの理解がかみ合ってないと気がついたら、それに応じてこちらの問いかけを修正していく。途中で会話を投げ出さずに続ければ、おそらくどんな場合でも望む答えを引き出すことができるだろう。
会話の進め方に関する特別なノウハウといったものがあるわけではない。プロンプトエンジニアリングも必要ない。重要なのは、会話を続ける忍耐強さだ。
いったん話がかみ合えば、ChatGPTは非常に詳しい情報を教えてくれる。米国政府の発表文の概要など、通常は手に入らない資料まで調べてくれる。
この場合もChatGPTは、<必要であれば、この発表内容に関連する米国通商代表部(USTR)や関税発動日程の原文資料などもご案内できます。ご希望ですか?>と提案してきた。希望したところ、<2025年4月にトランプ政権が発表・施行した「相互関税」に関する公式資料や報道を以下にまとめました>として、詳細な資料を作ってくれた。原典のURLも教えてくれる。
1年前には期待できなかった情報を簡単に手に入れることが可能になった。ChatGPTが、研究・調査活動において極めて力強い味方になることは間違いない。
関連コンテンツ
関連コンテンツ
PR
PR
PR