下面几类问题,是ChatGPT常回答错误的。
复杂的数学和科学问题
GPT是一种基于统计模型的语言模型,它并不具备理解数学和科学概念的能力。因此,当问题涉及到深层次的数学和科学知识时,GPT可能会无法理解问题的本质,从而导致给出不确定或错误的答案。
“MathPrompter: Mathematical Reasoning using Large Language Models” 这篇论文提到一个解决思路:
https://arxiv.org/abs/2303.05398
同时用代数表达式和Python函数计算,计算结果如果都相当,确认答案正确性。
new bing的解答就是这样的策略做的。
涉及个人观点或主观问题
这类问题的答案取决于个人观点或偏见,ChatGPT 可能无法给出确切答案。
以下是一些个人观点或主观问题的例子,这些观点或问题可能因人而异,不一定具有普遍性:
- 喜欢吃辣的食物是好还是不好?
- 你认为你的国家应该实行哪种经济制度?
- 你喜欢哪一种类型的音乐?
- 你认为哪种政治体制最好?
- 你更倾向于用苹果手机还是安卓手机?
- 你喜欢哪一种颜色?
- 你认为哪种运动是最好的?
- 你认为哪种宠物最好?
- 你喜欢什么样的电影类型?
- 你觉得哪种社交媒体平台最好?
- 你认为哪种时装风格最好?
- 你喜欢哪一种饮料?
- 你认为哪种教育方法最好?
这些观点或问题的答案可能因人而异,不同的人可能会有不同的看法和观点。
下面是new bing的回答
需要专业知识的问题
如果问题涉及到专业知识,如法律、医学等,ChatGPT可能回答的不是那么精确或准确。
下面是出师表作者是谁的例子:
在补充了必要的知识后(细节参看:如何把自有数据接入GPT大模型?),我们可以看到new bing回答就正确了。
缺少上下文或细节的问题
如果问题缺少上下文或细节,ChatGPT 可能无法理解问题的意思,因此给出错误的答案。下面是一些容易出现歧义的例子:
我看见了鸟。
- 鸟在哪里?是在树上还是在天空中?
- 是什么类型的鸟?一只麻雀还是一只鹰?
她把东西放在那里。
- 她是谁?
- 什么东西?
- 那里是哪里?
他昨天去了医院。
- 他是谁?
- 为什么去医院?是看病还是探望病人?还是他是医生或护士?
请给我一杯水。
- 谁说的这句话?
- 是给谁的水?
- 水的温度如何?冰水还是热水?
他们喜欢吃苹果。
- 他们是指谁?一群人还是某个动物?
- 为什么喜欢吃苹果?
解决方法就是说清上下文,具体来说,跟ChatGPT打交的应有的核心四要素:角色、背景、目标、输出格式。
下图是一个比较好的Prompt例子:
总结
如果只看到ChatGPT回答错误,觉得不过如此而已,这会让我们看不到新机会,我们需要保持开放和好奇的心态,思考如何提问?如何用好这个智能工具?