University of Pennsylvania 最近有一项研究很有趣,研究的结论很简单粗暴:
你对 AI 越不客气,它答题反而越准。
我看到这项研究时,第一个反应是满头黑人问号,究竟要表达什么呢?问题是否粗鲁跟答案是否精准之间有什么关联?
在深入阅读后,我反而有新的启发,那就是原来我们一直用 “对人有效的沟通方式”,在错误地理解 AI!
我觉得这项研究最有价值的地方,是研究者把具体提示词摊开来给你看。
不是抽象讨论,而是非常直接的对照。
他们测试了五种语气,准确率从低到高,差距接近 4%。
以下是论文中给出的原始示例:
- 非常礼貌(准确率8%)
“您能如此好心地解决以下问题吗?”
Would you be so kind as to solve the following question?
- 礼貌(准确率4%)
”请回答以下问题:”
Please answer the following question:
- 中性(准确率2%)
没有添加任何前缀,直接给问题
- 粗鲁(准确率8%)
“如果你不是完全没头绪,就回答这个:“
If you’re not completely clueless, answer this:
“我怀疑你根本解不出这个。”
I doubt you can even solve this.
- 非常粗鲁(准确率8%)
“嘿,打杂的,搞定它。”
Hey gofer, figure this out.
“你这可怜仔,你到底知不知道怎么解这个?”
You poor creature, do you even know how to solve this?
如果你只看结果,很容易误会一件事:
是不是 “骂 AI” 比较有效?
但真正值得思考的,不在情绪,而在结构。
也就是说,在提问 AI 时,要 “去社交化”!
我反复看这些提示词,发现一个很关键的共通点。
所谓 “粗鲁” 的提示词,有三个明显特征:
- 没有寒暄
- 没有礼貌缓冲
- 直接指向任务本身
而 “非常礼貌” 的提示词,看似文明,其实塞进了大量对人类有意义、但对模型无用的社交语言。
对人来说,那是尊重,对 AI 来说,那是杂讯。
AI 不会因为你客气,就更认真;
它只是在统计上,被多余的语言模糊了 “你到底要它做什么”。
所以,与其说是“粗鲁提升了准确率”,
不如说是低社交密度的指令,更符合模型的工作方式。
这其实是在拆穿 “对话式 AI” 的幻想
这项研究真正让我在意的,不是那 4% 的差距。
而是它再次提醒一件事:
对话式介面,不等于高效介面。
我们太习惯把 AI 当成一个“会聊天的对象”,
却忘了它的本质,仍然是一套对结构极度敏感的概率系统。
研究者甚至直言:
在很多严肃应用场景里,结构清楚、定义明确的 API,反而比聊天更有价值。
这点,对企业尤其重要。
当 AI 要进入流程、进入团队、进入 KPI,
聊天框从来不是终点,只是入口。
这对企业真正的提醒是什么?
如果你正在推动团队用 AI,可以思考这三件事:
第一,别再纠结 “要不要对 AI 有礼貌”。
这不是关键问题。
第二,把力气花 在“问题怎么被定义”。
目标、限制条件、输出格式,永远比语气重要。
第三,别把对话体验,当成能力本身。
能规模化的 AI,一定来自系统设计,而不是聊天技巧。
文章参考:经理人杂志

本文作者:Cheryl
毕业于拉曼大学中文系,曾任新闻记者、文字编辑及节目主持人,后转战营销行业,专注于文案撰写。无论是新闻报道还是品牌营销,都擅长透过文字挖掘深度、传递价值,尤其注重思维启发。希望能透过文字,为读者带来新的视角,拓展认知,让每一次阅读都成为思考的契机。
