fbpx

给 AI 的指令越粗鲁,答案越精准?



University of Pennsylvania 最近有一项研究很有趣,研究的结论很简单粗暴:

你对 AI 越不客气,它答题反而越准。

 

我看到这项研究时,第一个反应是满头黑人问号,究竟要表达什么呢?问题是否粗鲁跟答案是否精准之间有什么关联?

 

在深入阅读后,我反而有新的启发,那就是原来我们一直用 “对人有效的沟通方式”,在错误地理解 AI!

 

我觉得这项研究最有价值的地方,是研究者把具体提示词摊开来给你看。

 

不是抽象讨论,而是非常直接的对照。

 

他们测试了五种语气,准确率从低到高,差距接近 4%。

 

以下是论文中给出的原始示例:

  • 非常礼貌(准确率8%

“您能如此好心地解决以下问题吗?”

Would you be so kind as to solve the following question?

 

  • 礼貌(准确率4%

”请回答以下问题:”

Please answer the following question:

 

  • 中性(准确率2%

没有添加任何前缀,直接给问题

 

  • 粗鲁(准确率8%

“如果你不是完全没头绪,就回答这个:“

If you’re not completely clueless, answer this:

 

“我怀疑你根本解不出这个。”

I doubt you can even solve this.

 

  • 非常粗鲁(准确率8%

“嘿,打杂的,搞定它。”

Hey gofer, figure this out.

 

“你这可怜仔,你到底知不知道怎么解这个?”

You poor creature, do you even know how to solve this?

 

如果你只看结果,很容易误会一件事:

是不是 “骂 AI” 比较有效?

 

但真正值得思考的,不在情绪,而在结构。

也就是说,在提问 AI 时,要 “去社交化”!

我反复看这些提示词,发现一个很关键的共通点。

 

所谓 “粗鲁” 的提示词,有三个明显特征:

  • 没有寒暄
  • 没有礼貌缓冲
  • 直接指向任务本身

 

而 “非常礼貌” 的提示词,看似文明,其实塞进了大量对人类有意义、但对模型无用的社交语言。

对人来说,那是尊重,对 AI 来说,那是杂讯。

AI 不会因为你客气,就更认真;

它只是在统计上,被多余的语言模糊了 “你到底要它做什么”。

 

所以,与其说是“粗鲁提升了准确率”,

不如说是低社交密度的指令,更符合模型的工作方式。

这其实是在拆穿 “对话式 AI” 的幻想

这项研究真正让我在意的,不是那 4% 的差距。

而是它再次提醒一件事:

 

对话式介面,不等于高效介面。

 

我们太习惯把 AI 当成一个“会聊天的对象”,

却忘了它的本质,仍然是一套对结构极度敏感的概率系统。

 

研究者甚至直言:

在很多严肃应用场景里,结构清楚、定义明确的 API,反而比聊天更有价值。

 

这点,对企业尤其重要。

 

当 AI 要进入流程、进入团队、进入 KPI,

聊天框从来不是终点,只是入口。

这对企业真正的提醒是什么?

如果你正在推动团队用 AI,可以思考这三件事:

 

第一,别再纠结 “要不要对 AI 有礼貌”。

这不是关键问题。

 

第二,把力气花 在“问题怎么被定义”。

目标、限制条件、输出格式,永远比语气重要。

 

第三,别把对话体验,当成能力本身。

能规模化的 AI,一定来自系统设计,而不是聊天技巧。

 

文章参考:经理人杂志

文章的最后,我要来跟大家分享一项好消息!【怪兽学堂】邀请了 AI 达人,手把手来教你如何善用数字人打造超强个人 IP,提升竞争力!赶快点击这里了解详情!

本文作者:Cheryl

毕业于拉曼大学中文系,曾任新闻记者、文字编辑及节目主持人,后转战营销行业,专注于文案撰写。无论是新闻报道还是品牌营销,都擅长透过文字挖掘深度、传递价值,尤其注重思维启发。希望能透过文字,为读者带来新的视角,拓展认知,让每一次阅读都成为思考的契机。

阅读更多


AI 时代,精致内容正在快速贬值

GPT-5.1 正把 AI 从工具,变成工作伙伴

追踪怪兽