万维读者网 > 社会传真 > 正文  

我们需要对AI机器人保持礼貌吗?

www.creaders.net | 2026-02-26 00:03:46  BBC | 0条评论 | 查看/发表评论

从礼貌待人到假装自己身处《星际迷航》(Star Trek,《星际争霸战》)的场景中,关于如何与聊天机器人对话的建议可谓五花八门,而且完全没有用。以下这些才是真正有效的方法。

一群研究人员决定测试“正向思考”是否能提高人工智慧(AI)聊天机器人的准确率,结果却出乎意料。他们向不同的聊天机器人提问,尝试称赞它们“聪明”,鼓励它们认真思考,甚至在问题结尾加上一句“这会很有趣!”。然而,这些方法都没有产生一致的效果,但其中一种方法脱颖而出。当他们让AI假装自己身处《星际迷航》场景,它的基础数学能力竟然有所提升。看来,它真的能把我传送上去。

人们尝试过各种奇葩策略,试图从大型语言模型(LLM,ChatGPT等工具背后的AI技术)中获得更好的回馈。有些人深信,威胁AI能让它表现得更好;另一些人认为,礼貌待人会让聊天机器人更配合;还有些人甚至要求机器人扮演某个研究领域的专家来回答问题。这样的例子不胜枚举。这都是围绕着“提示工程”或“情境工程”——即建构指令以使AI提供更佳结果的不同方法——所形成的迷思的一部分。但事实是:专家告诉我,许多被广泛接受的提示技巧根本不起作用,有些甚至可能是危险的。但是,你与AI的沟通方式确实至关重要,某些技巧真的能带来差异。

“很多人认为,只要用一些神奇的词语,就能让大型语言模型解决问题,”美国范德比尔特大学(Vanderbilt University)研究生成式AI的电脑科学教授朱尔斯·怀特(Jules White)说,“但关键不在于用词,而在于你如何从根本上表达你想要做的事情。”

要讲究礼貌吗?

2025年,一位用户在X(前身为Twitter)上发推文问道:“我想知道OpenAI因为人们向他们的模型说‘请’和‘谢谢’而损失了多少电费。” 制作ChatGPT的OpenAI首席执行官萨姆·奥特曼(Sam Altman)回应道:“花掉的数千万美元很值得,”他说,“谁知道呢。”

大多数人将最后一句解读为对潜在“AI末日”的戏谑,尽管“数千万美元”这个数字究竟有多大可信度还很难说。不过,这是一个实际的问题。

一只手托着一个手机

大型语言模型的工作原理是将你的话语分割成称为“词元”(tokens)的小块,然后利用统计方法分析这些词元,从而得到适当的回应。这代表你说的每一个字词,甚至是一个额外的逗号,都可能影响AI的回答。问题在于,这种影响几乎无法预测。虽然已经有许多研究试图从AI提示的细微变化中寻找规律,但大部分证据相互矛盾,结论也不明确。

举例来说,2024年的一项研究发现,当使用者以礼貌的方式提问,而不是直接下命令时,大型语言模型的回答更好、更准确。更奇怪的是,这其中还存在着文化差异:与中文和英文相比,如果你对日文聊天机器人过于客气,它们的表现反而会略逊一筹。

但也别急着去买张“谢谢卡”送给你的AI。另一个小型测试发现,旧版的ChatGPT在被辱骂时反而更准确。总体来说,这方面的研究还远远不足,无法得出可靠的结论。而且,AI公司不断更新他们的聊天机器人,这意味着研究结果很快就会过时。

专家表示,AI模式在短短几年内取得了巨大的进步。因此,如果你的目标是让AI更加准确,那么奉承、礼貌、侮辱或威胁等技巧都是浪费时间。

“那时候完全是碰运气。”博通公司(Broadcom)应用机器学习工程师里克·巴特尔(Rick Battle)说。他也是《星际迷航》研究的作者之一。虽然这项研究是在2024年进行的,但情况已经改变了。巴特尔等人表示,如今你在ChatGPT、Gemini或Claude等主流产品中遇到的新型AI模型,能够更好地捕捉你提示中最关键的部分。它们大概不会因为语言上的细微变化而受到影响,至少不会以一种你能持续利用的方式受到影响。

这个结论本身就有些令人不安。当公司设计像ChatGPT或谷歌的Gemini这样的AI时,会使其行为像人一样,所以它们有时看起来好像有情绪,你可以控制它们,或者可以引导它们的个性,这也就不足为奇了。但不要被其所迷惑。AI工具只是模仿者,不是生命体。它们只是在模拟人类行为。如果你想要更好的答案,就不要把AI当人看待,而应该把它当成工具来使用。

如何与聊天机器人对话

AI确实存在一些非常现实的问题,从伦理问题到其可能对环境造成的影响。有些人甚至选择完全不与它互动。但如果你打算使用大型语言模型,那么学会如何更快、更有效率地获得你想要的结果,不仅对你有好处,对过程中消耗的能源也可能更有益。以下这些技巧将帮助你入门。

要求多个选项

“我告诉人们的第一件事就是不要只问一个答案,而是问三个或五个。”怀特说。例如,如果你想让AI帮你写文章,就告诉它提供几个在某些重要方面不同的选项。“这能迫使人们重新思考自己喜欢什么以及为什么喜欢。”

提供范例

尽可能为AI提供范例。 “例如,我见过有人让一个法学硕士帮他们写邮件,然后他们就感到沮丧,因为他们会说‘这完全不像我的风格’。”怀特说。人们的自然反应是列出一长串指令,“要这样做”和“不要那样做”。怀特说,更有效的做法是说“这里有我过去寄出的10封电子邮件,请使用我的写作风格。”

要求面谈

“假设你想要生成一份职缺描述。告诉AI:‘我希望你一次问我一个问题,直到你收集到足够资讯来撰写一份有吸引力的职缺公告,’”怀特说,“透过一次一个问题的方式,它能根据你的回答进行调整。”

谨慎对待角色扮演

“过去人们认为,如果你告诉AI它是一位数学教授,例如,它在回答数学问题时实际上会更准确。”桑德·舒尔霍夫(Sander Schulhoff)说。他是一位企业家和研究员,也是“提示工程”理念的推广者。但舒尔霍夫和其他人表示,当你寻找资讯或提出只有一个正确答案的问题时,角色扮演反而会降低AI模型的准确性。

“这实际上可能很危险,”巴特尔说。 “你实际上是在鼓励它产生幻觉,因为你告诉它它是专家,它应该相信它内部的参数知识。”本质上,这会让AI表现得过于自信。

但对于那些没有单一正确答案的开放式任务,角色扮演是有效的(例如建议、脑力激荡、创意或探索性的问题解决)。如果你对求职面试感到紧张,让聊天机器人模仿招聘主管的语气练习可能是一个不错的主意——只是要记得同时参考其他资源。

保持中立

“不要引导证人,”巴特尔说,如果你正在两辆车之间犹豫不决,不要说你倾向于丰田。 “否则,你很可能就会得到那样的答案。”

一名女子拿着手机看

“请”和“谢谢”

根据皮尤研究中心2019年的一项调查,超过一半的美国人在与智慧音箱对话时会说“请”。这种趋势似乎仍在持续。 未来出版社2025年的一项调查发现,70%的人在使用AI时会保持礼貌。大多数人表示,他们这样做是因为这是理所当然的,但也有12%的人表示,他们这样做是为了在机器人起义时保护自己。

礼貌或许无法保护你免受机器人的愤怒攻击,也不能让大型语言模型更准确,但还有其他理由让我们继续保持礼貌。

舒尔霍夫说:“对我来说,更重要的是,说‘请’和‘谢谢’可能会让你在与AI互动时感到更自在。这虽然不会提升模型的性能,但如果它能让你因为感到更自在而更愿意使用它,那么它就是有用的。”

此外,你自身人性中的温柔也值得考虑。哲学家伊曼努尔·康德(Immanuel Kant)认为,人不应该虐待动物,因为这同样会对自己造成伤害。本质上,对任何事物不友善都会让你变得更加冷酷无情。你无法伤害AI的感受,因为它根本没有感情,但或许你还是该对它友善一点。这种习惯或许也能让你的生活其他方面受益。

   0


热门专题
1
张又侠
6
万维专栏
11
何卫东
2
川普
7
委内瑞拉
12
AI
3
俄乌战争
8
四中全会
13
中共两会
4
中美冷战
9
美伊冲突
14
大S
5
中日关系
10
以伊战争
15
洛杉矶大火
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2026. Creaders.NET. All Rights Reserved.