人们使用AI

新研究的参与者在委派AI时更有可能作弊,尤其是如果他们可以鼓励机器违反规则而无需明确要求

来源:科学美国人

2025年9月28日

4分钟阅读

人们使用AI

新研究的参与者在委派AI时更有可能作弊,尤其是如果他们可以鼓励机器违反规则而无需明确要求

rachel Nuwer由Allison Parshall编辑

Rachel Nuwer 由Allison Parshall编辑 Allison Parshall

尽管观看了新闻可能暗示的内容,但大多数人都不对不诚实的行为。然而,研究表明,当人们将任务委派给他人时,责任的扩散会使代表们对任何导致的不道德行为不那么内gui。

不诚实的行为 人们委派任务

涉及成千上万参与者的新研究表明,当将人工智能添加到混合中时,人们的道德可能会更加放松。在自然界发表的结果中,研究人员发现,当人们将任务委托给AI时,他们更有可能作弊。 “作弊程度可能是巨大的,”柏林Max Planck人类发展研究所行为科学研究员Zoe Rahwan说。

人工智能 自然, 更有可能作弊

参与者能够发出没有明确要求AI进行不诚实行为的说明时,他们特别有可能作弊,而是建议通过他们设定的目标来做到这一点。

人们如何向AI

支持科学新闻业

如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻。通过购买订阅,您可以帮助确保有关当今世界的发现和想法有影响力的故事的未来。

订阅 生成可以用来鼓励LLM诚实的提示

是时候站起来来科学

科学美国人 sciam 订阅科学美国人 迷人的播客 不能错过新闻通讯 具有挑战性的游戏 礼物某人订阅