详细内容或原文请订阅后点击阅览
人们使用AI
新研究的参与者在委派AI时更有可能作弊,尤其是如果他们可以鼓励机器违反规则而无需明确要求
来源:科学美国人2025年9月28日
4分钟阅读
人们使用AI
新研究的参与者在委派AI时更有可能作弊,尤其是如果他们可以鼓励机器违反规则而无需明确要求
rachel Nuwer由Allison Parshall编辑
Rachel Nuwer 由Allison Parshall编辑 Allison Parshall尽管观看了新闻可能暗示的内容,但大多数人都不对不诚实的行为。然而,研究表明,当人们将任务委派给他人时,责任的扩散会使代表们对任何导致的不道德行为不那么内gui。
不诚实的行为 人们委派任务涉及成千上万参与者的新研究表明,当将人工智能添加到混合中时,人们的道德可能会更加放松。在自然界发表的结果中,研究人员发现,当人们将任务委托给AI时,他们更有可能作弊。 “作弊程度可能是巨大的,”柏林Max Planck人类发展研究所行为科学研究员Zoe Rahwan说。
人工智能 自然, 更有可能作弊参与者能够发出没有明确要求AI进行不诚实行为的说明时,他们特别有可能作弊,而是建议通过他们设定的目标来做到这一点。
人们如何向AI支持科学新闻业
如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻。通过购买订阅,您可以帮助确保有关当今世界的发现和想法有影响力的故事的未来。
订阅 生成可以用来鼓励LLM诚实的提示