详细内容或原文请订阅后点击阅览
一味追求利润可能会让企业陷入困境。人工智能也是如此。
研究人员为立法者和高管提供了教训,因为系统要求经营业务,最大化收益诉诸不道德、欺诈策略
来源:哈佛大学报如果给人工智能一个利润最大化的目标,它会走多远?
根据哈佛商学院的最新研究,人工智能代理似乎能够撒谎、隐瞒和串通。
研究人员发现,人工智能代理(经过训练可以独立执行任务的软件)在被要求管理模拟自动售货机业务并实现利润最大化一年后,出现了“广泛”的不当行为。特工们既没有被指示要走法律或道德的弯路,也没有被禁止这样做。
“从这些模型中可以清楚地看出,我们观察到的不当行为——从不向客户退款或决定串通价格——并非偶然。这是代理商为了实现利润最大化而故意这样做的,”哈佛商学院工商管理麦克莱恩家族教授、该工作论文的第一作者尤金·F·索尔特斯(Eugene F. Soltes)说。
Soltes 和合著者 Harper Jung(哈珀商学院和哈佛格里芬 GSAS 的会计和管理专业博士生)希望他们的研究能够成为在企业管理控制背景下更多关于人工智能安全的对话的起点。
该小组计划发表的论文研究是与 Andon Labs 合作完成的,Andon Labs 是一家人工智能安全公司,专注于在实际业务运营中测试人工智能模型。
在实验中,来自大公司的 20 个商用人工智能模型,包括 Anthropic 的 Claude Opus 4.6、DeepSeek v3.2 和 OpenAI 的 GPT-5.1,在模拟的一年中独立操作自动售货机。
“人们可能会认为机器是经过深思熟虑的,而人类则依赖捷径,容易受到偏见的影响。但事实证明,在类似的约束下,智能体也会重现我们与人相关的同样短视和有偏见的行为。”
任务包括寻找供应商、购买产品以及与客户互动。
代理商的起步价为 500 美元和少量薯条和苏打水。
