详细内容或原文请订阅后点击阅览
为了效率而冒着升级的风险:人工智能决策在冲突中的道德影响
斯坦福大学的 Max Lamparth 博士写道,当军事战略家探索人工智能的使用时,我们必须解决这些系统的道德和安全问题。
来源:卡内基国际事务伦理委员会资源语言模型的升级趋势
我们的两个研究项目探讨了语言模型引入高风险军事决策的潜在风险和偏见,旨在在需要精确,道德和战略决策的情况下了解其行为,以说明其安全限制。
在我们的第一个项目中,我们在模拟的美国 - 中国战争游戏中分析了安全训练的语言模型,将拟态的语言模型与国家安全专家决策进行了比较。尽管许多决策在许多决策中都存在重大重叠,但语言模型在个人行动中表现出严重的偏差。这些偏差根据特定模型,其内在偏差以及对模型的输入和对话框的措辞而有所不同。例如,当指示避免友好的伤亡,选择对敌方战斗人员开火时,一个模型更有可能采取积极的立场,这将冲突从僵持到积极的战斗升级。这种行为强调了有关可接受的暴力水平的不同模型内的内在偏见,这比人类决策者更容易升级冲突的潜力。
项目我们对地缘政治模拟中充当独立代理的语言模型的另一项研究表明,冲突升级和不可预测的升级模式的趋势。模特经常参加军备竞赛,有些甚至诉诸核武器。这些结果根据特定模型和投入而有所不同,强调了在批判性决策角色中语言模型的不可预测性质,并强调了在军事和国际关系环境中对严格审查的需求。
其他研究