研究发现,西点军校可以通过训练来更好地评估、欣赏人工智能

新的研究可能会为在战场和社会中发挥人工智能的潜力指明方向。

来源:美国防务一号网

尽管美国人对人工智能的信任程度普遍低于中国人,但他们往往愿意接受聊天机器人的错误答案。随着五角大楼领导人推动更广泛地使用此类工具,一篇新论文提供了一些令人放心的消息:西点军校学员可以接受训练,对人工智能的输出更加适当地持怀疑态度,同时对其潜力保持普遍乐观。

来自乔治城大学、宾夕法尼亚大学和美国军事学院的研究人员上周发表了一篇论文,将 236 名西点军校学员与人口统计相似的 702 名公众样本进行了比较。该论文探讨了自动化偏见(人类过度依赖自动化的倾向)和算法厌恶,即“过早不信任自动化输出,从而增加事故或错误风险”的倾向。

他们试图测试的一个假设是,战斗压力会使军事人员更倾向于相信决策支持系统 (DSS) 的错误输出。

“美国、中国和俄罗斯等大国正在尝试将人工智能 DSS 整合到其指挥结构中,从而缩短从传感器到射手的时间,”他们写道。这可能会导致官员“将决策权委托给 AI DSS”。

军方长期以来一直在努力解决人工智能决策助理的问题。但最近 ChatGPT、Claude 和 Gemini 等大型语言模型的出现,促使西点军校宣布 2024-25 学年的特殊学术重点:“人类与机器:新兴战场上的领导力”。

这一努力和其他努力似乎奏效了。在这项研究中,西点军校的“人工智能知识得分”几乎是普通大众的两倍,而且犯自动化偏见错误(即信任错误的聊天机器人)的可能性还不到普通大众的一半。

学员也更有可能通过查看该工具自身的信心指标来评估人工智能的输出,而普通用户很少这样做。