人工智能会增加核战争的风险吗? (+视频)

兰德公司的一篇新论文称,人工智能 (AI) 可能会在 2040 年摧毁核威慑力量。虽然人工智能控制的世界末日机器被认为不太可能出现,但人工智能对核安全的危险在于它有可能鼓励人类承担潜在的世界末日风险。

来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)

兰德公司的一篇新论文称,人工智能 (AI) 可能会在 2040 年摧毁核威慑力量。虽然人工智能控制的世界末日机器被认为不太可能出现,但人工智能对核安全的危险在于它有可能鼓励人类承担潜在的世界末日风险。

冷战期间,相互确保毁灭的状态维持着超级大国之间不稳定的和平,提供保护,因为双方都明白任何攻击都会遭到同样破坏性的反应。因此,相互确保毁灭可以减少两国采取可能升级为核战争的措施的动机,从而促进战略稳定。

一篇新论文称人工智能可能会破坏未来几十年的战略稳定。随着技术的改进,当国家及其防御和进攻力量受到攻击时,可能会出现这样的情况,从而消除了报复性打击的可能性。

研究人员表示,各国可能会试图利用先发打击能力作为对竞争对手施加影响力的手段,即使它们无意发动攻击。这破坏了战略稳定,因为即使拥有这些能力的国家不打算使用它们,敌人也无法确定这一点。

“核战争和人工智能之间的联系并不新鲜;事实上,它们有着相互交织的历史,”该论文的合著者、兰德公司研究员爱德华·盖斯特说。 “早期的人工智能开发大部分旨在支持军队或考虑军事目标。”

兰德研究人员的观点基于通过一系列涉及核专家、政府机构和人工智能研究人员的研讨会收集的信息。