本文认为,正义战争传统为分析与开发包含人工智能 (AI) 的武器或“人工智能武器”相关的道德问题提供了一个有用的框架。虽然开发任何武器都存在违反战争法和战时法的风险,但人工智能武器可能带来这些违法行为的独特风险。本文认为,按照战争前正义准备原则开发人工智能武器有助于将这些违法行为的风险降至最低。这些原则规定了两项义务。首先,在部署人工智能武器之前,国家必须严格测试其安全性和可靠性,并审查其遵守国际法的能力。其次,国家必须以最大程度地减少出现安全困境的可能性的方式开发人工智能武器,在这种情况下,其他国家会感受到这种发展的威胁,并在没有经过充分测试和审查的情况下匆忙部署此类武器。因此,符合道德规范的人工智能武器开发要求一个国家不仅要关注自己的活动,还要关注其他国家如何看待自己的活动。