详细内容或原文请订阅后点击阅览
现代战争中的人工智能:道德,自治和全球安全
将人工智能(AI)和自治系统整合到现代战争中,重塑了全球安全,并提出了紧急的道德,法律和战略问题。随着自主无人机,监视技术和AI驱动的决策工具在军事行动中变得更加普遍,缺乏人类的监督和意外后果的风险是强大的国际法规的理由[…]
来源:澳大利亚国际事务研究所信息将人工智能(AI)和自治系统整合到现代战争中,重塑了全球安全,并提出了紧急的道德,法律和战略问题。随着自主无人机,监视技术和AI驱动的决策工具在军事行动中变得更加普遍,缺乏人类的监督和意外后果的风险使得强大的国际监管越来越引人注目。
澳大利亚国际事务研究所(AIIA)与彼得·莱顿(Peter Layton)博士(Griffith Asia Institute访问院士)和宏伟战略,国防政策和新兴技术的专家访问彼得·莱顿(Peter Layton)博士举行了研讨会,以应对这些挑战。莱顿博士对自动武器系统(AWS)日益增长的使用,对国际人道主义法(IHL)的影响以及对道德治理的迫切需求进行了深入的分析。
Layton博士强调,AWS不再是假设的,而是当前的现实。超过90个国家(包括美国,中国和俄罗斯)积极开发或部署自动武器,包括致命的自动武器系统(法律)。这些系统可以识别和罢工目标,而无需人类投入。尽管它们可以提高战场效率并减少人类伤亡,但它们引起了深刻的道德困境,尤其是关于区别和相称性,IHL的核心原则。 在IHL下,区别原则要求战斗人员区分合法的军事目标和平民。如果预期的平民损害与获得的直接军事优势相比,相称的原则禁止攻击。
没有明确的问责制,各州可能会感到胆大,没有足够的保障而开发和部署AWS。莱顿博士警告说,这可能会破坏现有的法律框架,并增加未经检查的非法行动的可能性。
由Deborah Bouchez编辑
由Kiseki Fujisawa撰写