Loading...
机构名称:
¥ 1.0

越来越多地提议在涉及潜在致命武力的军事技术和军事规划中使用人工智能 (AI) 软件来取代人类。军事冲突是危险的,而且有很大的动机将其参与者自动化。例如,韩国使用简单人工智能的自动炮塔在国际上很受欢迎(Parkin,2015),尽管其伦理原则尚未得到仔细评估。军事人工智能最明显的伦理问题出现在瞄准方面,其他问题出现在作战规划和后勤支持方面。然而,建立人工智能系统来做出潜在的致命判断是困难的,目前的人工智能方法在许多任务上仍然不如人类准确(Emery,2021)。使用它们施加致命武力可能是不道德的,就像今天在军事冲突中使用霰弹枪等不精确的武器一样。此外,武装冲突法中,使用致命武力的一个主要理由是自卫,这与软件和机器人关系不大,因为它们可以廉价地重新制造,尽管有限的自卫对于它们在持续冲突中保持其能力仍然是适当的。因此,评估每种人工智能方法的工作原理以了解其对致命武力的贡献有多合理非常重要,而且这些方法在准确性和可解释性方面存在很大差异,因此其可能的合理性也不同。

军事应用人工智能方法的比较伦理

军事应用人工智能方法的比较伦理PDF文件第1页

军事应用人工智能方法的比较伦理PDF文件第2页

军事应用人工智能方法的比较伦理PDF文件第3页

军事应用人工智能方法的比较伦理PDF文件第4页

军事应用人工智能方法的比较伦理PDF文件第5页

相关文件推荐

2023 年
¥2.0