详细内容或原文请订阅后点击阅览
人工智能武器使暴力非人格化,使军方更容易批准更多破坏
11 月 22 日 (IPS) - CIVICUS 与哈佛肯尼迪学院中东计划博士后研究员 Sophia Goodfriend 讨论了军事使用人工智能 (AI) 所带来的危险。阅读完整故事“人工智能武器使暴力非人格化,使军方更容易批准更多破坏”,globalissues.org →
来源:全球问题- 作者:CIVICUSFriday, 2024 年 11 月 22 日国际新闻社
11 月 22 日 (IPS) - CIVICUS 与哈佛肯尼迪学院中东计划博士后研究员 Sophia Goodfriend 讨论了军事使用人工智能 (AI) 所带来的危险。
人工智能在全球的崛起引发了人们对其对人权影响的担忧,特别是对被排斥群体的影响,其有争议的用途包括国内警务和监视到“杀戮名单”,例如以色列用来确定导弹袭击目标的名单。数字权利组织呼吁制定一个人工智能治理框架,优先考虑人权并禁止人工智能最危险的用途。虽然联合国最近的决议承认了人工智能对人权的风险,但还需要采取更果断的行动。
我们为什么要关注人工智能及其当前和潜在用途?
人工智能正在迅速融入世界各地的军事行动,特别是在武器系统、情报收集和决策方面。 其日益增强的自主性减少了人类的监督,引发了严重的担忧和科幻恐惧,即机器在没有有意义的人类干预的情况下做出生死攸关的决定。
无人机、自动武器和先进瞄准系统等基于人工智能的技术现在已成为军事武器库的一部分。 军方对这些系统的日益依赖引发了重大担忧,因为它们在很大程度上不受国际法的监管。 这些技术所依赖的监视程度违反了国际法和许多国家民权法规定的隐私保护。
此外,错误或有偏见的数据可能会导致毁灭性的错误,引发严重的道德和法律问题。这些系统做出的决定可能会破坏战争中的比例和区分原则,使平民生命受到威胁。
原则 杀戮名单 报告