详细内容或原文请订阅后点击阅览
AI的“ Oppenheimer时刻”:为什么需要裁军新思维 被传统困住:Ukerewe的寡妇和他们无法逃脱的仪式 加沙:护理人员在援助工人杀害后仍失踪,巴勒斯坦红新月会寻求答案 世界新闻摘要:圆顶世界霍乱潮流,刚果博士更新,领导全球卫生紧急锻炼 启动关键倡议以对抗反犹太主义 联合国权利负责人敦促对俄罗斯袭击的调查,该进攻在乌克兰杀死了9名儿童
人工智能(AI)种族需要放慢速度,而IT公司应该专注于更大的前景,以确保该技术不会在战场上被滥用,联合国裁军专家和“大型科技”公司的领导者坚持认为。在Globalissues.org→
来源:全球问题Engaging with the tech community is not “a nice to have” sideline for defence policymakers – it is “absolutely indispensable to have this community engaged from the outset in the design, development and use of the frameworks that will guide the safety and security of AI systems and capabilities”, said Gosia Loy, co-deputy head of the UN Institute for Disarmament Research (UNIDIR).
在日内瓦Unidir主持的最近举行的关于AI安全和道德的全球会议上,她强调了在世界经常被称为AI的“ Oppenheimer时刻”时建立有效的护栏的重要性 - 参考美国核物理学在他的核物理学中以其在他在他的角色中闻名的Robert Oppenheimer创造了他的作用。
全球AI安全与道德会议需要监督,以便AI的发展尊重人权,国际法和道德,尤其是在AI指导武器领域 - 以确保这些强大的技术以受控的,负责任的方式发展,Unidir官员坚持认为。
缺陷的技术
AI已经为世界各地的政府和军队造成了安全困境。
AI技术的双重用途性质(可以在平民和军事环境中都可以使用)意味着开发人员可能会与战场状况的现实失去联系,在战场条件下,他们的编程可能会损失生命,Comand AI的公共事务负责人Arnaud Valli。
这些工具仍处于起步阶段,但长期以来一直促使人们担心它们可以在战争环境中做出生命或死亡的决定,从而消除了对人类决策和责任感的需求。因此,越来越多的呼吁进行监管,以确保避免错误,从而导致灾难性后果。
“我们看到这些系统一直在失败,”位于伦敦公司Advai公司首席执行官David Sully说,并补充说,这些技术仍然“非常无聊”。
“所以,让他们出错并不像有时会想到的那样困难,”他指出。
itu