详细内容或原文请订阅后点击阅览
美国和中国可以让人工智能更安全
合作是必要的,也是可能的。
来源:外交事务随着人工智能日益定义中美之间的经济和战略竞争,该技术也带来了超越国界的极端风险。个人可能会使用人工智能模型或模型组合来设计危险的病原体,对电网或医院网络发起自主网络攻击,或者创建和传播侵蚀公众信任的真实深度假货——无论该人居住在大连、达拉斯还是德里。美国和中国都不会从人工智能竞赛中受益,因为任何一个国家的模型都可能在任何地方造成灾难性伤害。
中国模式存在特别严重的弱点。例如,DeepSeek 的开源大型语言模型 R1-0528 缺乏美国系统内置的许多保障措施。根据美国政府的研究,它接受恶意指令的频率是美国领先模型的 12 倍。它的模型也明显更容易受到攻击者的攻击:标准越狱方法(绕过模型内置安全控制的技术)在 94% 的情况下会引发有害响应,而同类美国系统的这一比例仅为 8%。当中国模式为许多自主代理提供支持时,例如现在病毒式传播的 OpenClaw,它可以在没有人工监督的情况下大规模浏览网络和访问数据库,这种风险就会增加。
挑战已接受
要使人工智能更安全,需要清楚地了解该技术产生的风险以及可用于最大程度降低风险的工具。对前沿人工智能发展的系统评估与新药临床试验和汽车碰撞测试的作用相同。他们在部署之前和部署期间识别危险,以确保技术创新不会造成可预防的伤害。
人工智能竞争并不排除共同的安全基线。
在同一页上
实践安全共享
事情发生的房间
正在加载...
