详细内容或原文请订阅后点击阅览
人工智能时代的生物安全:风险是什么?
2023年11月6日本文简要概述了当前人工智能相关的生物安全问题,并概述了仍需要进一步分析的地方。
来源:贝尔弗科学中心政策摘要和证词本文简要概述了当前与人工智能相关的生物安全问题,并概述了仍需进一步分析的地方。
本文简要概述了当前与人工智能相关的生物安全问题,并概述了仍需进一步分析的地方。“人工智能的最大问题实际上是......它在生物冲突中的使用,”谷歌前首席执行官埃里克·施密特 (Eric Schmidt) 表示。[1] 他并不是唯一一位担心的人工智能专家。在参议院司法委员会隐私、技术和法律小组委员会的证词中,Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 警告称,仅仅两到三年,人工智能就有可能“大大扩大拥有进行大规模生物攻击技术能力的参与者范围”。[2] OpenAI 的山姆·奥特曼 (Sam Altman) 呼吁对“可能有助于创造新型生物制剂”的人工智能模型进行监管。[3]拜登总统最近发布的《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》明确要求相关机构评估人工智能如何增加并可能有助于减轻生物安全风险。[4] 但专家和官员究竟是什么如此担心呢?
[1] [2] [3] [4]生物武器并不是一个新问题
故意使用病毒或细菌等微生物来引起疾病或死亡[5]有着悠久而可怕的历史:日本在第二次世界大战中将斑疹伤寒和霍乱武器化[6],苏联在整个冷战期间的生物武器计划包括生产和储存天花、炭疽和耐药性鼠疫。[7] 美国在此期间也开发了自己的生物武器计划,包括炭疽和Q热,直到1969年被尼克松总统终止。[8]
[5] [6] [7] [8] [9] [10]