摘要 由于人工智能 (AI) 能力的快速发展,过去一年中,多个国家政府和跨国机构宣布了解决与 AI 模型相关的安全、保障和道德问题的努力。这些努力之一就是减轻对 AI 模型的滥用,例如用于开发化学、生物、核或放射 (CBRN) 威胁。几十年来,许多生物学家一直在努力降低科学研究的风险,因为这些研究可能由于事故或滥用而导致严重疾病爆发。科学家们仔细考虑了哪些类型的生命科学研究既有益处又有风险 (双重用途),特别是随着科学进步加速了我们改造生物体和创造新型病原体变种的能力。在这里,我们描述了科学家和政策专业人员在生命科学领域双重用途能力方面的先前经验和研究如何为具有生物能力的 AI 模型的风险评估提供信息。我们认为,人工智能模型评估应优先解决后果严重的风险(可能对公众造成大规模伤害的风险,例如流行病),并且应在部署模型之前评估这些风险,以便采取潜在的生物安全和/或生物安全措施。虽然生物研究总体上非常有益,但人们普遍认识到,一些生物研究信息和技术可能会被有意或无意地滥用,对公众造成大规模伤害。人工智能支持的生命科学研究也不例外。因此,科学家在识别和减轻双重用途生物风险方面的历史经验可以帮助为评估生物人工智能模型的新方法提供参考。确定哪些人工智能能力对生物安全和生物安全构成最大的担忧是必要的,以便建立有针对性的人工智能安全评估方法,确保这些工具免受事故和滥用,并避免妨碍巨大的潜在利益。
主要关键词