详细内容或原文请订阅后点击阅览
人工智能现在可以用来设计全新的病毒。我们能阻止它制造下一个毁灭性的生物武器吗?
科学家已经使用AI来设计噬菌体或仅感染细菌的病毒。设计具有AI的病毒的前景是否对生物安全构成威胁?
来源:LiveScience科学家使用人工智能(AI)来建立全新的病毒,为AI设计的生活形式打开了大门。
ai这些病毒与现有菌株的不同程度与潜在的新物种有资格。它们是噬菌体,这意味着他们攻击细菌,而不是人类,研究的作者采取了措施,以确保其模型无法设计能够感染人,动物或植物的病毒。
病毒但是,本周,另一组科学家表明,AI可以轻松规避用于防止生物武器开发的现有安全措施。
在研究杂志上发表在《科学杂志》上的研究中,微软的研究人员透露,AI可以采取安全措施,以防止坏参与者从供应公司订购有毒分子。
科学发现了这种漏洞后,研究团队急于创建大大降低风险的软件补丁。该软件当前需要专业的专业知识,并访问大多数公众无法使用的特定工具。
结合起来,新的研究强调了AI可以设计新的生命形式或生物武器的风险,它对人类构成威胁 - 在最坏的情况下,可能会释放出大流行的风险。到目前为止,AI没有该功能。但是专家说,它的未来并不遥远。
大流行为了防止AI构成危险,我们需要通过更好的筛选工具以及管理AI驱动的生物综合的不断发展的法规来构建多层安全系统。
双重使用问题
是AI设计的病毒,蛋白质和其他生物产品的问题的核心是所谓的“双重使用问题”。这是指任何可能有利益的技术或研究,但也可以用来故意造成伤害。
修改病毒以了解使其更可传播的原因 Sam King Brian Hie