人工智能监管与协作的历史模型(博客)

人类基因组计划可以教会我们如何将革命性技术用于公共利益——以及为什么核武器是一个适得其反的类比。

来源:斯坦福社会创新评论(SSIR)
(插图来自 iStock/gmast3r) (插图来自 iStock/gmast3r)

2023 年 3 月,顶级人工智能公司的首席执行官写了一封信,将人工智能 (AI) 灭绝的风险与核战争的风险进行了比较。这封信成功登上了头条新闻,从《终结者》系列中挖掘出意象,但未能将世界对人工智能的态度引向有益的方向。事实上,许多关于人工智能能实现什么的想法都受到了它和核武器一样强大的观念的影响。但通过“武器化”这项技术,我们让它变得更加难以监管,因为它无疑导致了旨在囤积资源以实现国家对技术霸权的政策。

一封信 终结者 囤积

世界各地的大学、国家实验室和行业不应囤积人工智能的使用权并只关注降低风险,而应共同努力,推动该技术的优势。这似乎是一项过于乐观、不可能完成的任务,但不久前,人类成功地完成了这样的合作,并推进了另一项备受争议的技术的优势:基因测序。1990 年,在美国的领导下,世界各国政府开始了一项为期 13 年的努力,通过人类基因组计划 (HGP) 绘制人类 DNA 图谱。我相信我们可以再次实现这样的合作,以确保人工智能的进步有助于人类繁荣。

人类基因组计划

回顾过去:人类基因组计划的历史

全球关注

你喜欢这篇文章吗?订阅后,您可以阅读更多类似内容,以及 SSIR 的完整内容存档。

SSIR 的 订阅后 健康保险流通与责任法案 (HIPAA) 伦理、法律和社会影响 (ELSI) 研究计划

人类基因组计划作为可操作的路线图:美国通过全球合作发挥领导作用

关于人工智能的行政命令 发誓 预算削减和屋顶漏水 百慕大协议 塑造了实践 人工智能的“帕格沃什时刻”。 英国人工智能安全峰会 SSIR