详细内容或原文请订阅后点击阅览
人工智能监管与协作的历史模型(博客)
人类基因组计划可以教会我们如何将革命性技术用于公共利益——以及为什么核武器是一个适得其反的类比。
来源:斯坦福社会创新评论(SSIR)2023 年 3 月,顶级人工智能公司的首席执行官写了一封信,将人工智能 (AI) 灭绝的风险与核战争的风险进行了比较。这封信成功登上了头条新闻,从《终结者》系列中挖掘出意象,但未能将世界对人工智能的态度引向有益的方向。事实上,许多关于人工智能能实现什么的想法都受到了它和核武器一样强大的观念的影响。但通过“武器化”这项技术,我们让它变得更加难以监管,因为它无疑导致了旨在囤积资源以实现国家对技术霸权的政策。
一封信 终结者 囤积世界各地的大学、国家实验室和行业不应囤积人工智能的使用权并只关注降低风险,而应共同努力,推动该技术的优势。这似乎是一项过于乐观、不可能完成的任务,但不久前,人类成功地完成了这样的合作,并推进了另一项备受争议的技术的优势:基因测序。1990 年,在美国的领导下,世界各国政府开始了一项为期 13 年的努力,通过人类基因组计划 (HGP) 绘制人类 DNA 图谱。我相信我们可以再次实现这样的合作,以确保人工智能的进步有助于人类繁荣。
人类基因组计划回顾过去:人类基因组计划的历史
全球关注你喜欢这篇文章吗?订阅后,您可以阅读更多类似内容,以及 SSIR 的完整内容存档。
SSIR 的 订阅后 健康保险流通与责任法案 (HIPAA) 伦理、法律和社会影响 (ELSI) 研究计划