人工智能教父、史蒂夫·班农和哈里王子在一件事上达成一致:停止超级智能

一封新的公开信敦促全球禁止超级智能的发展,它是由可以想象到的最不寻常的联盟之一签署的。

来源:营销人工智能研究所
一封新的公开信敦促全球禁止超级人工智能的发展,它是由可以想象到的最不寻常的联盟之一签署的。这份声明由未来生命研究所 (FLI) 组织,得到了人工智能“教父”杰弗里·辛顿 (Geoffrey Hinton) 和约书亚·本吉奥 (Yoshua Bengio)、苹果联合创始人史蒂夫·沃兹尼亚克 (Steve Wozniak) 以及诺贝尔奖获得者的支持。但它也包括史蒂夫·班农(Steve Bannon)和苏珊·赖斯(Susan Rice)等政治人物,以及哈里王子和梅根·马克尔(Meghan Markle)等名人的签名。他们的信息简短而直白:“我们呼吁禁止超级人工智能的发展”,只有在“广泛的科学共识认为超级人工智能的发展将安全可控”并得到“公众的强烈支持”后才能解除。组织者警告说,时间已经不多了,声称超级人工智能或人工智能能够超越人类在所有认知任务上,可能会在短短一两年内实现。但是,这种禁令的呼吁现实吗?甚至有帮助吗?为了解读这封信及其含义,我在《人工智能秀》第 176 集中与 SmarterX 和 Marketing AI Institute 创始人兼首席执行官 Paul Roetzer 进行了交谈。“适得其反且愚蠢”的提案?Roetzer 的初步看法是,这封信主要是为了提高公众意识。但他也强调了一个强有力的反驳,揭露了该提案的根本缺陷,该反驳来自美国创新基金会的迪恩·鲍尔(Dean Ball)。鲍尔关于超级智能暂停提议的核心问题是:如何在不首先构建超级智能的情况下证明它是安全的?这一逻辑表明,执行此类禁令的唯一方法是为超级智能发展创建一个“经批准的场所和机构”。换句话说,一个全球治理机构的任务就是开发这封信试图禁止的技术。这种情况将集中开发并形成一个政府联盟(鲍尔指出,同样的实体拥有“军队、警察和对立法的垄断”