古普塔 |未经同意的AI将会失败

在他最新的专栏文章中,古普塔反思了黄仁勋和罗·卡纳之间的对话,澄清了美国人工智能领导地位的真正限制。未经同意的人工智能将会失败,该文章首先出现在《斯坦福日报》上。

来源:斯坦福大学日报

美国在人工智能领域的领先地位——建立最有能力的模型、吸引最优秀的人才以及制定全球规则——能否持续下去,最终将取决于公众是否同意这一转变。美国的人工智能政策尚未针对这一测试而制定。在这里,同意意味着一些具体的东西:工人在做出部署决定之前已经提出意见,存在可靠的适应途径(与劳动力需求相关的再培训、可转移的福利以及对角色被重塑的工人的保护)以及管理高风险用途的明确标准。

这个问题是《斯坦福日报》4 月 9 日报道的讨论的中心问题,当时黄仁勋 (Jensen Huang) M.S. ‘92 和众议员罗·卡纳 (Ro Khanna) 一致认为美国应该在人工智能发展方面领先世界其他国家,但对于什么样的领导地位可以持续存在分歧。

黄强调扩散。他将人工智能堆栈(促进其使用的各种基础设施)描述为一个层次结构:能源、芯片、模型和应用程序。他认为,应用层最重要,因为这是技术能力转化为国家优势的地方。如果技术永远无法在医院、教室、实验室、工厂和小企业中扎根,那么模型或芯片的领先意义就更小了。他是对的。他还指出,监管问题常常被提出得过于粗暴。严格的监管针对的是特定的高风险应用,而不是作为一个类别的采用。

但扩散可以在不加强制度的情况下传播,并且发展速度可以在不经过用户同意的情况下加快。斯坦福大学的人工智能指数显示,美国在私人人工智能投资和顶级模型方面仍然处于领先地位,尽管美国和中国的系统自 2025 年初以来已经多次交换了性能领先优势。皮尤研究中心发现,一半的美国成年人对日常生活中的人工智能感到更担心而不是兴奋。