详细内容或原文请订阅后点击阅览
要了解 AI 带来的风险,请跟着钱走
作者:Rufus Rock,伦敦大学学院;Tim O’Reilly,伦敦大学学院;Ilan Strauss,伦敦大学学院;Mariana Mazzucato,伦敦大学学院 一次又一次,顶尖科学家、技术专家和哲学家对创新方向做出了惊人的糟糕猜测。甚至爱因斯坦也未能幸免,他声称:“没有丝毫迹象表明核能将永远可用”,就在恩里科·费米完成[…]的十年前
来源:O'Reilly Media _AI & MLÂ
学得更快。挖得更深。看得更远。
学得更快。挖得更深。看得更远。
一次又一次,顶尖的科学家、技术专家和哲学家对创新的方向做出了极其糟糕的猜测。甚至爱因斯坦也未能幸免,他声称,“没有丝毫迹象表明核能将会被获得”,而这发生在恩里科·费米在芝加哥建成第一台裂变反应堆的十年前。此后不久,人们的共识转向对即将发生的核浩劫的恐惧。
极其糟糕的猜测 声称,同样,今天的专家警告说,人工智能(AGI)的末日即将来临。其他人则反驳说,大型语言模型 (LLM) 已经达到了其能力的顶峰。
通用人工智能 (AGI) 的末日 顶峰很难反驳 David Collingridge 的有影响力的论点,即试图预测新技术带来的风险是愚蠢的行为。鉴于我们领先的科学家和技术人员通常对技术发展如此错误,我们的政策制定者有多大机会有效地监管人工智能 (AI) 带来的新兴技术风险?
有影响力的论点我们应该听从 Collingridge 的警告,即技术以不确定的方式发展。然而,有一类人工智能风险通常是可以提前知道的。这些风险源于公司以特定方式从其专有 AI 模型中获利的经济动机与社会对如何将 AI 模型货币化和部署的兴趣之间的不一致。
忽略这种不一致的最可靠方法是专注于 AI 模型能力的技术问题,脱离这些模型将在其中运行和设计用于盈利的社会经济环境。
销售额 数百万