要了解 AI 带来的风险,请跟着钱走

作者:Rufus Rock,伦敦大学学院;Tim O’Reilly,伦敦大学学院;Ilan Strauss,伦敦大学学院;Mariana Mazzucato,伦敦大学学院 一次又一次,顶尖科学家、技术专家和哲学家对创新方向做出了惊人的糟糕猜测。甚至爱因斯坦也未能幸免,他声称:“没有丝毫迹象表明核能将永远可用”,就在恩里科·费米完成[…]的十年前

来源:O'Reilly Media _AI & ML

Â

学得更快。挖得更深。看得更远。

学得更快。挖得更深。看得更远。

一次又一次,顶尖的科学家、技术专家和哲学家对创新的方向做出了极其糟糕的猜测。甚至爱因斯坦也未能幸免,他声称,“没有丝毫迹象表明核能将会被获得”,而这发生在恩里科·费米在芝加哥建成第一台裂变反应堆的十年前。此后不久,人们的共识转向对即将发生的核浩劫的恐惧。

极其糟糕的猜测 声称,

同样,今天的专家警告说,人工智能(AGI)的末日即将来临。其他人则反驳说,大型语言模型 (LLM) 已经达到了其能力的顶峰。

通用人工智能 (AGI) 的末日 顶峰

很难反驳 David Collingridge 的有影响力的论点,即试图预测新技术带来的风险是愚蠢的行为。鉴于我们领先的科学家和技术人员通常对技术发展如此错误,我们的政策制定者有多大机会有效地监管人工智能 (AI) 带来的新兴技术风险?

有影响力的论点

我们应该听从 Collingridge 的警告,即技术以不确定的方式发展。然而,有一类人工智能风险通常是可以提前知道的。这些风险源于公司以特定方式从其专有 AI 模型中获利的经济动机与社会对如何将 AI 模型货币化和部署的兴趣之间的不一致。

忽略这种不一致的最可靠方法是专注于 AI 模型能力的技术问题,脱离这些模型将在其中运行和设计用于盈利的社会经济环境。

销售额 数百万

降低质量以获取更高利润

社交媒体、搜索和推荐算法 俗话说 我们调查了 我们的研究