“OpenAI 和任何其他前沿实验室都尚未做好准备”:高级 AI 安全专家发出警报

OpenAI 的高调离职引发了人们对人工智能行业对通用人工智能 (AGI) 准备程度的新担忧——而这一警告来自知情人士。

来源:营销人工智能研究所

远离Openai的一个高调离开引发了人们对AI行业对人工通用情报(AGI)的准备的新担忧,并且警告来自一个知道的人。

Miles Brundage是Openai的AGI Revernessions高级顾问,在六年后离开了公司,从事独立的AI政策研究。他的分开信息?当涉及AGI准备就绪时:

他的分开信息?

“简而言之,OpenAI和任何其他边境实验室都没有准备好,而且世界也没有准备好。”

这对我们其他人意味着什么?我在人工智能展览会第121集中与营销AI Institute创始人兼首席执行官Paul Roetzer进行了交谈,以查找。

人工智能节目的第121集

为什么此离开很重要

Brundage不仅有任何员工 - 他在Openai建立关键安全实践的作用,包括:

    外部红色团队程序系统卡实现了准备计划
  • 外部红色团队计划
  • 系统卡实施
  • AGI准备计划
  • 在潜入他离开的职位时,布伦迪奇说,有几个因素推动了他的决定。

    首先是主要AI实验室的研究发布限制。 (像Openai Face这样的地方如此多的审查和竞争激励措施在内部发表研究可能很困难。)

    他还担心,如果他继续在一个主要的AI实验室工作,他将无法在政策讨论中保持公正性或能够充当行业的独立声音。

    这些因素都是相关的。他们源于他的总体关注,即越来越高级的AI要求参与其发展的每个人都在指导技术方面发挥更为积极的作用。

    “受益于人类的Agi并非自动,需要决策者和政府,非营利组织,民间社会和工业界做出故意选择,” Brundage写道。

    我们该怎么办?

    Brundage的离开突出了我们为更高级AI做准备的最大问题:

    现在