详细内容或原文请订阅后点击阅览
OpenAI 的分裂:公司首席科学家开始了一个雄心勃勃的新项目
Sam Altman 的前同事、苏联人 Ilya Sutskever 创办的 Safe Superintelligence 将开发安全且负责任的“超级智能”。
来源:OSP网站大数据新闻5月,OpenAI联合创始人兼首席科学家Ilya Sutskever因与首席执行官Sam Altman意见分歧而离开公司,并宣布计划开发自己的项目。正如 Sutskever 宣布的那样,该项目是一家名为 Safe Superintelligence (SSI) 的初创公司,将开发安全且负责任的人工智能系统。
这位科学家表示,SSI 的安全和人工智能能力将同步发展,但前者将是优先考虑的。他补充说,与 OpenAI、微软和苹果不同,SSI 开发人员将无需遵守严格的更新发布时间表。正如 Sutskever 所解释的那样,SSI 的商业模式将安全、保障和进步置于眼前的商业成功之上。
SSI 由企业家 Daniel Gross 和 Daniel Levy 共同创立,Daniel Gross 曾在 Apple 领导人工智能项目,Daniel Levy 则来自 OpenAI,在 OpenAI 从事优化问题研究。除了美国之外,这家初创公司还在以色列开设了办事处,Sutskever 于 1991 年随家人从苏联移民到以色列后,在以色列的开放大学学习。
Sutskever 称 SSI 是“世界上第一个直接创造超级智能的实验室”,他认为这是“我们这个时代最重要的任务”。为了解决这个问题,他希望招募相关领域最优秀的专家到SSI。
Sutzkever 离开 OpenAI 后,该公司的其他研究人员也纷纷效仿,其中包括 Jan Leike 和 Greten Kruger,他们也抱怨忽视了安全性。特别是,雷克在宣布离开 OpenAI 时抱怨说,该公司的“安全原则和流程已被抛到了后台”。