Ilya Sutskever 和安全超级智能:科学家启动安全超级智能项目

OpenAI的联合创始人承担了我们这个时代最负责任的使命。

来源:安全实验室新闻频道

Ilya Sutskever 和安全超级智能:科学家启动安全超级智能项目

OpenAI的联合创始人承担了我们这个时代最负责任的使命。

OpenAI 创始人之一、前首席科学家 Ilya Sutskever 正在创办一家新公司——Safe Superintelligence Inc.。 (SSI)。该项目的启动是在这位科学家离开 OpenAI 一个月后宣布的。 Sutzkever 的倡议由前 Y Combinator 合伙人 Daniel Gross 和前 OpenAI 工程师 Daniel Levy 共同创立,旨在解决我们这个时代最紧迫的问题之一——确保超级智能 AI 系统的安全运行。

安全超级智能公司

Sutskever 之前与 Jan Leike 密切合作,Jan Leike 领导了 Superalignment 团队,也专注于安全领域。今年 5 月,他们因与管理层意见不合而双双离开 OpenAI。雷克加入了另一家业内领先的研究机构Anthropic。

在与 Leike 从 2023 年开始的联合博客文章中,Sutzkever 预测未来十年内将出现超越人类能力的人工智能。他认为,到了这个时候,人们需要保护自己免受来自各方的所有可能的风险。

SSI 迄今为止只有一个使命——创建安全的超级智能。该公司的名称“Safe Superintelligence Inc.”体现了其核心宗旨和产品重点。根据宣布该项目启动的推文,SSI 致力于推进人工智能能力,同时提供主动防御工具。这种方法可以让您在不损害人类的情况下扩大发展规模。