DeepMind的145页关于AGI>安全策略的报告

DeepMind最近发布了一份关于人工通用情报安全策略(AGI)的全面145页的报告。该报告由DeepMind的共同创始人Shane Legg共同撰写,提出了许多战略见解和建议,以管理AGI的潜在风险和收益,预测AGI可以在2030年报告的主要内容之前是现实,该报告在报告[…]邮政上145页的安全部门对安全部门的145页报告中进行了安全部门的安全部门的安全部门

来源:AI新闻
AGI的时间范围:DeepMind预测AGI可以在十年结束之前发生(2030年)。 AGI的定义:根据报告,AGI是一种可以在广泛的非物理数据上与至少第99个熟练成年人相匹配的系统,包括能够学习新技能的元认知任务。可能会永久破坏人类的“存在风险”。 DewepMind最近发布了一份关于人工通用情报安全策略(AGI)的全面145页的报告。该报告由DeepMind的共同创始人Shane Legg共同撰写,它提出了许多战略见解和建议,以通过AGI管理潜在的风险和利益,这预测,在2030年报告的主要内容报告中,AGI可以成为现实,以彻底讨论技术运输。它将风险分为四个主要领域:通过AI系统之间的相互作用而没有任何个人系统负责的风险。有意识地滥用人 - 当AI用于有害目的时会冒险。当AI以其程序员预见的方式行动时,不正确的关注点。与其他Actor方法进行比较,deepmindanththobust培训,监视和安全性高 - 对准研究怀疑论者 - 乐观主义者相关的超级智能-in -focus,该报告提供了该报告,该报告提供了该报告为研究界提供的报告。批评是针对这样一个事实,即AGI的概念太模糊了,无法严格评估,并且“递归AI改进”的现象在AI系统的改善中受到了自我的质疑,这些研究人员相信没有证据表明这可以起作用。
AGI -