点击购买,资源将自动在新窗口打开.
获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
1 区分外部对齐问题和内部对齐很重要。外部对齐是指人工智能系统错误地解释人类目标或以有害的方式追求目标的情况。然而,内部模型可能存在单独的错位。在内部对齐的情况下,外部优化过程成功地将目标内化,但内部模型本身是一个优化器,并以意想不到的、错位的方式配置任务。Evan Hubinger 提供了人类进化的一个例子。人类进化(在这种情况下是外部模型)的目标是最大化遗传适应度,而人类(内部模型)
主要关键词