Loading...
机构名称:
¥ 6.0

1 区分外部对齐问题和内部对齐很重要。外部对齐是指人工智能系统错误地解释人类目标或以有害的方式追求目标的情况。然而,内部模型可能存在单独的错位。在内部对齐的情况下,外部优化过程成功地将目标内化,但内部模型本身是一个优化器,并以意想不到的、错位的方式配置任务。Evan Hubinger 提供了人类进化的一个例子。人类进化(在这种情况下是外部模型)的目标是最大化遗传适应度,而人类(内部模型)

期刊预校样

期刊预校样PDF文件第1页

期刊预校样PDF文件第2页

期刊预校样PDF文件第3页

期刊预校样PDF文件第4页

期刊预校样PDF文件第5页

相关文件推荐

2024 年
¥4.0
2024 年
¥3.0
2023 年
¥2.0
2022 年
¥1.0
2020 年
¥2.0
2023 年
¥16.0
2025 年
¥2.0
2024 年
¥1.0
2016 年
¥1.0
2019 年
¥2.0
2019 年
¥83.0
2015 年
¥10.0
2022 年
¥15.0
2018 年
¥38.0
2023 年
¥16.0
2021 年
¥2.0
2021 年
¥2.0
2025 年
¥1.0
2023 年
¥9.0
2023 年
¥8.0
2006 年
¥7.0
2006 年
¥7.0
2006 年
¥7.0
2006 年
¥7.0