Loading...
机构名称:
¥ 8.0

假设如果被证明确实不可能使一个人工智能变得安全,那么就不需要分析更复杂的多 ASI 世界的情况了。超级智能的潜在控制方法被分为两大类,即基于能力控制和动机控制的方法 [59]。能力控制方法试图通过将 ASI 系统置于受限环境中 [38, 60–62]、添加关闭机制 [63, 64] 或绊线 [38] 来限制 ASI 系统能够造成的任何伤害。动机控制方法试图将 ASI 设计为即使在没有能力控制器的情况下也不会造成伤害。人们普遍认为,能力控制方法充其量只是临时的安全措施,并不是 ASI 控制问题的长期解决方案 [59]。也可能需要在设计/实施阶段添加动机控制,而不是在部署之后。

论人工智能的可控性

论人工智能的可控性PDF文件第1页

论人工智能的可控性PDF文件第2页

论人工智能的可控性PDF文件第3页

论人工智能的可控性PDF文件第4页

论人工智能的可控性PDF文件第5页

相关文件推荐

2021 年
¥1.0
2021 年
¥1.0
2022 年
¥8.0
2022 年
¥1.0
2022 年
¥1.0
2021 年
¥1.0
2022 年
¥1.0
2022 年
¥5.0
2022 年
¥1.0
2022 年
¥1.0
2022 年
¥1.0
2024 年
¥1.0
2024 年
¥6.0
2024 年
¥5.0
2022 年
¥6.0
2020 年
¥5.0
2021 年
¥1.0
2024 年
¥12.0
2024 年
¥2.0
2023 年
¥1.0
2025 年
¥1.0