Loading...
机构名称:
¥ 2.0

人工智能 (AI) 中价值一致性 (VA) 系统开发的一个重要步骤是了解 VA 如何反映有效的道德原则。我们建议 VA 系统的设计者采用一种混合方法来融入道德,其中道德推理和经验观察都发挥作用。我们认为,这避免了犯“自然主义谬误”,即试图从“是”中推导出“应该”,并且在没有犯谬误时提供了一种更充分的道德推理形式。使用量化模态逻辑,我们精确地制定了源自义务论伦理的原则,并展示了它们如何为 AI 规则库中任何给定的行动计划暗示特定的“测试命题”。只有当测试命题在经验上是真实的,即基于经验 VA 做出的判断时,行动计划才是合乎道德的。这使得经验性 VA 能够与独立证明的道德原则无缝集成。

认真对待原则:人工智能中价值协调的混合方法

认真对待原则:人工智能中价值协调的混合方法PDF文件第1页

认真对待原则:人工智能中价值协调的混合方法PDF文件第2页

认真对待原则:人工智能中价值协调的混合方法PDF文件第3页

认真对待原则:人工智能中价值协调的混合方法PDF文件第4页

认真对待原则:人工智能中价值协调的混合方法PDF文件第5页

相关文件推荐