随着人工智能在一系列领域的应用取得了重大进展,人工智能伦理[1]和安全[2]等领域也获得了关注。人工智能伦理和安全涉及多种问题,其中价值观一致问题可能是最重要的,也可能是最难的[3,4]。简而言之,它是关于确保人工智能系统,特别是尚未开发超级智能的通用人工智能系统,追求的目标和价值观与人类的目标和价值观相一致。本文对上述定义中的“人类”一词提出质疑,因为这意味着如果人工智能系统不一定与其他生物的利益一致,那也没关系。特别是,本文关注非人类动物的利益。因此,我们主张将上述定义扩大到人类和非人类动物的目标和价值观。在人类历史上,许多伦理观点已经发生改变和发展。 Bostrom 和 Yudkowsky 指出,人工智能伦理不应该是一成不变的,而应该接受变化,如果人类认识到以前的道德错误 [5]。如后所述,对待非人类动物就是一个道德问题的典型例子,它会随着时间的推移而发生变化或正在发生变化。因此,我们的目标是将非人类动物纳入人工智能伦理的持续研究中。除了极少数的尝试外,关于人类对非人类动物的道德义务的审议直到 20 世纪后期才开始获得动力 [6],例如通过契约主义的方法 [7]。主要标准是承认(许多物种的)非人类动物是有感知的,因此能够感受到痛苦 [8]。这也导致了“物种歧视”一词的传播,Horta 将其定义为“对那些不属于某一物种的物种进行不合理的不利考虑或待遇”[9](第 1 页)。道德方面的进步也开始体现在法规方面。如今,许多国家的国内法都承认非人类动物具有感知和痛苦(https://www.globalanimallaw.org/database/national/index. html,2021 年 4 月 11 日访问),而《世界动物福利宣言》仍处于提案阶段(https://www.globalanimallaw.org/database/universal.html,2021 年 4 月 11 日访问),而《生物多样性公约》等全球协议
主要关键词