重复使用本文根据 Creative Commons 署名-非商业-禁止演绎 (CC BY-NC-ND) 许可条款发布。此许可仅允许您下载此作品并在注明作者的情况下与他人共享,但您不得以任何方式更改本文或将其用于商业用途。更多信息和许可条款的完整内容请参见:https://creativecommons.org/licenses/
重复使用本文根据 Creative Commons 署名-非商业-禁止演绎 (CC BY-NC-ND) 许可条款发布。此许可仅允许您下载此作品并在注明作者的情况下与他人共享,但您不得以任何方式更改本文或将其用于商业用途。更多信息和许可条款的完整内容请参见:https://creativecommons.org/licenses/
第3条第1点提及的方法(a)机器学习方法,包括监督学习、无监督学习和强化学习,使用包括深度学习在内的多种方法;(b)基于逻辑和知识的方法,包括知识表示、归纳(逻辑)编程、知识库、推理和演绎引擎、(符号)推理和专家系统;(c)统计方法、贝叶斯估计、搜索和优化方法。
2 路易斯维尔大学 mario.brcic@fer.hr, roman.yampolskiy@louisville.edu 摘要 不可能定理表明,某个特定问题或一组问题无法按照声明中描述的方式解决。此类定理限制了人工智能(尤其是超级智能)所能做的事情。因此,这些结果可作为人工智能安全、人工智能政策和治理研究人员的指导方针、提醒和警告。这些可能以在约束满足框架内形式化理论的形式解决一些长期存在的问题,而无需承诺一种选择。我们坚信这是长期人工智能安全计划最谨慎的方法。在本文中,我们将适用于人工智能的不可能定理分为五种基于机制的类别:演绎、不可区分、归纳、权衡和难解性。我们发现某些定理过于具体或具有限制应用的隐含假设。此外,我们还添加了新的结果(定理),例如可解释性的不公平性,这是归纳类别中第一个与可解释性相关的结果。其余结果处理克隆之间的错位,并对代理的自我意识设置限制。我们得出结论,演绎不可能性否认了 100% 的安全保证。最后,我们给出了一些在可解释性、可控性、价值一致性、道德和群体决策方面具有潜力的想法。它们可以通过进一步调查来深化。
定量/分析课程被定义为具有定量(数值,几何)或正式(演绎,概率)推理的课程,作为其主要主题的一部分,或在实践问题解决,关键评估或分析中大量使用此类推理。根据参议院政策S2020-02课程编号和学分水平,定量/分析课程是所有大学学士学位的要求。批准的定量/分析课程如下: div>
附件一(可通过委托法案更新)a)机器学习方法,包括监督学习、无监督学习和强化学习,使用包括深度学习在内的多种方法;b)基于逻辑和知识的方法,包括知识表示、归纳(逻辑)编程、知识库、推理和演绎引擎、(符号)推理和专家系统;c)统计方法、贝叶斯估计、搜索和优化方法
隐私国际希望在保留版权的同时,尽可能广泛地传播其作品。隐私国际拥有开放获取政策,任何人都可以免费在线访问其内容。任何人都可以以任何格式下载、保存、执行或分发此作品,包括翻译,无需书面许可。这受知识共享许可契约条款的约束:署名-非商业-禁止演绎作品 2.0 英国:英格兰和威尔士。其主要条件是:
隐私国际希望在保留版权的同时,尽可能广泛地传播其作品。隐私国际拥有开放获取政策,任何人都可以免费在线访问其内容。任何人都可以以任何格式下载、保存、执行或分发此作品,包括翻译,无需书面许可。这受知识共享许可契约条款的约束:署名-非商业-禁止演绎作品 2.0 英国:英格兰和威尔士。其主要条件是: