对人工智能系统的担忧之一就是拥护“道德人工智能”,即阐明道德规范,然后强加法律要求,要求人工智能系统符合这些规范。但这会起作用吗?更准确地说,是否存在一种有效的程序,通过该程序,人工智能系统开发者或监管者可以提前确定人工智能系统一旦投入运行,是否会持续产生符合所需道德规范的输出?本文的答案是“不”。停机问题表明,没有一种算法可以可靠地为运行任何允许输入的所有人工智能系统做到这一点。可以决定某些运行某些输入的人工智能系统的合规性,但并非总是如此。当计算方法失败时,法律系统可以“填补空白”吗?本文表明,至少到目前为止,这种可能性并不积极。关于哪些法律规则应该评估人工智能系统的使用或滥用的责任,以及这些规则在具体案件中应该如何运作,存在一些问题。当前的法律提案本身可能不符合可解释性的道德规范。当与不受任何道德规范约束的人工智能超级智能相比时,无效性成为一个问题。
主要关键词