人工智能的禁区 人工智能正在崛起。数据分析仍然是管理决策的主要来源。在某些情况下,不使用人工智能的力量来指导某些决策甚至可能是不负责任的:例如在某些疾病诊断中,如果有一种工具可以提高诊断的准确性,那么不使用它是荒谬的。然而,在其他一些情况下,人工智能的结果可能会产生影响,例如使用该模型可能会加剧危害:例如在 COMPAS 算法的情况下,使用该工具会忽视不公平的歧视,甚至造成新的不公正问题。本文的目的是界定人工智能的范围,同时主张在某些情况下我们应该避免使用这种技术。首先,基于先前的文献,我们认为,一旦提出了一条路径,使用人工智能的人就会直接受到该提议的影响。例如,在法庭上,如果一种算法提议判某人有罪,法官通常很难反驳人工智能模型。在这种情况下,那些部署人工智能的人会将决策权交给算法,即使他们才是决策的责任人。其次,我们认为,在某些情况下,决策或行动的影响如此之大,以至于应该始终有一个人参与其中。对于第二种情况,以亚马逊如何在没有人为干预的情况下通过算法对其司机进行评级和解雇为例。在这里,司机只收到一封由机器人发送的电子邮件,告诉他们被解雇了。在这种情况下,行动的影响应该是避免使用人工智能的原因,任何员工都应该得到有尊严的对待,失业的影响是如此令人不安,应该以某种方式来处理:让受影响的人发声,并以尊重和细心的方式对待他们。我们的两个论点并不详尽,但我们这篇文章的目的是开始讨论何时何地限制人工智能的使用,同时确定社会应该避免使用算法的那些场景。然而,我们不想忽视人工智能良好使用的所有好处。