摘要:自主人工智能(以下简称 AI)应用具有非凡的能力,可以彻底改变我们的日常生活。尽管如此,在它们的运行过程中,已经观察到许多侵犯人权的事件,从而危及公众的接受度和进一步发展。造成这种情况的主要原因在于自主 AI 系统固有的不透明性,这构成了所谓的黑箱问题或黑箱效应。为了消除这种影响,科学界经常建议“透明度”应该是实现这一目标的适当工具。事实上,在 21 世纪,关于 AI 透明度主题的学术研究数量迅速增加,甚至敦促欧洲立法者采用有关高风险 AI 系统透明度的协调法律规则等。尽管如此,透明度的语义背景尚未得到充分定义,其可能产生的负面影响也未得到深入探究。因此,人们对人工智能透明度的有效性表示担忧。然而,这些担忧并没有降低透明度对人工智能未来的重要性;它们实际上提出了一种让科学界看待人工智能的不同方式。也就是说,考虑到人工智能从定义上来说是一个多学科领域,由计算科学和认知科学组成,其透明度应该具有双重含义:首先是字面含义,与自主人工智能系统中决策程序的技术性相对应;其次是比喻含义,指充分理解这一程序结果的必要性,更重要的是,指人类有权事前或事后反对自主人工智能系统做出的决定。因此,在人工智能中嵌入透明度应该考虑促进人机交互和人机指挥的方法,而不是仅仅关注人机交互的方法。