摘要 在本文中,我将确定与人工智能相关的两个信任问题:一个理论问题和一个实际问题。我将确定并解决对与人工智能相关的信任理论的一系列怀疑挑战。此外,我将确定我称之为“范围挑战”的内容,我认为这适用于任何与人工智能相关的信任理论(或理论集合),这些理论声称在代表性上足以代表多种形式的信任和人工智能。此后,我将提出信任工程(一种介于修改后的纯理性选择账户和产生可信赖人工智能的账户之间的立场)如何使我们能够解决信任的实际问题,然后再确定并批判性地评估两种候选信任工程方法。
人工智能革命正在改变着世界各地的社会。人们每天都在与越来越多集成人工智能的产品和服务互动。毫无疑问,人工智能的快速发展将带来积极的结果,但也会带来挑战。在这个领域,了解人们是否信任这种无所不能的技术非常重要,因为信任是使用人工智能产品的基本先决条件(愿意),而这反过来可能会影响到国家经济对人工智能的接受程度,从而对当地劳动力产生影响。为了进一步阐明对人工智能的信任,本研究旨在了解对人工智能的信任和对人类的信任这两个变量的重叠程度。了解这一点很重要,因为人们对对人类的信任已经了解很多,如果这两个概念重叠,我们对对人类的信任的大部分理解可能会转移到对人工智能的信任上。在新加坡(n = 535)和德国(n = 954)的样本中,我们可以观察到对人工智能/人类信任变量之间存在不同程度的正相关。在德国,对人工智能/人类的信任显示出轻微的正相关,而在新加坡,则呈中等正相关。此外,本文重新探讨了大五人格中的个体差异与对人工智能的一般态度(包括信任)之间的关联。目前的研究表明,对人类的信任和对人工智能的信任只有很小的差异,但这取决于文化(共享差异约为 4% 到 11%)。未来的研究应该进一步调查这种关联,但也要考虑对特定人工智能产品和人工智能服务的信任评估,因为情况可能会有所不同。
作者对人工智能现状的描述至今仍贴切:“它更像是一个好奇的幼儿的智力水平,而不是一个计划统治世界的银发天才”(第 2 页)。对于那些养育幼儿的人来说,破坏的可能性并不一定令人放心。导言章节介绍了北美、欧洲和亚洲(特别是中国)在人工智能的采用和监管方面的差异。它回顾了自动驾驶汽车等有益的应用,以及预测性警务和分配社会信用评分等更不祥的应用。使人工智能可行的技术,特别是使用图形处理单元而不是中央处理单元来提高计算能力,以一种易于理解的方式进行了解释,而不会太过深入。引用作家、思想家艾萨克·阿西莫夫的“机器人三定律”来介绍人工智能的伦理问题:1
关于解决人工智能模型 (fair-AI) 公平性的文献正在迅速增多,新的概念框架、方法和工具层出不穷。我们能相信它们多少?它们对社会的影响有多大?我们重点关注公平人工智能,并调查研究人员和从业者经常低估的问题、简化和错误,这些问题、简化和错误反过来会破坏对公平人工智能的信任并限制其对社会的贡献。特别是,我们讨论了对公平指标的过度关注以及优化其平均表现。我们通过讨论公平人工智能工具的 Yule 效应来实例化这一观察结果:平均公平并不意味着在重要的环境中公平。我们得出的结论是,公平人工智能方法的使用应该与通常被归纳为可信赖人工智能的设计、开发和验证实践相辅相成。