摘要 — 人工智能 (AI) 在社会中发挥着重要作用,包括如何做出至关重要、往往改变生活的决定。因此,近年来,人们对可解释人工智能 (XAI) 的兴趣日益浓厚,它是一种揭示通常被描述为黑匣子中的流程和操作的手段,黑匣子是一个通常不透明的系统,其决策难以被最终用户理解。本文介绍了一个有 20 名参与者(计算机科学和平面设计专业学生)参加的设计思维研讨会的结果,我们试图调查用户在与 AI 系统交互时的心理模型。参与者使用两个角色,被要求同情 AI 驱动的招聘系统的两个最终用户,识别用户体验中的痛点并构思这些痛点的可能解决方案。这些任务用于探索用户对 AI 系统的理解、AI 系统的可理解性以及如何向最终用户解释这些系统的内部工作原理。我们发现,视觉反馈、分析和比较、特征突出显示以及事实、反事实和主要推理解释可用于改善用户对人工智能系统的心理模型。
提高我们对人类如何看待人工智能队友的理解,是我们对人机团队进行全面理解的重要基础。通过扩展认知科学的相关工作,我们提出了一个基于项目反应理论的框架来对这些感知进行建模。我们将这个框架应用于现实世界的实验,其中每个参与者与另一个人或人工智能代理一起在问答环境中工作,反复评估其队友的表现。利用这些实验数据,我们展示了我们的框架在测试人们对人工智能代理和其他人的看法的研究问题中的用途。我们将人工智能队友的心理模型与人类队友的心理模型进行对比,以描述这些心理模型的维度、它们随时间的演变以及参与者自身自我感知的影响。我们的结果表明,人们期望人工智能代理的表现平均而言明显优于其他人类的表现,并且在不同类型的问题中差异较小。最后,我们讨论了这些发现对人机交互的影响。