摘要 — 人工智能 (AI) 在社会中发挥着重要作用,包括如何做出至关重要、往往改变生活的决定。因此,近年来,人们对可解释人工智能 (XAI) 的兴趣日益浓厚,它是一种揭示通常被描述为黑匣子中的流程和操作的手段,黑匣子是一个通常不透明的系统,其决策难以被最终用户理解。本文介绍了一个有 20 名参与者(计算机科学和平面设计专业学生)参加的设计思维研讨会的结果,我们试图调查用户在与 AI 系统交互时的心理模型。参与者使用两个角色,被要求同情 AI 驱动的招聘系统的两个最终用户,识别用户体验中的痛点并构思这些痛点的可能解决方案。这些任务用于探索用户对 AI 系统的理解、AI 系统的可理解性以及如何向最终用户解释这些系统的内部工作原理。我们发现,视觉反馈、分析和比较、特征突出显示以及事实、反事实和主要推理解释可用于改善用户对人工智能系统的心理模型。
主要关键词