摘要 机器学习 (ML) 越来越多地融入各个领域的决策制定,引发了人们对道德、合法性、可解释性和安全性的担忧,凸显了人类监督的必要性。作为回应,可解释人工智能 (XAI) 应运而生,它通过提供对 ML 模型决策的洞察,并让人类了解底层逻辑,从而成为一种增强透明度的手段。尽管现有的 XAI 模型具有潜力,但通常缺乏实用性,无法提高人机性能,因为它们可能会引入过度依赖等问题。这强调了以人为本的 XAI 需要进一步研究,以提高当前 XAI 方法的可用性。值得注意的是,目前的大部分研究都集中在 XAI 与个体决策者之间的一对一互动上,忽视了现实世界场景中人类群体使用 XAI 进行集体决策协作的多对一关系的动态。在这项最新工作中,我们借鉴了以人为中心的XAI研究的当前成果,并讨论了如何将XAI设计过渡到群体AI交互。我们讨论了XAI从人机交互过渡到群体AI交互的四个潜在挑战。本文有助于推动以人为中心的XAI领域的发展,促进群体XAI交互的讨论,呼吁在该领域进一步研究。关键词 可解释AI,群体AI交互,交互设计