德国 trenz@uni-goettingen.de 摘要 人工智能 (AI) 越来越多地被纳入创新的个人健康应用程序中,以改善用户的决策。为了促进理解和增加此类基于 AI 的个人健康应用程序的使用,公司正逐步转向可解释的人工智能 (XAI) 设计。然而,我们认为对基于 AI 的建议的解释不仅有积极的后果,也有消极的后果。基于社会技术视角,我们开发了一个模型,将 XAI 与技术压力(包括良性压力和痛苦)及其下游后果联系起来。为了测试我们的模型,我们进行了一项在线实验,参与者与 XAI 或黑盒 AI 进行互动。我们的结果表明 (1) XAI 既会导致良性压力,也会导致痛苦,(2) 同时对客观表现、满意度和使用意愿产生不同的影响。我们的研究结果揭示了 XAI 对健康背景下决策过程的双重影响,为信息系统研究和实践做出了贡献。