Loading...
机构名称:
¥ 1.0

由于在线共享的信息量不断增加以及生成式人工智能 (AI) 的作用,人工验证变得非常具有挑战性。因此,人工智能系统用于在线识别虚假信息和深度造假。先前的研究表明,将人工智能与人类专业知识相结合时可以观察到卓越的性能。此外,根据欧盟人工智能法案,在可能影响基本人权(例如言论自由权)的领域使用人工智能系统时,人类监督是不可避免的。因此,人工智能系统需要透明并提供足够的解释才能被理解。已经进行了大量研究以整合可解释性 (XAI) 特征来提高人工智能系统的透明度;然而,它们缺乏以人为本的评估。此外,解释的意义因用户的背景知识和个人因素而异。因此,本研究实施了以人为本的评估方案,以评估人机协作虚假信息检测任务的不同 XAI 特征。在此,客观和主观评价维度(例如性能、感知有用性、可理解性和对 AI 系统的信任度)用于评估不同的 XAI 特征。进行了一项用户研究,总共有 433 名参与者,其中 406 名众包工作者和 27 名记者作为专家参与检测虚假信息。结果表明,自由文本解释有助于提高非专家的表现,但不会影响专家的表现。XAI 特征提高了对 AI 系统的感知有用性、可理解性和信任度,但它们也可能导致众包工作者在 AI 系统的预测错误时盲目信任它。

可解释性在人机协作虚假信息检测中的作用

可解释性在人机协作虚假信息检测中的作用PDF文件第1页

可解释性在人机协作虚假信息检测中的作用PDF文件第2页

可解释性在人机协作虚假信息检测中的作用PDF文件第3页

可解释性在人机协作虚假信息检测中的作用PDF文件第4页

可解释性在人机协作虚假信息检测中的作用PDF文件第5页

相关文件推荐

2021 年
¥1.0
2024 年
¥3.0