Loading...
机构名称:
¥ 1.0

我们习惯于听取解释。例如,如果有人觉得你今天很伤心,他们可能会用“因为你太难过了”来回答你的“为什么?”。然而,今天的人工智能(AI)——如果有的话——主要是以视觉或文本的方式提供决策的解释。虽然这种方法适合通过视觉媒体进行交流,例如在研究论文或智能设备的屏幕中,但它们可能并不总是最好的解释方式;尤其是当最终用户不是专家时。特别是,当人工智能的任务是音频智能时,视觉解释似乎不如可听的、声音化的解释直观。声音化在处理非音频数据的系统中对可解释人工智能(XAI)也具有巨大潜力——例如,因为它不需要用户的视觉接触或主动注意。因此,人工智能决策的声音化解释面临着一项具有挑战性但极具前景和开创性的任务。这涉及结合创新的 XAI 算法,以便指向负责 AI 决策的学习数据,并包括数据分解以识别突出方面。它进一步旨在识别负责决策的预处理、特征表示和学习注意模式的组成部分。最后,它以模型级决策为目标,为决策链提供整体解释

迈向多模态和用户友好型可解释人工智能的声音化

迈向多模态和用户友好型可解释人工智能的声音化PDF文件第1页

迈向多模态和用户友好型可解释人工智能的声音化PDF文件第2页

迈向多模态和用户友好型可解释人工智能的声音化PDF文件第3页

迈向多模态和用户友好型可解释人工智能的声音化PDF文件第4页

迈向多模态和用户友好型可解释人工智能的声音化PDF文件第5页

相关文件推荐

2020 年
¥10.0