详细内容或原文请订阅后点击阅览
使 AI 能够用通俗易懂的语言解释其预测
使用 LLM 将机器学习解释转换为可读的叙述可以帮助用户更好地决定何时信任模型。
来源:MIT新闻 - 人工智能机器学习模型可能会出错并且难以使用,因此科学家开发了解释方法来帮助用户了解何时以及如何信任模型的预测。
然而,这些解释通常很复杂,可能包含有关数百个模型特征的信息。 它们有时以多方面的可视化形式呈现,对于缺乏机器学习专业知识的用户来说,可能难以完全理解。
为了帮助人们理解人工智能的解释,麻省理工学院的研究人员使用大型语言模型 (LLM) 将基于情节的解释转换为通俗易懂的语言。
他们开发了一个由两部分组成的系统,将机器学习解释转换为一段人类可读的文本,然后自动评估叙述的质量,以便最终用户知道是否应该信任它。
通过向系统提供一些示例解释,研究人员可以定制其叙述描述,以满足用户的偏好或特定应用程序的要求。
从长远来看,研究人员希望在此技术的基础上进一步发展,让用户向模型询问有关其在现实环境中如何得出预测的后续问题。
“我们进行这项研究的目标是迈出第一步,让用户能够与机器学习模型进行全面的对话,了解他们做出某些预测的原因,以便他们能够更好地决定是否听从模型的意见,”电气工程和计算机科学 (EECS) 研究生、该技术论文的主要作者 Alexandra Zytek 说道。
关于该技术的论文阐明解释
阐明解释通常,SHAP 解释以条形图的形式呈现,显示哪些特征最重要或最不重要。 但对于具有 100 多个特征的模型,该条形图很快就会变得难以处理。
他们的系统名为 EXPLINGO,分为两个协同工作的部分。
分析叙事
分析叙事