大型语言模型 (LLM) 的发布改变了我们的现实。不仅研究人员使用和测试模型的能力和敏感性,公司和个人也在日常需求中使用生成的文本。尽管对于模型响应的可信度有很多批评,但基于人工智能 (AI) 的助手的普及度却日益提高。但是,许多此类模型并未披露它们是使用哪些数据进行训练的,因此很难估计可以从数据中学习到的模型偏差。此外,尽管底层 Transformer 架构具有生成性 [3],但模型的响应可能包含来自受版权保护的训练数据的段落 [1,2]。尽管正在进行的研究针对这一问题 [4],但仍有其他问题尚未解决。对于法律领域的专家来说,当前在 LLM 中使用的基于深度学习的系统的一个显着缺点是缺乏可解释性。在许多其他领域(例如医学),对可解释人工智能(XAI)的需求是不可避免的。
主要关键词