BLM 鼓励公众提供与 RMP/EIS 草案中提出的分析相关的信息和意见。我们对任何有助于 BLM 制定拟议 RMP/最终 EIS 的新信息都很感兴趣。作为公众的一员,您及时对 RMP/EIS 草案提出意见将有助于制定拟议 RMP/最终 EIS。BLM 将接受对 RMP/EIS 草案的意见,并在《联邦公报》上发布 RMP/EIS 草案可用通知。此外,随着 NOA 的发布,将启动拟议的休闲射击关闭的 90 天评论期和拟议的关键环境问题区域 (ACEC) 的 90 天评论期。BLM 必须在 2023 年 11 月 9 日之前收到意见。
摘要。最近出现的可解释人工智能 (XAI) 领域试图以人类可以理解的术语阐明“黑箱”机器学习 (ML) 模型。随着多种解释方法的开发以及黑箱模型的不同应用,需要专家级评估来检查其有效性变得不可避免。这对于敏感领域(例如医疗应用)非常重要,因为专家的评估对于更好地了解复杂 ML 的结果的准确性以及在必要时调试模型至关重要。本研究的目的是通过实验展示如何利用医疗应用中的专家级 XAI 方法评估并将其与临床医生生成的实际解释保持一致。为此,我们从配备眼动仪的专家受试者那里收集注释,同时他们对医学图像进行分类,并设计一种方法将结果与从 XAI 方法获得的结果进行比较。我们通过多个实验证明了我们方法的有效性。