佛蒙特州州立大学和农业学院董事会董事会的预算,财务和投资委员会的会议于2024年2月9日星期五下午1:00在Livak Ballroom,417-419 Dudley H. Davis中心举行。MEMBERS PRESENT: Chair Don McCree 1 , Vice Chair John Dineen 1 , President Suresh Garimella, Susan Brengle, Robert Brennan, Frank Cioffi 2 , Kenny Nguyen, Ed Pagano 1 , Shap Smith, and Catherine Toll REPRESENTATIVES PRESENT: Faculty Representative Guillermo Rodriguez, Foundation Representative Bob Plante 1, Alumni Representative Myron Sopher, Staff Representative Kunie Renaud, Student Representatives Evan Siegel 4 and Ashleigh Clark, and Graduate Student Representative Goodness Rex Nze-Igwe PERSONS ALSO PARTICIPATING: Board Chair Ron Lumbra 3 , Vice President for Finance & Administration Richard Cate, University Budget Director Shari Bergquist, and University Controller Claire Burlingham ABSENT: Trustees Kevin Christie and Tristan Toleno, Faculty Representative Jane Knodell, Staff Representative Aimee大风和学生代表Dan Peipert
• (NT) Bhatt, Umang, Alice Xiang, Shubham Sharma, Adrian Weller, Ankur Taly, Yunhan Jia, Joydeep Ghosh, Ruchir Puri, Jos MF Moura 和 Peter Eckersley。《部署中的可解释机器学习》。《2020 年公平、问责和透明度会议论文集》,第 648-657 页。2020 年。 • (T) Lundberg, Scott M. 和 Su-In Lee。《解释模型预测的统一方法》。《第 31 届神经信息处理系统国际会议论文集》,第 4768-4777 页。2017 年。 • (T) Ribeiro, Marco Tulio、Sameer Singh 和 Carlos Guestrin。《我为什么要相信你?》解释任何分类器的预测。”在第 22 届 ACM SIGKDD 知识发现和数据挖掘国际会议论文集上,第 1135-1144 页。2016 年。• (T) Slack、Dylan、Sophie Hilgard、Emily Jia、Sameer Singh 和 Himabindu Lakkaraju。“愚弄石灰和形状:对事后解释方法的对抗性攻击。”在 AAAI/ACM 人工智能、伦理和社会会议论文集上,第 180-186 页。2020 年。
人工智能(AI)在医疗保健中的整合正在彻底改变诊断和治疗程序,提供了前所未有的准确性和效率。然而,由于对信任,透明度和可解释性的关注,许多高级AI模型(通常被描述为“黑匣子”)的不透明度在采用方面造成了挑战,尤其是在像医疗保健这样的高风险环境中。可解释的AI(XAI)通过提供一个框架不仅可以实现高性能,而且还提供了对决策方式的见解,从而解决了这些问题。本研究探讨了XAI技术在医疗保健中的应用,重点是疾病诊断,预测分析和个性化治疗建议等关键领域。该研究将分析各种XAI方法,包括模型 - 现实方法(石灰,外形),可解释的深度学习模型以及XAI的领域特定应用。它还评估了道德意义,例如问责制和偏见缓解,以及XAI如何促进临床医生与AI系统之间的协作。最终,目标是创建既有功能又值得信赖的AI系统,从而促进在医疗保健领域的广泛采用,同时确保患者的道德和安全成果。
人工智能算法辅助在高风险决策中的应用越来越多,这引起了人们对可解释人工智能 (xAI) 的兴趣,以及反事实解释在增加人机协作信任和减轻不公平结果方面的作用。然而,在理解可解释人工智能如何改善人类决策方面,研究还很有限。我们进行了一项在线实验,共有 559 名参与者参与,利用“算法在环”框架和现实世界的审前数据,研究从最先进的机器学习解释方法(通过 DiCE 的反事实解释和通过 SHAP 的事实解释)生成的算法审前风险评估的解释如何影响决策者对累犯的评估质量。我们的结果表明,反事实和事实解释实现了不同的理想目标(分别改善人类对模型准确性、公平性和校准的评估),但仍未提高人类预测的综合准确性、公平性和可靠性——重申了 xAI 对社会技术、实证评估的需求。我们最后讨论了用户对 DiCE 反事实解释的反馈,以及我们的结果对人工智能辅助决策和人工智能的更广泛影响。 xAI。
抽象可解释的人工智能(XAI)在实现明智决定的过程中发挥了作用。现代各种供应链(SC)平台的出现改变了SC相互作用的性质,导致了显着的不确定性。这项研究旨在对现有的有关决策支持系统(DSS)的文献进行彻底分析,并在SC领域内对XAI功能的结合。我们的分析揭示了XAI对SC领域决策过程的影响。本研究利用Shapley添加说明(SHAP)技术使用Python机器学习(ML)过程分析在线数据。解释性算法是专门为通过为其产生的预测提供理由来提高ML模型的清醒性的。本研究旨在建立可衡量的标准,以识别XAI和DSS的组成部分,从而在SC的背景下增强决策。这项研究评估了对他们做出预测的能力,在线数据集的利用,所检查的变量数量,学习能力的发展以及在决策背景下进行验证的研究,强调了需要在不确定条件下涉及智能决策的其他探索领域的研究领域。
抽象可解释的人工智能(XAI)在实现明智决定的过程中发挥了作用。现代各种供应链(SC)平台的出现改变了SC相互作用的性质,导致了显着的不确定性。这项研究旨在对现有的有关决策支持系统(DSS)的文献进行彻底分析,并在SC领域内对XAI功能的结合。我们的分析揭示了XAI对SC领域决策过程的影响。本研究利用Shapley添加说明(SHAP)技术使用Python机器学习(ML)过程分析在线数据。解释性算法是专门为通过为其产生的预测提供理由来提高ML模型的清醒性的。本研究旨在建立可衡量的标准,以识别XAI和DSS的组成部分,从而在SC的背景下增强决策。这项研究评估了对他们做出预测的能力,在线数据集的利用,所检查的变量数量,学习能力的发展以及在决策背景下进行验证的研究,强调了需要在不确定条件下涉及智能决策的其他探索领域的研究领域。
摘要 — 近年来,人工智能 (AI) 极大地改变了人类活动的各个方面,包括文本创作。人工智能技术的进步使计算机能够生成与人类写作非常相似的文本,这引发了人们对错误信息、身份盗窃和安全漏洞的担忧。为了应对这些挑战,了解人工智能生成文本的潜在模式至关重要。本研究侧重于揭示这些模式,以建立区分人工智能生成文本和人类生成文本的道德准则。本研究通过阐明区分人类和机器生成文本的方法,为正在进行的人工智能生成内容讨论做出了贡献。该研究深入研究了音节数、单词长度、句子结构、功能词使用和标点符号比率等参数,以检测人工智能生成的文本。此外,该研究还整合了可解释人工智能 (xAI) 技术——LIME 和 SHAP——以增强机器学习模型预测的可解释性。该模型表现出色,准确率达到 93%。利用 xAI 技术,进一步揭示了 Herdan 的 C、MaaS 和 Simpson 指数等关键属性在分类过程中发挥了主导作用。
我们专注于归纳逻辑程序的问题,该程序可以解释由支持向量机 (SVM) 算法学习到的模型。自上而下的顺序覆盖归纳逻辑程序设计 (ILP) 算法(例如 FOIL)使用信息论中的启发式方法进行爬山搜索。这类算法的主要问题是陷入局部最优。然而,在我们的新方法中,数据依赖型爬山搜索被模型依赖型搜索所取代,其中首先训练全局最优的 SVM 模型,然后算法将支持向量作为模型中最具影响力的数据点,并归纳出一个涵盖支持向量和与该支持向量最相似的点的子句。我们的算法没有定义固定的假设搜索空间,而是利用可解释 AI 中针对特定示例的解释器 SHAP 来确定相关特征集。这种方法产生了一种算法,该算法可以捕捉 SVM 模型的底层逻辑,并且在诱导子句数量和分类评估指标方面优于其他 ILP 算法。本文正在考虑在“逻辑编程理论与实践”杂志上发表。
这项回顾性队列研究使用了香港公共医疗机构的电子健康记录。我们纳入了 18-65 岁无 MACE 的患者,这些患者在首次使用抗精神病药物前三年内曾患过两种或两种以上慢性疾病。研究考虑了基线特征,例如年龄、性别、慢性病史、抗精神病药物使用史和前一年的服药史。结果是主要不良心血管事件 (MACE),包括中风、急性心肌梗死 (AMI) 和心血管相关死亡 (CV 死亡)。根据抗精神病药物处方的初始年份,将数据集按 7:3 的比例随机分为训练和验证子集。使用条件推断生存树 (CISTree) 来识别 MACE 风险组。使用 5 倍交叉验证对十个机器学习模型进行超参数优化训练,并在验证集上进行验证。我们进行了时间依赖性的 ROC 曲线分析、校准图和决策曲线分析图,分别比较模型的判别能力、校准和临床应用价值。使用时间相关变量重要性、部分依赖图和 SHAP 图来解释所选模型。
银行和金融科技贷方越来越多地依靠计算机辅助模型在贷款决策中。传统模型是可以解释的:决策是基于可观察的因素,例如借款人的信用评分是否高于阈值,并且可以用这些因素的组合来解释。相比之下,现代机器学习模型是不透明的且不可解剖的。他们对过去种族歧视的人工制品的不透明和依赖历史数据意味着这些新模型有可能嵌入并加剧这种歧视,即使贷方不打算歧视。我们使用公开可用的HMDA贷款数据和公开可用的Fannie Mae贷款绩效数据来校准两个随机的森林分类器。我们使用两种可解释的人工智能(XAI)模型,即石灰和塑形,以表征哪些功能驱动这些校准的ML贷款模型产生的决策。我们的初步发现表明,当模型访问此类信息时,各种种族因素在模型中的决策过程中产生了重大影响,如接受HMDA数据培训的模型所示。这些结果突出了需要进一步研究以深入了解和解决这些影响的必要性。