详细内容或原文请订阅后点击阅览
新模型减少了偏见并增加了对人工智能决策的信任
滑铁卢大学研究人员开发了一种新的可解释人工智能 (XAI) 模型,以减少偏见并提高基于机器学习的决策和知识管理的信任度和准确性。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)滑铁卢大学研究人员开发了一种新的可解释人工智能 (XAI) 模型,以减少偏见并提高基于机器学习的决策和知识管理的信任度和准确性。
医学是机器学习结果有偏差会产生严重后果的领域之一。医院工作人员和医疗保健提供者依靠包含数千条医疗记录的数据集和复杂的计算机算法来做出有关患者护理的关键决策。机器学习用于对数据进行排序,从而节省时间。然而,某些具有罕见症状的患者群体可能未被发现,错误标记的数据和异常可能会影响诊断结果。这种偏见和令人困惑的模式会导致某些患者群体的误诊和不公平的医疗保健结果。
感谢滑铁卢大学教授 Andrew Wong 博士领导的新研究,该创新模型旨在通过解开数据中的复杂模式,将其与不受异常和影响的特定根本原因联系起来,消除这些障碍。错误标记的数据。这可以增加 XAI 的信任和可靠性。
“这项研究对 XAI 领域做出了重大贡献,”Wong 说,“通过分析使用 X 射线晶体学获得的大量蛋白质结合数据,我的团队发现了氨基酸相互作用的物理化学模式的统计数据。由于多种因素的交织,数据在数据层面被掩盖和扰乱,我们首次证明,可以利用科学证据理清复杂的统计数据,并提供对数据层面缺失的深层知识的真正洞察。”
插图:Unsplash/Steve Johnson