许多人工智能系统非常复杂,难以理解。尽管人工智能系统具有解决大量问题的潜力,但由于我们无法理解其结果和推理过程,其应用可能会受到限制。解释的定义将有利于多个群体,其中最突出的是任何人工智能系统做出的预测或建议的接收者。其他群体包括研究人员、人工智能开发人员、系统用户等。我们将所有这些群体统称为接收者,接收者可以是该群体中的任何个人。我们回顾了几位作者所涵盖的解释的重要性。在这里,我们重申 Doshi-Velez 和 Kim(2017)、Samek 等人主要提出的原因。( 2017 ) 和 Lipton ( 2018 )。以下原因说明了解释的重要性:
本研究论文旨在强调世界地理研究中人文主义哲学的含义,解释和历史发展。它显示了人类在各种地理研究中的作用的重要性。人文主义地理主要是由于地理范围内的量化革命而开发的。人文主义者可以看到实证主义和定量地理的缺点,因此他们在人文主义的地理思维和方法的帮助下对其进行了纠正。人类的活动,他的位置和他的思想在地理学中是人文主义的重要和基本事物。实际上人文主义与地理研究非常相关。根据它的支持者,人类的思想,价值观和技能很重要,同时解释了地球上各种地理现象。关键词:人文主义,可能地理,定量革命,环境,领土
摘要:影响个人的人工智能辅助决策提出了关于人工智能透明度和公平性的关键问题。许多研究强调了人工智能辅助决策中透明度/解释和公平性之间的相互关系。因此,同时考虑它们对用户信任或感知公平性的影响有利于负责任地使用社会技术人工智能系统,但目前很少受到关注。在本文中,我们分别研究了人工智能解释和公平性在特定基于人工智能的决策场景中对人类-人工智能信任和感知公平性的影响。一项模拟人工智能辅助决策在两个健康保险和医疗决策场景中的用户研究提供了重要的见解。由于全球大流行及其限制,用户研究以在线调查的形式进行。从参与者的信任角度来看,公平性仅在公平性水平较低的情况下才会影响用户信任,而公平性水平较低会降低用户信任。然而,增加解释有助于用户增加对人工智能辅助决策的信任。从感知公平的角度来看,我们的研究发现,引入低水平的公平性会降低用户的公平性感知,而引入高水平的公平性会提高用户的公平性感知。解释的加入无疑会增加公平性感知。此外,我们发现应用场景会影响信任和公平性感知。结果表明,在人工智能应用中使用人工智能解释和公平性陈述是复杂的:我们不仅需要考虑引入的解释类型和公平性程度,还需要考虑人工智能辅助决策的使用场景。
摘要 研究表明,非专家用户倾向于过度信任或不信任人工智能系统。当人工智能应用于医疗保健时,这引起了人们的担忧,因为患者信任不可靠系统的建议或完全不信任可靠系统的建议可能会导致致命事故或错失医疗保健机会。先前的研究表明,解释可以帮助用户对人工智能系统的信任做出适当的判断,但如何在医疗支持场景中为非专家用户设计人工智能解释界面仍然是一个悬而未决的研究挑战。本文探讨了一个基于阶段的参与式设计过程,以在人工智能医疗支持场景中为非专家开发一个值得信赖的解释界面。值得信赖的解释是一种帮助用户做出深思熟虑的判断,是否信任人工智能系统用于他们的医疗保健的解释。本文的目的是确定可以有效指导可信解释界面设计的解释组件。为了实现这一目标,我们进行了三次数据收集,研究了专家和非专家对人工智能医疗支持系统解释的看法。然后,我们开发了解释的用户心智模型、专家心智模型和目标心智模型,描述了非专家和专家如何理解解释、他们的理解有何不同以及如何将它们结合起来。基于目标心智模型,我们提出了一套 14 条解释设计指南,用于值得信赖的 AI 医疗系统解释,这些指南考虑到了非专家用户的需求、医疗专家的实践和 AI 专家的理解。
....................附录 C - 研究 1 概念框架 325 前实证概念框架 ...................................................................................... 325 概念框架的演变 ................................................................................................................ 327 附录 D - 研究 1 编码数据源 332 附录 E - 研究 1 编码成绩单样本 ............................................................................................. 334 EXP-CONTENT-CONSTRAINTS ...................................................................................................... 334 FAC-CHAMPIONS ...................................................................................................................... 339 附录 F - 研究 2 项目团队 ............................................................................................. 345 附录 G - 研究 2 项目时间表 .............................................................................................M......................346 附录 H - 研究 2 QOC(原始) 347
企业越来越依赖于数据培训的决策规则集(即,通常称为“机器学习”的过程的输出)和几乎没有人类中间体的决策。在本文中,我们为算法决策产生了“解释权。”通常说,在数字时代,知情同意书已死这种负面的观点源于一种严格的理解,即假定知情同意是一项静态而完整的交易。这种观点是不够的,尤其是当数据以次要,非语义和不可预测的方式使用时,这是高级人工智能系统的不可避免的本质。我们认为,对知情同意的另一种观点(作为对不完整交易的信任的保证)允许理解为什么知情同意书的理由已经有权提交后解释的权利。
由于错误信息在社交媒体平台上越来越多,因此探索如何最好地将自动化新闻信誉评估传达给最终用户以及促进事实检查AIS的信任至关重要。在本文中,我们研究了模型 - 不合稳定的自然语言解释如何影响对事实检查AI的信任和依赖。我们从四个概念化验证(CVS)(即共识,专家,内部(逻辑)和经验)中构建解释,它们是证据的基本单位,这些证据是人类利用AndacceptNewinInformation的基础单位具有挑战性的,不同的CVS导致不同程度的依赖。我们发现共识的解释是最不影响的,专家,内部和经验解释的影响是两倍。但是,我们还发现用户无法辨别AI是否将其指向真相,从而强调了指导和潜在误导的解释的双重性质。此外,我们在协作事实检查过程中发现了自动化偏见和厌恶的存在,这表明用户以前建立的对AI的信任如何减轻他们对AI判断的依赖。我们还观察到在传统矫正中经常看到的“ Boomerang”/反向效应的表现,因为那些认为AI是有偏见或不信任的人在受AI挑战时会偏向或加倍(在)上(IN)正确的信念。我们通过在基于AI的事实检查期间对用户行为动态的细微见解得出结论,为社交媒体平台提供重要的课程。
由于错误信息在社交媒体平台上越来越多,因此探索如何最好地将自动化新闻信誉评估传达给最终用户以及促进事实检查AIS的信任至关重要。在本文中,我们研究了模型 - 不合稳定的自然语言解释如何影响对事实检查AI的信任和依赖。我们从四个概念化验证(CVS)(即共识,专家,内部(逻辑)和经验)中构建解释,它们是证据的基本单位,这些证据是人类利用AndacceptNewinInformation的基础单位具有挑战性的,不同的CVS导致不同程度的依赖。我们发现共识的解释是最不影响的,专家,内部和经验解释的影响是两倍。但是,我们还发现用户无法辨别AI是否将其指向真相,从而强调了指导和潜在误导的解释的双重性质。此外,我们在协作事实检查过程中发现了自动化偏见和厌恶的存在,这表明用户以前建立的对AI的信任如何减轻他们对AI判断的依赖。我们还观察到在传统矫正中经常看到的“ Boomerang”/反向效应的表现,因为那些认为AI是有偏见或不信任的人在受AI挑战时会偏向或加倍(在)上(IN)正确的信念。我们通过在基于AI的事实检查期间对用户行为动态的细微见解得出结论,为社交媒体平台提供重要的课程。