了解人类如何评估可信度是假新闻时代的一个重要科学问题。来源可信度是可信度评估中最重要的方面之一。了解来源可信度的最直接方法之一是测量进行可信度评估的人的大脑活动。本文报告了一项实验的结果,在该实验中,我们使用脑电图测量了可信度评估过程中的大脑活动。在实验中,参与者必须根据准备阶段学习虚构学生的来源可信度,在此期间,他们在完全了解信息可信度的情况下评估信息可信度。该实验可以识别参与者在做出正面或负面的来源可信度评估时活跃的大脑区域。基于实验数据,我们使用 F1 得分超过 0.7 的脑电图大脑活动测量值(使用 10 倍交叉验证)对人类来源可信度评估进行建模和预测。我们还能够对具有完美知识的信息可信度评估进行建模和预测,并比较从单个实验中获得的两个模型。
本文提出了对AI可信度的正式描述,并在操作示意图中连接了内在和感知的可信度。我们认为,可信度超出了AI系统的固有功能,包括观察者的看法,例如感知到的透明度,代理基因座和人类的监督。在文献中讨论了感知到的可信度的概念,但很少有尝试将其与AI系统的内在可信度联系起来。我们的分析引入了一种新颖的示意图,以评估预期和观察到的行为之间的差异以及这些如何影响感知的不确定性和信任,以量化可信度。本文考虑了感知和内在特征,为衡量可信赖性提供了形式化。通过详细说明影响信任的因素,本研究旨在促进更具道德和广泛接受的AI技术,以确保它们符合功能和道德标准。
摘要我们提出,可信赖的解释性接受度量指标,以使用专家在循环中评估AI系统。我们的指标通过量化AI系统产生的解释与专家根据其专业知识和经验提供的推理之间的解释之间的距离来计算接受。我们的指标还评估了专家的信任,使用我们的信任机制包括不同的专家组。我们的指标很容易适应任何可解释的AI系统,并用于可信赖的AI系统的标准化过程。我们使用高识别医学AI的应用说明了拟议的度量,该指标是预测导管癌的原位(DCIS)复发。我们的指标成功地捕获了专家在DCIS复发中AI系统的解释性。
了解人类如何评估信誉是假新闻时代的一个重要科学问题。来源可信度是信誉评估的最重要方面之一。理解来源可信度的最直接方法之一是使用进行可信度评估的人的大脑活动的测量。然而,以前从未使用过这种方法对来源信誉进行过调查。本文报告了一个实验的结果,在此期间,我们使用脑电图评估了源可信度评估期间的大脑活动。实验允许识别当参与者进行正面或负源可信度评估时的大脑区域。基于实验数据,我们使用EEG脑活动测量值对人类来源的可信度评估进行了建模和预测,而F1得分超过0.7(使用10倍跨验证)。
作者:Alice Lunardon 1*、Weronika Patena 1*、Cole Pacini 1、Michelle Warren-Williams 1、Yuliya Zubak 1、Matthew Laudon 2、Carolyn Silflow 2、Paul Lefebvre 2、Martin Jonikas 1,3 1 普林斯顿大学,新泽西州,美国;2 明尼苏达大学,明尼苏达州,美国;3 霍华德休斯医学研究所 * 这些作者贡献相同。摘要。莱茵衣藻(以下简称衣藻)是研究光合作用、纤毛运动和其他细胞过程的有力模式生物 [1–4]。已映射的核随机插入突变体的 CLiP 文库 [5,6] 通过提供目标基因的突变体,加速了数百个实验室在这些领域的进展。然而,由于其对高置信度破坏等位基因的基因组覆盖率有限(46% 的核蛋白编码基因在外显子/内含子中具有 1+ 高置信度等位基因;12% 的基因在外显子/内含子中具有 3+ 等位基因),因此其价值受到限制。我们在此介绍 CLiP2(衣藻文库计划 2)文库,它大大扩展了可用的已映射高置信度插入突变体的数量。CLiP2 文库包含 71,700 个菌株,覆盖 79% 的核蛋白编码基因在外显子/内含子中具有 1+ 高置信度等位基因,以及 49% 的基因在外显子/内含子中具有 3+ 等位基因。社区可通过衣藻资源中心获取突变体。
人工智能和机器学习的进步导致人工智能在各个领域中用于增强或支持人类决策的采用急剧增加。越来越多的研究致力于解决模型可解释性和解释的好处,以帮助最终用户或其他利益相关者解读所谓“黑匣子人工智能系统”的内部工作原理。然而,目前人们对传达解释的方式(例如,文本、可视化或音频)在通知、增强和塑造人类决策方面的作用了解甚少。在我们的工作中,我们通过可信度评估系统的视角来解决这一研究空白。考虑到通过各种渠道获得的大量信息,人们在做出决策时会不断考虑他们所消费信息的可信度。然而,随着信息过载的增加,评估我们所遇到的信息的可信度并非易事。为了帮助用户完成这项任务,自动可信度评估系统已被设计为各种情况下的决策支持系统(例如,,评估新闻或社交媒体帖子的可信度)。但是,为了使这些系统有效地支持用户,它们需要得到信任和理解。事实证明,解释在告知用户对决策支持系统的依赖方面发挥着至关重要的作用。在本文中,我们研究了解释方式对人工智能辅助可信度评估任务的影响。我们使用一项涵盖六种不同解释模式的受试者间实验(N = 375),以评估解释模式对 AI 辅助决策结果准确性、用户对系统信任度以及系统可用性的影响。我们的结果表明,解释在塑造用户对决策支持系统的依赖方面发挥着重要作用,从而影响决策的准确性。我们发现,在有解释的情况下,用户在评估陈述的可信度时表现更准确。我们还发现,在没有解释的情况下,用户很难就陈述的可信度达成一致。如果有解释,文本和音频解释比图形解释更有效。此外,我们发现
招聘信息 信息的可信度是成功招聘工作的基础。为了加强候选人对可信度的感知,招聘经理应考虑三个因素。首先,如果招聘信息提供了一些关于职位空缺的负面信息,例如“需要晚上和周末工作”,则可信度会更高。其次,如果不同来源(例如,未来的主管、同事)对某个职位的评价一致,可信度也会提高。最后,如果一些信息来自组织外部的来源,可信度也会提高。53 例如,第三方网站上的正面评价通常被认为比雇主提供的推荐信更客观。来自外部来源(例如《财富》杂志)的奖项可能被视为判断雇主是否是好工作场所的非常可靠的来源。即使是小型组织也可以竞争奖项,因为通常会有针对小型企业的奖项类别
摘要将电力基础设施转换为智能电网需要能源公用事业来增加消费者的参与。但是,在美国,消费者对公用事业的信任很低,这阻碍了消费者的参与。利用有关企业社会责任和信号理论的文献,我们研究了增加信任的可能策略。我们假设公用事业亲社会,环境和以服务为导向的投资增加了消费者信任,而这种增长反过来又与消费者参与公用事业计划的意愿呈正相关。我们在用于家庭能源管理的智能仪表应用程序的背景下通过在线小插图实验测试我们的假设。我们的结果表明,实用的环境投资对消费者信任具有最强大,最一致的影响,以及公用事业行为对消费者使用该应用程序意愿意愿的影响是由信任介导的。我们的发现有助于组织信任文献,并对寻求增加消费者参与的公用事业具有实际影响。
本论文(主人)是由达特茅斯数字共享的这些论文和论文免费带给您的。已被达特茅斯数字共享的授权管理人纳入达特茅斯学院硕士的论文。有关更多信息,请联系dartmouthdigitalcommons@groups.dartmouth.edu。