青少年的发展正在发生变化,社会参与的概念本身也在发生变化,因为 K-12 学校系统中越来越多的学生通过屏幕中介、交互式媒体、算法驱动的营销和始终联网的智能手机与几乎所有事物进行互动。根据 Rogers (2019) 的报告,青少年平均每天使用电脑超过 7 小时。O'Brien (2008) 问道:“如果这种虚构的技术使用成为常态会怎样?”(第 383 页)。十二年后,它成为了常态。这一统计数据似乎没有下降,反而呈上升趋势(Fitzpatrick 等人,2020 年;Perry,2017 年;Rogers,2019 年),并且随着 2020 年强制实施的“社交距离”协议改变社会(见 Lichfield,2020 年),这一趋势进一步加速。Leeb 等人讨论了社交距离协议。 (2010),并且随着学校的适应,具有法律和社会重要性。
在2016年,血小板生物发生获得了150万阶段的小型企业创新研究(SBIR)赠款,该研究获得了国家心脏肺和血液研究所的赠款,使他们能够验证人源化小鼠中血小板的安全性和质量。同年,他们通过NIH商业化准备计划获得了资金,以开发一种专有方法来生产人类血小板,这是产品商业化的关键一步。然后在2017年,该公司获得了I期SBIR赠款,以研究其血小板如何帮助核灾难的受害者,从而防止骨髓产生血小板和其他血细胞。THON和他的同事们还认识到在核灾难中储存血小板的必要性,否则供应可能会下降,但需要跳跃。
[1] Gagan Bansal、Tongshuang Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Tulio Ribeiro 和 Daniel Weld。2021 年。整体是否超过部分?人工智能解释对互补团队绩效的影响。在 2021 年 CHI 计算机系统人为因素会议论文集。1-16。[2] Zana Buçinca、Maja Barbara Malaya 和 Krzysztof Z Gajos。2021 年。信任还是思考:认知强制函数可以减少人工智能辅助决策对人工智能的过度依赖。ACM 人机交互论文集 5,CSCW1 (2021),1-21。[3] Adrian Bussone、Simone Stumpf 和 Dympna O'Sullivan。 2015.对临床决策支持系统中信任和依赖的解释的作用。 2015年医疗信息学国际会议。 160–169。 [4] Arjun Chandrasekaran、Viraj Prabhu、Deshraj Yadav、Prithvijit Chattopadhyay 和 Devi Parikh。 2018.解释是否能让 VQA 模型对人类来说更具可预测性?在 EMNLP 中。 [5] Muhammad EH Chowdhury、Tawsifur Rahman、Amith Khandakar、Rashid Mazhar、Muhammad Abdul Kadir、Zaid Bin Mahbub、Khandakar Reajul Islam、Muhammad Salman Khan、Atif Iqbal、Nasser Al Emadi 等。 2020.人工智能可以帮助筛查病毒和COVID-19肺炎吗? IEEE Access 8 (2020),132665–132676。[6] Berkeley J Dietvorst、Joseph P Simmons 和 Cade Massey。2015 年。算法厌恶:人们在看到算法错误后会错误地避开它们。《实验心理学杂志:综合》144,1 (2015),114。[7] Mary T Dzindolet、Scott A Peterson、Regina A Pomranky、Linda G Pierce 和 Hall P Beck。2003 年。信任在自动化依赖中的作用。《国际人机研究杂志》58,6 (2003),697–718。[8] Ana Valeria Gonzalez、Gagan Bansal、Angela Fan、Robin Jia、Yashar Mehdad 和 Srinivasan Iyer。2020 年。人类对开放域问答的口头与视觉解释的评估。 arXiv preprint arXiv:2012.15075 (2020)。[9] Patrick Hemmer、Max Schemmer、Michael Vössing 和 Niklas Kühl。2021 年。混合智能系统中的人机互补性:结构化文献综述。PACIS 2021 论文集 (2021)。[10] Robert R Hoffman、Shane T Mueller、Gary Klein 和 Jordan Litman。2018 年。可解释人工智能的指标:挑战与前景。arXiv preprint arXiv:1812.04608 (2018)。
随着人工智能技术与人类决策过程的融合日益紧密,对人工智能模型的对抗性攻击成为比以往任何时候都更令人担忧的问题,因为它们可能会严重损害人类对人工智能模型的信任,降低人机协作的有效性。虽然已经提出了许多对抗性攻击方法来降低人工智能模型的性能,但人们很少关注这些攻击将如何影响与模型交互的人类决策者,以及如何战略性地部署对抗性攻击以最大限度地减少人类的信任和依赖。在本文中,通过一项以人为对象的实验,我们首先表明,在人工智能辅助决策中,攻击的时机在很大程度上影响了人类对人工智能的信任和依赖的降低程度——当攻击发生在人类高度自信的决策任务上时,这种降低尤为明显。基于这些见解,我们接下来提出了一个算法框架来推断人类决策者对人工智能模型的隐藏信任,并动态决定攻击者何时应该对模型发起攻击。我们的评估表明,按照所提出的方法,攻击者可以部署更有效的攻击,并获得比采用其他基线策略更高的效用。
用户和机器学习专家的整合是艺术智能文献中广泛研究的主题。同样,人类计算机相互作用研究广泛探讨了影响AI作为决策支持系统的因素。在这项实验研究中,我们调查了用户对专家在此类系统开发中整合的偏好,以及这如何影响他们对这些系统的依赖。具体来说,我们专注于特征选择的过程,这是由于机器学习模型对透明度的不断增长而变得重要的元素。我们区分了三种特征选择方法:基于算法,基于专家的方法和一种组合方法。在第一次治疗中,我们分析了用户对这些方法的偏爱。在第二次治疗中,我们将用户随机分配给三种方法之一,并分析该方法是否影响建议依赖。用户预先使用合并的方法,然后是基于专家的和基于算法的方法。但是,第二种处理中的用户同样依赖于所有方法。因此,我们发现所陈述的偏好和实际用法之间存在显着差异,从而揭示了态度 - 行为差距。允许用户选择自己的首选方法没有效果,偏好和依赖程度是特定的。这些发现强调了理解AI支持决策中认知过程的重要性,以及在人类互动中进行行为实验的需求。
可解释人工智能 (XAI) 方法用于为机器学习和人工智能模型带来透明度,从而改善最终用户的决策过程。虽然这些方法旨在提高人类的理解力和心理模型,但认知偏见仍然会以系统设计者无法预料的方式影响用户的心理模型和决策。本文介绍了智能系统中由于排序效应而导致的认知偏见的研究。我们进行了一项受控用户研究,以了解观察系统弱点和优势的顺序如何影响用户的心理模型、任务绩效和对智能系统的依赖,并研究解释在解决这种偏见中的作用。使用烹饪领域的可解释视频活动识别工具,我们要求参与者验证是否遵循了一组厨房政策,每项政策都侧重于弱点或优势。我们控制了策略的顺序和解释的存在来检验我们的假设。我们的主要发现表明,那些早期观察到系统优势的人更容易受到自动化偏见的影响,并且由于对系统的第一印象是积极的,所以犯了更多错误,同时他们建立了更准确的系统能力心理模型。另一方面,那些较早发现弱点的人犯的错误明显较少,因为他们倾向于更多地依赖自己,同时他们也低估了模型能力,因为他们对模型的第一印象更为负面。我们的工作提出了强有力的发现,旨在让智能系统设计师在设计此类工具时意识到这种偏见。
本文探讨了在人工智能辅助伦理决策的背景下,人类与人工智能之间的价值观相似性对人类依赖的影响。以肾脏分配为例,我们进行了一项随机的人类受试者实验,其中工人在各种条件下面临道德困境,包括没有人工智能建议、来自类似人工智能的建议和来自不同人工智能的建议。我们发现,不同人工智能提供的建议对人类决策的总体影响高于来自类似人工智能的建议。然而,当人类和人工智能意见不一致时,参与者在获得类似人工智能的建议时更有可能改变他们的决定。这种影响不是由于人类对人工智能的看法相似,而是由于人工智能通过其建议表现出相似的道德价值观。我们还对价值观相似性和信任之间的关系以及人口层面的道德偏好的潜在转变进行了初步分析。
人工智能系统越来越多地被用于支持人类决策。适当地遵循人工智能建议非常重要。然而,根据现有文献,用户通常对人工智能系统的依赖程度过低或过高,这导致团队绩效不佳。在这种情况下,我们通过对比贷款预测任务中系统信息的缺乏与系统准确性的存在来研究所述系统准确性的作用。我们通过调查数字能力水平并借助类比来解释系统准确性,探索人类理解系统准确性的程度如何影响他们对人工智能系统的依赖,这是一项首创的受试者间研究 (𝑁 = 281)。我们发现,用类比来解释系统的所述准确性并不能帮助用户适当地依赖人工智能系统(即,用户倾向于在系统正确时依赖系统,否则依赖自己)。为了消除对类比领域的主观态度的影响,我们进行了一项受试者内研究(𝑁 = 248),其中每个参与者都从事来自不同领域的基于类比的解释的任务。第二项研究的结果证实,用类比来解释系统的准确性不足以促进在贷款预测任务中对人工智能系统的适当依赖,无论个人用户有何差异。根据我们从这两项研究中得出的结论,我们推断,对人工智能系统的依赖不足可能是由于用户高估了自己解决给定任务的能力。因此,尽管熟悉的类比可以有效地提高系统所述准确性的可理解性,但对系统准确性的更好理解并不一定会导致系统依赖性和团队绩效的提高。
𝑪𝑪 临界点矩阵 𝑛𝑛 !具有 𝑖𝑖 级需求的公司数量 𝐶𝐶 “# 太阳能光伏系统容量(MW) 𝜂𝜂 $ 存储充电效率 𝐶𝐶 “#%&' 最大太阳能光伏系统容量(MW) 𝜂𝜂 (存储放电效率 𝐶𝐶 )存储系统容量(MWh) 𝑛𝑛 “# 太阳能光伏系统寿命(年) 𝐷𝐷 电力需求(MW) 𝑛𝑛 * 存储系统寿命(年) 𝐷𝐷 ! 𝑖𝑖 级电力需求(MW) 𝑁𝑁 公司总数 𝐷𝐷𝐷𝐷𝐷𝐷 放电深度(%) 𝑂𝑂 “# 太阳能光伏系统 O&M 成本(EUR/MW/年) 𝐸𝐸 存储系统规模 (MWh) 𝑂𝑂 * 存储系统 O&M 成本 (EUR/MWh/年) 𝑓𝑓 !类别 𝑖𝑖 校正系数 𝑃𝑃 + 电力批发价 (EUR/MWh) 𝐹𝐹 太阳能发电容量系数 (MW/MW) 𝑟𝑟 折扣率 (%) 𝐺𝐺 太阳能发电量 (MW) 𝑆𝑆 存储水平 (MWh) 𝐼𝐼 "# 太阳能光伏系统安装成本 (EUR/MW) 𝑆𝑆 ,-&. 实际存储水平 (MWh) 𝐼𝐼 * 存储系统安装成本 (EUR/MWh) 𝑆𝑆 )/)0&!1 可持续起始存储水平 (MWh) 𝑳𝑳 下三角矩阵 𝑡𝑡 时间 (小时) 𝐿𝐿𝐿𝐿𝐿𝐿𝐿𝐿 平准化电力成本(EUR/MWh) 𝛥𝛥𝛥𝛥𝛥 时间步长(小时)𝑴𝑴 差异矩阵𝑡𝑡 1 在第 n 个临界存储级别(小时)𝑚𝑚 ! 𝑖𝑖 级电表数量𝑇𝑇 时间范围(小时)𝑀𝑀 电表总数