人工智能和机器学习的进步导致人工智能在各个领域中用于增强或支持人类决策的采用急剧增加。越来越多的研究致力于解决模型可解释性和解释的好处,以帮助最终用户或其他利益相关者解读所谓“黑匣子人工智能系统”的内部工作原理。然而,目前人们对传达解释的方式(例如,文本、可视化或音频)在通知、增强和塑造人类决策方面的作用了解甚少。在我们的工作中,我们通过可信度评估系统的视角来解决这一研究空白。考虑到通过各种渠道获得的大量信息,人们在做出决策时会不断考虑他们所消费信息的可信度。然而,随着信息过载的增加,评估我们所遇到的信息的可信度并非易事。为了帮助用户完成这项任务,自动可信度评估系统已被设计为各种情况下的决策支持系统(例如,,评估新闻或社交媒体帖子的可信度)。但是,为了使这些系统有效地支持用户,它们需要得到信任和理解。事实证明,解释在告知用户对决策支持系统的依赖方面发挥着至关重要的作用。在本文中,我们研究了解释方式对人工智能辅助可信度评估任务的影响。我们使用一项涵盖六种不同解释模式的受试者间实验(N = 375),以评估解释模式对 AI 辅助决策结果准确性、用户对系统信任度以及系统可用性的影响。我们的结果表明,解释在塑造用户对决策支持系统的依赖方面发挥着重要作用,从而影响决策的准确性。我们发现,在有解释的情况下,用户在评估陈述的可信度时表现更准确。我们还发现,在没有解释的情况下,用户很难就陈述的可信度达成一致。如果有解释,文本和音频解释比图形解释更有效。此外,我们发现
未来的设计工具将由人工智能驱动,这些矛盾需要得到解决。因此,我们需要考虑人工智能如何融入支持知识工作的设计工具(即旨在支持用户创作过程的设计工具),以及人工智能如何激励设计师为用户创造新体验,而不会削弱人们对人工智能驱动系统的信任。虽然之前关于人工智能在用户体验(UX)工具中的作用的研究有些有限,但我们可以从关于人工智能在其他创意环境中的作用的研究中汲取教训。例如,对艺术家与人工智能绘图工具合作的研究表明,创意人员更喜欢一定程度的自主权,并希望“检查”人工智能创作的作品[4]。另一项研究发现,人工智能可以作为新艺术体验的灵感来源。研究人员创建了一个深度神经网络,学会了将艺术风格转移到其他图像上,例如,2016 年开发的一项算法探索将文森特·梵高的《星夜》的风格转移到了一幅鸭子画上。反过来,这种探索又引发了一系列视觉艺术和视频领域的艺术探索 [1]。同样,研究人员训练人工智能模型,使其发挥更客观的“第三只眼睛”的作用,帮助艺术史学家自信地识别和解释艺术作品 [6]。对于创意写作等更复杂的创作过程,辅助创意写作过程的工具已经利用众包工作者作为“自动化器”来产生故事创意,帮助作家畅所欲言 [3]。同样,一个面向视觉艺术家的人工智能绘图工具发现,艺术家愿意将某些琐碎的任务委托给人工智能,但不太愿意让人工智能“驱动”创作过程 [4]。虽然这些现有的作品是人工智能驱动的系统或创意写作方面的准系统如何补充现有创作实践的例子,但用户体验设计师如何看待旨在支持其创作过程的人工智能驱动工具仍不得而知。随着我们越来越多地了解将自动化引入设计过程的机会,我们已经开始发现人工智能对设计师有帮助的用例。我们将自己定位为人工智能的倡导者,通过自动化繁琐的任务和/或作为用户创作过程的助手提供灵感来支持设计师。我们的研究结果支持这一观点,即自动化必须向用户解释;即设计师应该能够发现哪些操作会影响设计工具中人工智能驱动的体验,并且应该能够审查人工智能系统产生的工作[5]。虽然这些想法正在兴起,但人们对人工智能的信任这一一般概念已被探索为用户接受人工智能驱动系统的关键[2]。
结直肠癌 (CRC) 是全球第二大癌症死亡原因 [1]。为了降低 CRC 相关死亡率,高危人群应接受分层的两阶段筛查流程,包括 (1) 免疫化学粪便潜血检测 (FOBT) 筛查和 (2) 后续结肠镜检查,以发现疾病的早期迹象。尽管事实证明这种黄金标准方法可以降低 CRC 相关死亡率,但其有效性取决于达到 65-80% 以上的筛查覆盖率,而一些高收入国家未能实现这一目标 [2]。例如,在澳大利亚,参与率在过去 5 年中一直稳定在 ~40%,FOBT 阳性患者参与后续结肠镜检查的比例也很低(50 – 70%) [3]。令人担忧的是,CRC 风险最高的边缘群体参与筛查的次数最少。尽管人们努力通过 (a) 大众媒体公共卫生运动、(b) 有针对性的支持计划和 (c) 初级保健参与和卫生系统改进来提高认识,但情况仍然如此 [4]。一些定性研究表明,CRC 筛查的采用和坚持往往受到复杂的心理社会和文化互动的驱动。最重要的是,据报道,与阳性癌症诊断或结肠镜检查的侵入性相关的恐惧、焦虑、耻辱、羞耻或不安是阻碍筛查参与的主要障碍 [4,5]。当存在多因素障碍时,例如时间紧迫或无法进入医疗中心,参与问题会加剧。
美国社区每年都会遭遇自然和人为灾害。灾害是指灾害严重破坏社区的运作能力。每年,严重的风暴、飓风、风暴潮、龙卷风、野火、地震、冰雪和人为破坏都会导致总统多次宣布灾害,造成数十亿美元的损失。尽管科学技术在减灾方面的应用取得了重大进展,但社区仍然面临着灾难准备、响应和恢复方面的挑战。每年因自然和人为灾害而丧生的人数呈下降趋势,但重大灾害造成的损失却不断上升,部分原因是基础设施的风险价值不断增加。在应对持续性灾害时,依赖响应和重建策略是不切实际且低效的。相反,社区必须通过增强其抗灾能力来打破这种循环。高优先级的科学技术投资,加上国家、地区和地方各级的合理决策,将增强社区的恢复力并降低脆弱性。
引文:Wong JK、Deuschl G、Wolke R、Bergman H、Muthuraman M、Groppa S、Sheth SA、Bronte-Stewart HM、Wilkins KB、Petrucci MN、Lambert E、Kehnemouyi Y、Starr PA、Little S、Anso J、Gilron R、Poree L、Kalamangalam GP、Worrell GA、Miller KJ、Schiff ND、Butson CR、Henderson JM、Judy JW、Ramirez-Zamora A、Foote KD、Silburn PA、Li L、Oyama G、Kamo H、Sekimoto S、Hattori N、Giordano JJ、DiEuliis D、Shook JR、Doughtery DD、Widge AS、Mayberg HS、Cha J、Choi K、Heisig S、Obatusin M、Opri E、Kaufman SB、Shirvalkar P、Rozell CJ, Alagapan S、Raike RS、Bokil H、Green D 和 Okun MS (2022) 第九届深部脑刺激智库会议论文集:尖端技术、人工智能、神经调节、神经伦理学、疼痛、介入精神病学、癫痫和创伤性脑损伤的进展。Front. Hum. Neurosci. 16:813387。doi:10.3389/fnhum.2022.813387
摘要。随着组织推动基于人工智能 (AI) 的技术的开发和部署,他们对道德和人文价值观的承诺对于最大限度地降低潜在风险至关重要。在这里,我们研究人才吸引力作为组织致力于道德 AI 的经济激励。基于企业社会责任 (CSR) 文献和信号理论,我们提出了一种混合方法研究设计,以研究道德 AI 承诺对组织吸引力的影响。具体而言,我们 i) 根据对公司网站和专家访谈的审查确定道德 AI 承诺的信号,ii) 在在线实验中检查选定信号对组织吸引力的影响。这篇短文介绍了道德 AI 信号的初步结果并详细介绍了后续步骤。我们的研究将有助于将道德 AI 作为 CSR 的一部分进行理论概念化,并在权衡对道德 AI 计划的投资时支持数字化转型流程的经理。
从演示和成对偏好推断奖励函数是将强化学习 (RL) 代理与人类意图相结合的良好方法。然而,最先进的方法通常专注于学习单一奖励模型,因此很难权衡来自多位专家的不同奖励函数。我们提出了多目标强化主动学习 (MORAL),这是一种将社会规范的不同演示组合成帕累托最优策略的新方法。通过维持标量权重的分布,我们的方法能够以交互方式调整深度 RL 代理以适应各种偏好,同时无需计算多个策略。我们在两种场景中通过实证证明了 MORAL 的有效性,这两种场景模拟了交付和紧急任务,需要代理在存在规范冲突的情况下采取行动。总的来说,我们认为我们的研究是朝着具有学习奖励的多目标 RL 迈出的一步,弥合了当前奖励学习和机器伦理文献之间的差距。
通过成人大脑视网膜定位映射评估新一代可穿戴高密度弥散光学断层扫描 (HD-DOT) 技术 Ernesto E. Vidal-Rosas a、Hubin Zhao a,b、Reuben Nixon-Hill c,d、Greg Smith c、Luke Dunne d、Samuel Powell c,e、Robert J. Cooper a 和 Nicholas L. Everdell ca DOT-HUB,BORL,伦敦大学学院医学物理和生物医学工程系,伦敦,WC1E 6BT,英国 b 格拉斯哥大学詹姆斯瓦特工程学院,格拉斯哥,G12 8QQ,英国 c Gowerlabs Ltd.,伦敦,英国 d 伦敦帝国理工学院数学系,伦敦,SW7 2BU,英国 e 诺丁汉大学电气与电子工程系,诺丁汉,NG7 2RD,英国 ernesto.vidal@ucl.ac.uk摘要:我们通过复制一系列经典的视觉刺激范例研究了新型 HD-DOT 系统的性能。血液动力学反应函数和皮质激活图复制了使用更大的基于光纤的系统获得的结果。1. 简介
相当抽象,无法用于指导如何设计以及设计什么。最近的研究 [4] 开始研究设计模式来指导详细的用户界面设计。除了以用户为中心的设计 (UCD) 流程之外,还提出了用于设计透明人工智能系统的总体设计方法 [5]。在本文中,我们回顾了现有的设计方法研究,以指导设计师设计负责任且合乎道德的人工智能系统和用户界面。然后,我们提出了一种新方法,即共同设计公平人工智能交互 (CoFAIR),该方法包括一系列共同设计研讨会,然后进行更广泛的评估,以创建合适的用户界面,使其能够通过目标用户群体探索公平性。我们通过案例研究展示了该方法的应用。我们讨论了我们方法的局限性,以及如何将这种方法推广到合乎道德和负责任的人工智能系统的设计。