新产品与以前的版本有以下几点不同:1.它们不提供印刷版地图。相反,PDF 版本已放在 NPWS 网站 (npws.nsw.gov.au) 上供免费下载。这些地图也包含在 CD 中,可通过填写并转发申请表和数据许可协议进行购买。2.附加 API 增加了研究区域西北部分的地图覆盖范围。3.改进的建模导致添加了以前未识别的植被区域(例如在 Scheyville 地区)。4.这些地图包括研究区域内的非坎伯兰平原社区,以帮助用户识别所有现有植被。5.地图上不同状况的植被显示已更改,以更准确地反映数据能够可靠检测到的差异。6.与 2000 年 1 月版中的等效统计数据相比,植被群落的重新建模和额外的 API 导致本报告中提供的统计数据发生变化。7.这些解释指南讨论了上述变化,并包括非坎伯兰平原群落的社区描述和诊断物种列表,再次帮助用户识别植被。这些指南通过解释项目中使用的不同代码和类别来帮助理解地图。如果要完全理解地图,这是一份必不可少的文件。8.已发布的 CD 包含以下信息: • 植被地图 • 植被地图解释指南 • 几种不同地理信息系统 (GIS) 格式的植被数据层。这些使用户能够创建特定区域的地图,并允许对数据进行统计分析。数据层现在被理事会和企业广泛用于辅助决策。• 显示残余物保护意义的地图。• 描述如何得出保护意义的规则集 • 保护意义数据层 • 濒危生态群落概况。
人工智能和机器学习的进步导致人工智能在各个领域中用于增强或支持人类决策的采用急剧增加。越来越多的研究致力于解决模型可解释性和解释的好处,以帮助最终用户或其他利益相关者解读所谓“黑匣子人工智能系统”的内部工作原理。然而,目前人们对传达解释的方式(例如,文本、可视化或音频)在通知、增强和塑造人类决策方面的作用了解甚少。在我们的工作中,我们通过可信度评估系统的视角来解决这一研究空白。考虑到通过各种渠道获得的大量信息,人们在做出决策时会不断考虑他们所消费信息的可信度。然而,随着信息过载的增加,评估我们所遇到的信息的可信度并非易事。为了帮助用户完成这项任务,自动可信度评估系统已被设计为各种情况下的决策支持系统(例如,,评估新闻或社交媒体帖子的可信度)。但是,为了使这些系统有效地支持用户,它们需要得到信任和理解。事实证明,解释在告知用户对决策支持系统的依赖方面发挥着至关重要的作用。在本文中,我们研究了解释方式对人工智能辅助可信度评估任务的影响。我们使用一项涵盖六种不同解释模式的受试者间实验(N = 375),以评估解释模式对 AI 辅助决策结果准确性、用户对系统信任度以及系统可用性的影响。我们的结果表明,解释在塑造用户对决策支持系统的依赖方面发挥着重要作用,从而影响决策的准确性。我们发现,在有解释的情况下,用户在评估陈述的可信度时表现更准确。我们还发现,在没有解释的情况下,用户很难就陈述的可信度达成一致。如果有解释,文本和音频解释比图形解释更有效。此外,我们发现
工业 4.0 将为我们的社会带来深刻的变化,包括制造业的数字化转型。目前,许多制造公司正试图在其整个供应链中采用工业 4.0 的实践。第四次工业革命及其核心的人工智能正在从根本上改变我们作为公民的生活、工作和互动方式。这种转变的复杂性可能看起来势不可挡,对许多人来说也是一种威胁。最近,新一代信息技术的迅猛发展促使一些国家寻求新的工业革命战略。全球化和竞争迫使企业重新思考和创新其生产流程,遵循所谓的工业 4.0 范式。它代表了过去已经使用的工具(大数据、云、机器人、3D 打印、模拟等)的集成,这些工具现在通过传输数字数据连接到全球网络中。制造过程的数字化和智能化是当今工业的需要。制造业目前正在从大规模生产转向定制化生产。制造技术和工业应用的快速发展有助于提高生产力。工业 4.0 代表第四次工业革命,被定义为对产品生命周期整个价值链的组织和控制的新水平;它面向日益个性化的客户要求。工业 4.0 仍然是一个空想,但却是一个现实的概念,其中包括物联网、工业互联网、智能制造和基于云的制造。工业 4.0 涉及将人严格融入制造过程,以便不断改进并专注于增值活动并避免浪费。这项工作的目的是概述工业 4.0 并了解工业 4.0 的支柱及其应用,确定实施工业 4.0 时出现的挑战和问题,并通过使用灵活的智能方法研究与人工智能相关的工业 4.0 的新趋势和潮流。基于智能和灵活的人工智能方法以及过程工业中复杂的安全关系,我们确定并讨论了与过程安全相关的几个技术挑战:过程安全标签稀缺的知识获取;基于知识的过程安全推理;来自各种来源的异构数据的准确融合;以及动态风险评估和辅助决策的有效学习。
在设计和部署嵌入式人工智能系统时,信任已成为首要考虑因素,其他以人为本的人工智能价值观包括可解释性、透明度和公平性。然而,由于这些术语的多面性和多学科性,它们可能具有各种依赖于上下文的含义。因此,将这些价值观转化为设计可能是一个挑战 [6]。信任也不例外。了解人机信任是什么以及哪些因素会影响它,主要来自于受控的实验室实验或对嵌入式人工智能系统原型的研究 [3, 7]。然而,人们对在现实世界的人工智能产品和服务的开发和部署中如何解决人机信任问题知之甚少。人工智能从业者,即参与该领域系统设计和部署不同方面的人,其角色从人工智能开发人员到项目经理和政策制定者,可以阐明人机信任的作用以及在现实组织环境中考虑的人机信任因素。他们的见解可以更好地详细说明不同利益相关者在人机信任方面的需求、挑战和经验。在这篇未完成的论文中,我们研究了在开发和部署真实 AI 系统时如何解决人机信任问题。我们对在各种风险敏感环境(金融、法律、管理)中开发和部署嵌入式 AI 决策支持系统的 AI 从业者进行了一系列采访。我们特别关注这些系统,因为人类对 AI 的信任对它们尤其重要,因为它们具有潜在的社会影响。这些采访是一个更大的项目的一部分,该项目围绕 AI 从业者的人机信任经验,但在本工作论文中,我们报告了前 5 位受访者的初步调查结果(见表 1)。具体来说,我们对参与者对人机信任在其实践中的作用以及在 AI 辅助决策背景下建立信任时要考虑哪些因素的问题的回答进行了初步分析。为了进行结果分析,两名独立审阅者至少阅读了两次所有访谈,并按照主题分析方法 [1] 独立识别了兴趣短语和代码。他们一起比较并最终确定了所选短语的列表,并对代码的表述进行了微调。通过对代码进行分组,审阅者确定了三个主要主题:1)人与人工智能之间的信任在开发和设计嵌入人工智能的决策支持系统中的作用,2)人与人工智能之间的信任在人工智能从业者的工作中的重要性,以及 3)人工智能从业者认为哪些因素有助于建立对其系统的信任。
[1] Gagan Bansal、Tongshuang Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Tulio Ribeiro 和 Daniel Weld。2021 年。整体是否超过部分?人工智能解释对互补团队绩效的影响。在 2021 年 CHI 计算机系统人为因素会议论文集。1-16。[2] Zana Buçinca、Maja Barbara Malaya 和 Krzysztof Z Gajos。2021 年。信任还是思考:认知强制函数可以减少人工智能辅助决策对人工智能的过度依赖。ACM 人机交互论文集 5,CSCW1 (2021),1-21。[3] Adrian Bussone、Simone Stumpf 和 Dympna O'Sullivan。 2015.对临床决策支持系统中信任和依赖的解释的作用。 2015年医疗信息学国际会议。 160–169。 [4] Arjun Chandrasekaran、Viraj Prabhu、Deshraj Yadav、Prithvijit Chattopadhyay 和 Devi Parikh。 2018.解释是否能让 VQA 模型对人类来说更具可预测性?在 EMNLP 中。 [5] Muhammad EH Chowdhury、Tawsifur Rahman、Amith Khandakar、Rashid Mazhar、Muhammad Abdul Kadir、Zaid Bin Mahbub、Khandakar Reajul Islam、Muhammad Salman Khan、Atif Iqbal、Nasser Al Emadi 等。 2020.人工智能可以帮助筛查病毒和COVID-19肺炎吗? IEEE Access 8 (2020),132665–132676。[6] Berkeley J Dietvorst、Joseph P Simmons 和 Cade Massey。2015 年。算法厌恶:人们在看到算法错误后会错误地避开它们。《实验心理学杂志:综合》144,1 (2015),114。[7] Mary T Dzindolet、Scott A Peterson、Regina A Pomranky、Linda G Pierce 和 Hall P Beck。2003 年。信任在自动化依赖中的作用。《国际人机研究杂志》58,6 (2003),697–718。[8] Ana Valeria Gonzalez、Gagan Bansal、Angela Fan、Robin Jia、Yashar Mehdad 和 Srinivasan Iyer。2020 年。人类对开放域问答的口头与视觉解释的评估。 arXiv preprint arXiv:2012.15075 (2020)。[9] Patrick Hemmer、Max Schemmer、Michael Vössing 和 Niklas Kühl。2021 年。混合智能系统中的人机互补性:结构化文献综述。PACIS 2021 论文集 (2021)。[10] Robert R Hoffman、Shane T Mueller、Gary Klein 和 Jordan Litman。2018 年。可解释人工智能的指标:挑战与前景。arXiv preprint arXiv:1812.04608 (2018)。
医疗保健中的人工智能 Keng Siau siauk@mst.edu;Linrui Han lhvpc@mst.edu;Ru Lian rlnbw@mst.edu;Yitian Luo ylcb5@mst.edu;Zhihui Ruan zrr8p@mst.edu 我们生活在信息时代。人工智能 (AI) 和大数据极大地影响了我们的日常生活。近年来,医疗保健行业受益于技术的快速发展 (Siau & Shen, 2002, 2006)。人工智能技术也已应用于医疗保健的许多领域,例如临床实践、支持医院工作和疾病预防 (Wang & Siau, 2019; Stephanidis, 2019)。例如,临床决策支持系统 (CDSS) 可以通过多种方式协助医疗保健,包括诊断、治疗 (Lysaght、Lim、Xafis 和 Ngiam,2019 年)、警报系统、处方和药物控制 (Sutton 等人,2020 年)。此外,还开发了一些基于人工智能的机器人来执行常规任务,以支持医院专业人员 (Blechar 和 Zalewska,2019 年)。但在医疗保健中使用人工智能仍面临许多挑战。例如,道德挑战、隐私挑战以及无法解释的人工智能(即黑匣子)的问题 (Siau 和 Wang,2020 年)。这些挑战影响信任建立。本研究将研究人工智能在医疗保健行业的应用,并确定由道德和隐私挑战引起的问题。研究涉及访谈和调查。将进行定性案例研究,以研究如何在医疗保健行业中使用 AI 并提高医疗保健专业人员的工作效率。将对在医疗保健领域实施 AI 技术的 IT 和医疗保健公司的高管进行访谈。将使用调查对定性数据进行三角测量。研究 AI 在医疗保健中的应用对医疗保健行业至关重要,尤其是在我们正面临 COVID-19 造成的严重大流行的时候。这项研究的结果将使学者和专业人士受益。参考文献 Blechar, L., & Zalewska, P. (2019).机器人在改善护士工作中的作用。Pielegniarstwo XXI Wieku / Nursing in the 21st Century, 18(3), 174-182。Lysaght, T., Lim, H. Y., Xafis, V., & Ngiam, K. Y.(2019)。医疗保健中的人工智能辅助决策。亚洲生物伦理评论,11(3),299-314。Siau, K. & Shen, Z.(2002)。供应链管理中的移动商务应用。互联网商务杂志,1(3),3-14。Siau, K. & Shen, Z.(2006)。移动医疗信息学。医学信息学和医学互联网,31(2),89-99。Siau, K. & Wang, W. (2020)。人工智能 (AI) 伦理:AI 伦理和道德 AI。数据库管理杂志,31(2),74-87。Stephanidis, C. 等人。(2019)。七大 HCI 挑战。国际人机交互杂志 35(14),1229-1269。Sutton, R. T.、Pincock, D.、Baumgart, D. C.、Sadowski, D. C.、Fedorak, R. N. 和 Kroeker, K. I.(2020)。临床决策支持系统概述:优势、风险和成功策略。Npj Digital Medicine,3(1)。Wang, W. 和 Siau, K. (2019)。人工智能、机器学习、自动化、机器人、工作的未来和人类的未来——回顾和研究议程。数据库管理杂志,30(1),61-79。
[1] Gagan Bansal、Besmira Nushi、Ece Kamar、Dan Weld、Walter Lasecki 和 Eric Horvitz。2019 年。人机协作团队向后兼容的案例。ICML 人机协作学习研讨会 (2019)。[2] Gagan Bansal、Tongshuang Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Tulio Ribeiro 和 Daniel Weld。2021 年。整体是否超过部分?人工智能解释对互补团队绩效的影响。在 CHI 计算机系统人为因素会议论文集上。1-16。 [3] Umang Bhatt、Javier Antorán、Yunfeng Zhang、Q Vera Liao、Prasanna Sattigeri、Riccardo Fogliato、Gabrielle Gauthier Melançon、Ranganath Krishnan、Jason Stanley、Omesh Tickoo 等人。2020 年。不确定性作为透明度的一种形式:测量、传达和使用不确定性。arXiv 预印本 arXiv:2011.07586 (2020)。[4] Zana Buçinca、Maja Barbara Malaya 和 Krzysztof Z Gajos。2021 年。信任还是思考:认知强制函数可以减少人工智能辅助决策对人工智能的过度依赖。ACM 人机交互论文集 5,CSCW1 (2021),1-21。 [5] Rich Caruana、Yin Lou、Johannes Gehrke、Paul Koch、Marc Sturm 和 Noemie Elhadad。2015 年。医疗保健的可理解模型:预测肺炎风险和 30 天内住院率。第 21 届 ACM SIGKDD 国际知识发现和数据挖掘会议论文集。1721–1730。[6] R Dennis Cook。1986 年。局部影响力评估。皇家统计学会杂志:B 系列(方法论)48,2(1986 年),133–155。[7] Maria De-Arteaga、Artur Dubrawski 和 Alexandra Chouldechova。2021 年。利用专家一致性改进算法决策支持。arXiv 预印本 arXiv:2101.09648(2021 年)。 [8] Maria De-Arteaga、Riccardo Fogliato 和 Alexandra Chouldechova。2020 年。《人机交互案例:在存在错误算法评分的情况下做出决策》。2020 年 CHI 计算机系统人为因素会议论文集。1-12。[9] Berkeley J Dietvorst、Joseph P Simmons 和 Cade Massey。2015 年。《算法厌恶:人们在发现算法错误后会错误地避开算法》。《实验心理学杂志:综合》144, 1 (2015),114。[10] Kelwin Fernandes、Jaime S Cardoso 和 Jessica Fernandes。2017 年。《具有部分可观测性的迁移学习应用于宫颈癌筛查》。《伊比利亚模式识别与图像分析会议》。Springer,243-250。 [11] Yarin Gal 和 Zoubin Ghahramani。2016 年。Dropout 作为贝叶斯近似:表示深度学习中的模型不确定性。在国际机器学习会议 (ICML) 中。1050–1059。[12] Ruijiang Gao、Maytal Saar-Tsechansky、Maria De-Arteaga、Ligong Han、Min Kyung Lee 和 Matthew Lease。2021 年。通过 Bandit 反馈实现人机协作。IJCAI (2021)。[13] Pang Wei Koh 和 Percy Liang。2017 年。通过影响函数理解黑盒预测。在第 34 届国际机器学习会议论文集-第 70 卷中。JMLR。org,1885–1894 年。[14] Himabindu Lakkaraju、Jon Kleinberg、Jure Leskovec、Jens Ludwig 和 Sendhil Mullainathan。2017 年。选择性标签问题:在存在不可观测因素的情况下评估算法预测。第 23 届 ACM SIGKDD 国际知识发现与数据挖掘会议论文集。ACM,275–284。
