摘要 — 对人工智能的主要批评之一是其缺乏可解释性。许多批评者声称,如果不知道人工智能如何得出结果或得出给定的结论,就不可能相信其结果。当基于人工智能的系统和应用程序无法成功执行任务时,这个问题尤其令人担忧。在本期特刊社论中,我们重点关注两个主要领域,可解释的人工智能 (XAI) 和准确性,以及这两个维度对于构建可信赖的系统至关重要。我们回顾了突出的 XAI 设计主题,从而重新构建了设计和开发工作,突出了人类的重要性,从而证明了以人为本的人工智能 (HCAI) 的重要性。HCAI 方法提倡一系列深思熟虑的设计相关决策,例如与多利益相关者参与和消除学科界限有关的决策。这使得人们能够考虑和整合深度跨学科知识,正如我们在人工智能设计的社会认知方法示例中所证明的那样。然后,本社论讨论了未来的发展方向,强调了平衡评估与人工智能设计相关的机遇、风险和责任的价值。最后,我们介绍了特刊中的论文及其贡献,并指出了未来的研究努力。
特定的环境,在空间的极端条件下几乎无法生存,高辐射,低重力等。这对于人类计划参观的太阳系中的卫星和行星是相似的。因此,研究人员一直在开发不同类型的人类计算机界面系统,这些系统支持人类在太空中的物理和心理表现。随着航空工程的最新进步,以及通过太空X,蓝色原产地等航空技术初创公司民主化的空间访问,太空研究变得越来越合理且易于访问。因此,HCI的研究人员有一个令人兴奋的机会,可以通过设计新型的交互式系统和计算机界面来为太空探索的巨大努力做出贡献,这些系统和计算机接口可以支持人类在太空中和太阳系中的太空中生活和工作。
生成式、机器学习驱动的交互系统有可能改变人们在创造过程中与计算机交互的方式——将工具变成共同创造者。然而,我们仍然不清楚如何在开放式任务领域实现有效的人机协作。在与机器学习驱动系统的交互中,存在一些已知的沟通挑战。在共同创造系统的设计中,一个被忽视的方面是如何更好地支持用户学习与此类系统协作。在这里,我们将人机协作重新定义为一个学习问题:受团队学习研究的启发,我们假设适用于人机团队的类似学习策略也可能提高与共同创造生成系统合作的人类的协作效率和质量。在本立场文件中,我们旨在促进团队学习,将其作为设计更有效的共同创造人机协作的视角,并强调协作过程质量是共同创造系统的目标。此外,我们概述了在共同创造人工智能系统中嵌入团队学习支持的初步示意图框架。最后,我们提出了一项研究议程,并提出了开放性问题,以供进一步研究,以支持人们学习与生成人工智能系统合作。
人工智能 (AI) 系统越来越多地用于支持人类在教育、医疗保健、社会工作和刑事司法等社会性背景下的工作。在这些情况下,人工智能可以自动化从业人员的日常工作,同时腾出他们的时间从事他们认为更有意义的活动 (Holstein、McLaren 和 Aleven 2019a;Patel 等人 2019;Yang、Steinfeld 和 Zimmerman 2019)。人工智能还可以帮助扩大社会服务的提供,并帮助人类做出更明智和公平的决策 (du Boulay 2016;Holstein、McLaren 和 Aleven 2018b;Patel 等人 2019)。尽管有这些好处,但现代人工智能系统还是容易出错和不完善的。如果不经过精心设计,人工智能可能会僵化地扩大实践而不考虑当地情况,加剧有害的不平等,或使有价值的人与人之间的互动自动化 (Alkhatib
背景 理解人工智能 (AI) 并思考其影响面临着巨大的挑战。解决这个问题的一个有效方法是推测设计 (SD),它主要涉及构建叙事,以激发对技术设计和社会采用的讨论。然而,在人工智能背景下对 SD 叙事的研究很少。因此,本研究旨在确定 SD 中涉及人机交互的叙事主题。
由于缺乏面对面的互动,在线学习者经常会感到社交孤立,这对学生的幸福感和学习体验产生了负面影响。许多基于文本的人工智能代理都配备了不同的社交特征和功能,以支持社交孤立的人。然而,代理的功能设计、社交特征以及在促进在线学习者之间的社会联系方面的道德挑战尚未得到充分探索。采用共同设计的方法,我们将 23 名参加在线学位研究生课程的在线学习者作为两项虚拟共同设计研讨会研究的积极参与者。通过四种不同的共同设计活动,我们确定了在线学习者对人工智能代理的功能和社会特征在促进他们的社会联系方面的偏好以及潜在的道德问题。根据我们的研究结果,我们确立了人工智能代理作为促进者的角色,以不断支持在线学习者的社交联系过程。我们进一步讨论了在线学习中代理介导的社交互动的独特道德挑战。
企业最近已将人工智能引入人力资源管理(HRM)以评估员工的工作绩效评估。然而,在这样一个多个利益相关者以不同的激励机制复杂地交织在一起的人力资源管理环境中,设计反映一个利益相关者群体(例如企业、人力资源经理)需求的人工智能是有问题的。我们的研究旨在调查利益相关者在人力资源管理中围绕人工智能存在哪些矛盾,并探索平衡这些矛盾的设计解决方案。通过与不同的利益相关者(包括员工、雇主/人力资源团队和人工智能/业务专家)开展以利益相关者为中心的参与式研讨会,我们发现了五个主要矛盾:1)对公平性的不同观点,2)人工智能的准确性,3)算法及其决策过程的透明度,4)算法决策的可解释性,5)生产力与不人道之间的权衡。我们提出以利益相关者为中心的设计理念来解决这些紧张局势,并进一步讨论如何促进工作场所各利益相关者之间的和谐。
* 香港大学法学院副教授。我在乔治城大学法学院和香港大学法学院联合举办的“数字丝绸之路上的数字主权”会议以及香港大学法律与科技中心举办的“人工智能时代的知识产权保护再设计”会议上展示了本文的早期草稿,受益匪浅。我感谢 Ryan Abbott、Hillary Brill、Dan Burk、Anupam Chander、Carys Craig、Jeanne Fromer、Daniel Gervais、Mark Lemley、Mark McKenna、Ruth Okediji、Pamela Samuelson、Anna Wu 和 Winnie Yeung 的有益对话和评论。本文讨论了截至 2021 年 6 月已提供的法律和案例。
人工智能 (AI) 在增强医疗保健方面的作用预计在未来几十年将大幅增长。目前医疗 AI 的研究重点是以临时方式开发、验证和实施点级 AI 应用程序。然而,要充分利用 AI 的全部功能来改善社会范围内的患者体验和结果,需要进行格式塔转变——在医疗保健背景下系统地理解 AI——从而实现其广泛采用。这意味着将 AI 纳入医疗保健工作流程的四大支柱,包括医生认可、患者接受、提供者投资和付款人支持(“4P”)。为了实现这 4P,必须从以下角度设计 AI 增强型医疗保健交付系统:(1) 医生如何将 AI 融入临床实践以及 (2) 患者如何看待 AI 在医疗保健交付中的作用。这反过来会促进提供者投资和付款人支持。在本文中,我们借鉴文献讨论了一系列研究问题,包括医生认可和患者接受的障碍、透明度和披露、服务设计以及增加 AI 采用的策略。我们阐明了人工智能增强医疗保健交付系统的目的性设计原则,并提出了运营管理学者在继续加强与医疗保健专业人员和人工智能开发人员的合作时需要考虑的研究议程。