以人为本的负责任人工智能 (HCR-AI) 1 旨在将人及其价值观纳入人工智能系统的设计和开发中,这有助于构建造福人类和社会的系统,并防止和减轻潜在危害。尽管人为因素在人工智能系统中的重要性由来已久 [ 12 , 31 ],但在过去几年中,人为因素社区对其重要性的认识日益加深 [ 32 ]。在 CHI 会议记录中搜索 ACM 数字图书馆会显示以下结果(图 1):2 自 2019 年以来,“以人为本的 AI”共找到 41 条记录,自 2020 年以来“负责任的 AI”共找到 32 条记录。下面,我们重点介绍了一些与特别兴趣小组 (SIG) 主题相关的研究示例,请注意,这并不是一份详尽的清单,只是为了展示现有工作的广度和深度:人工智能中的伦理涉及社会文化和技术因素,涵盖一系列负责任的 AI 价值观(包括但不限于透明度、公平性、可解释性、问责制、自主性、可持续性和信任)[20]。然而,包括普通民众和人工智能从业者在内的不同利益相关者可能会对这些价值观有不同的看法和优先考虑。例如,美国人口的代表性样本更有可能重视安全、隐私和性能。相比之下,从业者更有可能优先考虑公平、尊严和包容性 [ 19 ]。或者,某些历史上遭受剥削的群体可能比风险较低的群体更重视隐私或不参与 [ 13 , 26 ]。与负责任的人工智能相一致的是,人们呼吁让人工智能更加以人为本。特别是,人们强调人工智能融入社会技术过程以保持人类自主权和控制力所面临的挑战,以及人工智能系统的部署和应用对社会、组织和个人的影响 [ 4 ]。在这一研究领域,了解社会技术和环境因素有助于揭示人工智能系统为何以及如何以人为本 [ 8 , 24 , 30 ]。例如,即使对于一种人工智能,其效用可能已达成更广泛的共识,比如使用视网膜扫描检测糖尿病,但对于其目标用户来说,可能仍存在一些障碍,包括由于不太适合用户的工作流程(例如护士)或系统需要不易生成的高质量图像,特别是在资源匮乏的地方,如果使用得当,这种技术可以为患者提供重要支持[2]。同样,研究人员也研究了个人对人工智能的期望和理解。例如,在做出道德决策时(例如,假设击落恐怖分子无人机以拯救生命),人们可能会对人工智能决策者的能力给予更多的信任(即能力可信度,更有能力),而他们可能会对人类专家给予更多的道德信任(即能够在道德上值得信赖,并做出符合
2. 日常生活 3. 认知模式 4. 交流 5. 视力 6. 情绪和行为模式 7. 心理健康 – 创伤事件史 8. 身体机能和结构问题 9. 节制 10. 疾病诊断和健康状况 11. 牙齿和营养状况 12. 皮肤状况 13. 活动追求 14. 药物 15. 特殊治疗和程序 16. 出院潜力 17. PASSAR 审查 – 如果已经完成 资料来源:州运营手册附录 W - 危重病人入院医院 (CAH) 和 CAH 中的摇摆床的调查协议、法规和解释指南(200 版,2020 年 2 月 21 日修订)
• 个人或参与者选择的人是否在以人为本的计划/护理计划的制定和更新中发挥了积极作用? • 个人是否普遍满意员工提供的服务? • 个人是否可以修改服务时间表?
人工智能 (AI) 可以增强甚至取代人类认知,但仍有许多根本障碍阻碍其实现完全自主的应用。受到整个社会越来越多的 AI 实施失败的启发,在这篇评论文章中,我们通过计算视角重新审视公民科学 (CitSci) 领域,强调算法机会以及人类独有的能力。特别是,我们将 CitSci 领域置于人类和机器计算领域之间,并引入两个新维度,使我们能够将从数字游戏和注释任务到自然数据收集的 CitSci 项目与适当的机器学习算法相匹配。有趣的是,在 CitSci 中,有大量任务借鉴了人类的常识、层次化思维和复杂技能,而这些技能尚未融入当前的 AI 方法中。这种差距,加上独特的以参与者为中心的价值观,使 CitSci 成为开发 21 世纪以人为中心的 AI(如混合智能)的宝贵试验台。因此,该映射为 CitSci 研究人员提供了具体的算法选择指南,同时也激励人工智能研究人员通过支持 CitSci 项目来追求宏伟的人工智能挑战。
如果个人根据 1915(c) 或 1915(k) 授权,例如通过社区优先选择方案参与的消费者指导个人援助计划 (CDPAP),或根据州计划但作为豁免登记者,自行管理其服务,请填写此框。如果此信息记录在其他地方,请将证明附在此 PCSP 上。[为每个自行管理的服务重复提供服务描述部分]。 ☐ 我,____________________________________,选择自行管理我的部分或全部服务。 ☐ ____________________________________,也可以代表我自行管理我的部分或全部服务。这意味着我有权招募、雇用、解雇、监督和管理我自己的员工。我可以单独或在我的支持人员的帮助下选择员工的职责、时间表和培训要求。这还包括评估员工、决定他们的工资率以及审查/批准付款请求的权利。在行使这些权利和责任时,我将遵守所有法律法规。我选择自主指导的服务如下:
2021 年 9 月,医疗保险和医疗补助服务中心 (CMS) 宣布了其战略愿景和优先事项,包括扩大 CMS 计划服务的覆盖范围和公平使用权、推动创新以应对国家卫生系统挑战以及促进以价值为基础、以人为本的医疗服务。2021 年 10 月,医疗保险和医疗补助创新中心(创新中心)推出了新的愿景,重点关注五个目标,以支持和帮助执行 CMS 的愿景和优先事项(见图 1)。本报告提供了创新中心在实施新战略方面的最新进展,描述了来年的重点领域,并开始衡量五个目标的进展情况。配套的补充文件描述了本报告中描述的每个指标、基线和目标的理由、方法和局限性。
VillageReach 很快发现,这种将固定地点和外展团队相结合的混合模式是一种更有效的接触人群的方式。2 月份,外展活动期间接种了超过 2,100 剂新冠疫苗,而疫苗接种站仅接种了约 1,000 剂。3 月和 4 月,外展活动期间接种的疫苗数量仍然高于疫苗接种站接种的疫苗数量。5 月份,外展活动期间接种了超过 2,300 剂疫苗,而疫苗接种站仅接种了约 500 剂疫苗。将疫苗带到社区使人们无需支付交通费或浪费工作时间即可接种疫苗。图 1 显示了自调整疫苗接种站模式以来观察到的持续增长。
以人为本的人工智能 (HCAI) 提倡开发值得信赖、可用且基于人类需求的人工智能应用。虽然 HCAI 的概念基础在最近的文献中得到了广泛的讨论,但行业实践和方法似乎落后了。为了推进 HCAI 方法开发,需要了解人工智能开发公司的当前实践。为了了解 HCAI 原则如何体现在当前的人工智能开发实践中,我们对芬兰 12 家人工智能开发公司的从业者进行了访谈研究,重点关注人工智能应用开发的早期阶段。我们的主题分析揭示了当前的开发实践并确定了四个主要挑战:(i) HCAI 工作与技术开发脱节,(ii) 客户作为用户需求来源的核心作用,(iii) 人工智能的不确定性,以及 (iv) 缺乏基于价值观的对人工智能的理解。研究结果为 HCAI 方法的开发和 HCAI 原则在人工智能应用开发中的实施提供了参考。
慢性疼痛是普遍且日益严重的问题 1-3,与工作中断、情绪困扰和危险行为(包括物质使用)有关。4 治疗侧重于药物治疗和手术,这两种方法都可能是昂贵的选择,疗效不一,风险很大。5-7 慢性疼痛的认知行为疗法 (CBT-CP) 是一种安全的、基于证据的替代疗法,对结果有中等到很大的影响。8-11 CBT-CP 通常由治疗师在每周 6-12 次面对面治疗期间进行,针对适应不良的思维过程并促进适应性行为。由于治疗师稀缺、多次面对面治疗负担过重且报销有限,许多患者无法轻松获得 CBT-CP 或接受的剂量低于预期。12 鉴于对阿片类药物相关危害流行的持续担忧,更广泛地获得 CBT-CP 至关重要。13-15
1 俄罗斯圣彼得堡彼得大帝理工大学服务与贸易研究生院,2 俄罗斯圣彼得堡彼得大帝理工大学工业管理研究生院,3 西班牙瓦伦西亚瓦伦西亚理工大学经济工程中心 (INECO),4 俄罗斯奥廖尔国立大学综合安全数字环境技术工程中心:电信、通信和能源效率,5 俄罗斯莫斯科国立土木工程大学建筑组织与房地产管理系,6 俄罗斯莫斯科人民友谊大学工业创新管理系,7 俄罗斯莫斯科俄罗斯联邦政府金融大学莫斯科维特大学管理系、可持续发展研究与教育中心