摘要 人工智能 (AI) 系统正在成为我们日常生活中不可或缺的一部分,影响着我们的工作、互动和决策方式。随着人工智能系统的不断发展,确保它们不仅技术精湛,而且具有社会意识和责任感至关重要。本文提出了人工智能系统社会化的能力模型,旨在定义和培养人工智能系统在以人为本的环境中合乎道德、有效和和谐地运行所需的技能和属性。能力模型基于多学科方法,借鉴了人工智能伦理、机器学习、人机交互和行为心理学。它概述了开发具有以下关键领域能力的人工智能系统的框架。本文详细讨论了每个能力领域,并为其开发和评估提供了实用的策略和技术。它强调了人工智能研究人员、伦理学家、心理学家和设计师之间的跨学科合作的重要性,以创建符合人类价值观和社会需求的人工智能系统。通过实施人工智能系统社会化能力模型,我们旨在推动人工智能系统的发展,这些系统不仅在技术能力上表现出色,而且还有助于打造更具社会责任感、用户友好和道德的人工智能格局。该模型为研究人员、开发人员和政策制定者提供了指导,以促进人工智能负责任地融入我们的社会。
• 确保具有人类属性(语音或视觉)的人工智能医疗系统不会欺骗人类,这一点很重要;它们应该明确地介绍自己是人工智能代理。它们还必须允许患者自由地做出与健康相关的决定,而不受胁迫或过度压力(Reddy 等人,2020 年)。 • 临床决策的透明度和解释对于医学影像分析和临床风险预测至关重要(Blobel 等人,2020 年) • 当患者数据可能与人工智能开发人员共享时,必须有一个流程来征求患者的充分知情同意,如果征求批准不可行/不切实际,则必须对数据进行匿名化,以便开发人员无法识别单个患者的详细信息(O'Sullivan 等人,2019 年)。 • 修改机构政策和指南,确保患者了解治疗医生正在借助人工智能应用的支持,了解这些应用的局限性,以及患者在相关情况下可以拒绝涉及人工智能的治疗(Reddy 等人,2020 年)。
米尔格拉姆(Milgram)的古典研究著名地提出了遵守权威的广泛意愿,即使是造成伤害的地步。已经建立了支持服从的重要情况因素,例如与受害者的接近。相对较少的工作集中在胁迫如何影响个人认知的方式上,或确定基于屈服趋势的个人间差异的认知因素。在这里,我们使用fMRI来研究与与代理意识和胁迫下的责任感相关的自愿过程变化相关的神经系统。参与者可以自由选择或由实验者指示,以给其他参与者带来轻度痛苦的电击,或者避免这样做。我们以前已经表明,胁迫减少了时间结合,这已被认为是对代理意义的隐式代理。我们测试了自由选择和强制之间神经活动差异的强制下的减少代理。与以前的研究以及在MRI扫描仪之外执行任务的参与者相反,平均而言,施加者对扫描仪的参与者的代理没有影响。但是,在强迫下,内侧额回的活动的更多活动与更大的代理相关。使用明确的责任等级发现了类似的关联。我们的发现表明,在行动计划和执行过程中与意志相关的内侧额叶过程可能有助于保留在胁迫下的责任感。此外,在自由选择下进行更多冲击的参与者在与社会认知相关的大脑区域的自由选择试验期间的活动减少。可能,这可能反映了参与者在自由选择下的认知上与冲击接收者的距离,而在强制下未观察到这一点。
