人类进入地球轨道已有 60 多年,早期还曾短暂地登陆月球,现在,人类正在认真考虑建立一个双星球社会,即殖民另一颗资源丰富的太阳系行星——火星 [参考文献 1-3]。这种愿望不断演变的原因包括常见的“因为它就在那里”,以及几种可能终结地球上人类社会的“自然”和人为事件,包括大规模的小行星撞击和太阳风暴对目前完全依赖电子的社会的影响。人们还担心生物黑客,这会导致一种特别致命的病原体、超级火山和一系列其他可能的灾难 [参考文献 4]。与正在进行的人类太空活动相比,人类登陆火星涉及的距离要远得多,成本要高得多,同时还存在严重甚至致命的健康和安全问题。到目前为止,使用近期的技术和方法,人类登陆火星的成本通常被认为过高,无法完全确保人类的安全和健康。然而,在 NASA 人类登陆火星的名义开发时间范围内(即十年研发期),有许多技术和方法(有些尚处于萌芽阶段,但可以开发),并且超出了该系统的实施范围 [参考文献 5]。
对人工智能伦理的担忧比人工智能本身更古老。“人工智能”一词最早由麦卡锡及其同事于 1955 年使用(McCarthy et al.1955 )。然而,1920 年,恰佩克已经发表了他的科幻剧,其中遭受虐待的机器人反抗人类的暴政(Capek 2004 ),到 1942 年,阿西莫夫提出了他著名的三条“机器人定律”,即机器人不伤害人类、不伤害其他机器人、不伤害自己(Asimov 1950 )。在上个世纪的大部分时间里,当人工智能主要局限于研究实验室时,对人工智能伦理的担忧大多局限于未来主义小说和幻想作家。在本世纪,随着人工智能开始渗透到生活的几乎所有方面,对人工智能伦理的担忧也开始渗透到主流媒体。在本专栏中,我简要分析了关于人工智能的三大类伦理问题,然后强调了另一个尚未引起足够重视的问题。关于人工智能伦理的第一类担忧——我们称之为超级智能类——涉及对机器有朝一日可能变得比人类更聪明并损害人类利益的担忧。在这种担忧的极端情况下,人们担心人工智能代理可能会接管世界,然后奴役或消灭人类。仅举一个例子,Bostrom ( 2014 ) 想象了一个未来世界,其中超级智能机器人被要求制作回形针,机器人追求这一目标,直到它消耗掉地球上的所有资源,从而危及人类的生存。一些对超级智能机器的恐惧似乎源于对智能的机械“算法观点”,其中智能存在于代理的大脑中,而让机器超级智能则等待着主算法的发明。然而,智能一般是
2022 年 5 月 4 日 摘要 鉴于人工智能 (AI) 日益渗透到我们的生活,我们必须系统地将人工智能目标与人类的目标和价值观保持一致。人机对齐问题源于明确指定人工智能模型在所有相关状态下采取的所有行动应获得的奖励是不切实际的。因此,一种可能的解决方案是利用人工智能模型的能力,从描述广泛背景下的人类价值观的丰富数据源中隐式地学习这些奖励。民主政策制定过程通过制定具体规则、灵活标准、可解释的指导方针和可推广的先例来产生这样的数据,这些先例综合了公民对世界许多州可能采取的行动的偏好。因此,对公共政策进行计算编码以使其对人工智能系统可读应该是解决更广泛的人机对齐难题的社会技术方法的重要组成部分。法律学者正在探索人工智能,但大多数研究都集中在人工智能系统如何适应现有法律,而不是人工智能如何理解法律。本文概述了人工智能研究,该研究学习了可用于下游任务的政策数据结构。为了展示人工智能理解政策的能力,我们提供了一个人工智能系统的案例研究,该系统预测了拟议立法与特定上市公司的相关性及其对该公司的可能影响。我们认为这代表了人工智能和政策的“理解”阶段,但利用政策作为人类价值观的关键来源来协调人工智能需要“理解”政策。我们概述了我们认为朝着这个方向前进需要做的事情,以及两个朝这个方向的示例研究项目。解决协调问题对于确保人工智能对个人(对部署人工智能的个人或团体)和社会都有益至关重要。随着人工智能系统在高风险环境中承担越来越多的责任,将民主决定的政策整合到这些系统中可以使其行为与人类目标保持一致,以响应不断发展的社会。
摘要 本立场文件中的论点以我作为计算机科学和认知科学教员的职业生涯为基础。在过去的三十年里,我们终身学习与设计中心 (L3D) 的研究一直以人为本的设计、智能增强和分布式认知为中心,重点是如何通过社会技术环境超越无辅助的个体人类思维。本次研讨会的主题“人工智能为人类服务还是人类为人工智能服务”并没有简单的答案。我的论点为“人工智能为人类服务”的观点提供了支持。我们的研究活动和我对之前 CoPDA 研讨会的贡献,通过将“生活质量”假设为一个总体设计目标,探讨了有利于人们、社会和人类需求的问题,丰富了关于“人工智能为人类服务”的讨论,而不仅仅是讨论效率和生产力。关键词 1 人类为人工智能,人工智能为人类,生活质量
我们收集了 4 名患有药物抵抗性癫痫且植入了研究性 Medtronic Summit RC+S™ 的患者的动态 iEEG 记录,以研究新型刺激模式并追踪长期行为状态动态。患者在同时进行双侧海马 (HPC) iEEG 记录时接受了治疗性 ANT DBS。我们评估了在三天同时进行的 iEEG 和多导睡眠图 (PSG) 期间,使用专家睡眠注释,在不同 ANT 刺激频率 (2 Hz、7 Hz、高频 >100 Hz) [2,30–34] 下自动行为状态分类的可行性和准确性。使用朴素贝叶斯分类器 [35,36] 将 iEEG 信号分类为清醒、快速眼动 (REM) 和非 REM(非 REM:N2 和 N3)。随后,我们在 6 个月内将训练好的分类器部署在 4 名门诊患者身上。
人工智能已成为未来医疗行业发展的核心驱动力之一,但患者对人工智能在医疗中的应用持怀疑态度。本研究基于群际威胁理论(ITT),验证了患者在治疗(实验一:n = 446)和诊断(实验二:n = 330)场景中,会将人工智能视为外部群体,从而引发外部群体的感知威胁,导致患者出现回避行为。结果显示,尽管人工智能在医疗中可以提供专家级的准确性,但随着人工智能更多地参与医疗,患者仍然更容易依赖人类医生,并产生更多的负面情绪(实验一)。此外,患者更加关注与自身相关的个体层面的威胁,例如与隐私问题相关的现实威胁和与忽视个人特征相关的象征性威胁。相比之下,群体层面的现实威胁和象征性威胁对医疗场景下的患者影响较小(实验二)。
预测(F 1 = 0.91)具有高效的能源使用,并且可以使用特征重要性检查进行解释。此外,人工智能代理对人类人口统计数据保持中立,同时能够揭示个人特质。因此,这项研究的贡献包括有证据的结果,这些证据仅限于可用的人口和数据样本,表明某些年龄范围与性别组合之间存在行为差异。主要贡献是一个用于研究人类情绪价在情境中变化的新平台。该系统可以补充和取代(最终)传统的长列表自我评估问卷。SensAI + Expanse 平台贡献了几个部分,例如能够适应和学习以高性能预测情绪价状态的移动设备应用程序(SensAI),云计算(云)服务(SensAI Expanse)具有面向 AutoML 的随时可用的分析和处理模块。此外,智能手机传感为持续、非侵入性和个性化的健康检查做出了贡献。在未来,发展
1 宾夕法尼亚大学佩雷尔曼医学院放射学系,宾夕法尼亚州费城;2 宾夕法尼亚大学佩雷尔曼医学院艾布拉姆森癌症中心,宾夕法尼亚州费城;3 纽约纪念斯隆凯特琳癌症中心帕克癌症免疫治疗研究所,纽约州纽约市;4 纽约纪念斯隆凯特琳癌症中心医学系,纽约州纽约市;5 威尔康奈尔医学院医学系,纽约州纽约市;6 亚利桑那州斯科茨代尔 Imaging Endpoints;7 加利福尼亚州英格尔伍德 ImaginAb, Inc.;8 亚利桑那州斯科茨代尔 HonorHealth 研究所;9 加利福尼亚州杜瓦特希望之城贝克曼研究所分子成像与治疗系;10 加利福尼亚州纽波特比奇霍格家族癌症研究所分子成像与治疗系;11 纽约州纽约市纪念斯隆凯特琳癌症中心人类肿瘤学和发病机制项目; 12 纽约纪念斯隆凯特琳癌症中心放射科;13 纽约威尔康奈尔医学院放射科
,$- $)“$ $'”。 ")-%,$-$$''/'"'/$$/$'$'$$"!$/"))"")"-%*""')/$"$""-/"-$$%,$)$)-""!! - " $ " ) - $ ) %,$ ! - " - $ " / ' " - - / ' $ % 0 $ "$ $ - / ' " / "$ $ / $ " $ ! / - $ $ - % ,$ $ -- " ' " $ ! - " ) / $ $ $ $ $ ! $ / $ %,$! ))! ) " ""$!-%,$)!$$/-$%*!!"-/"$!!"! 1 / )+2 * ' 3 $ 04 2*+ * ' $ $ ! +056 7! + 。 3 - 8%,$ - $“$!!”! $“$!-$!-”)! ) 8 ) - ' " ) - $ / " $ %
目前,人们对公平人工智能 (AI) 和机器学习 (ML) 研究的兴趣激增,该研究旨在减轻 AI 算法中的歧视性偏见,例如性别、年龄和种族。虽然该领域的大多数研究都集中在开发公平的 AI 算法上,但在本文中,我们研究了人类-公平-AI 交互时出现的挑战。我们的结果表明,由于人类偏好和公平性之间存在明显的冲突,公平的 AI 算法本身可能不足以在现实世界中实现其预期的结果。以大学专业推荐为例,我们通过采用性别去偏见机器学习技术构建了一个公平的 AI 推荐器。我们的离线评估表明,去偏见的推荐器可以做出更公平、更准确的大学专业推荐。然而,一项针对 200 多名大学生的在线用户研究表明,参与者平均更喜欢原始的偏见系统,而不是去偏见系统。具体而言,我们发现与大学专业相关的感知性别差异是接受建议的决定性因素。换句话说,我们的结果表明,如果不解决人类的性别偏见,我们就无法完全解决人工智能建议中的性别偏见问题。他们还强调了迫切需要将公平人工智能研究的当前范围从狭隘地关注去偏见人工智能算法扩展到包括新的说服和偏见解释技术,以实现预期的社会影响。