为《牛津人工智能治理手册》准备。我非常感谢许多合著者,他们为我思考这些主题做出了贡献,我在本文中大量参考了他们的工作。他们包括:David Autor、Jonathon Hazell、Simon Johnson、Jon Kleinberg、Anton Korniek、Azarakhsh Malekian、Ali Makhdoumi、Andrea Manera、Sendhil Mullainathan、Andrew Newman、Asu Ozdaglar、Pascual Restrepo 和 James Siderius。我感谢 David Autor、Lauren Fahey、Vincent Rollet、James Siderius 和 Glen Weyl 的评论。我非常感谢谷歌、休利特基金会、美国国家科学基金会、斯隆基金会、史密斯理查森基金会和施密特科学基金会的资金支持。本文表达的观点为作者的观点,并不一定反映美国国家经济研究局的观点。
摘要背景:在高影响力的医学期刊中,COVID-19 疫苗的严重危害被研究资助者淡化或故意排除。方法:对包含 COVID-19 疫苗相关严重不良事件 (SAE) 数据的论文进行系统评价。结果:我们纳入了 18 篇系统评价、14 篇随机试验和 34 项其他设有对照组的研究。大多数研究质量较差。对两项关键 mRNA 疫苗试验的监管数据的系统评价发现,与安慰剂相比,疫苗的特别关注的 SAE 明显更多,并且超额风险远远大于益处,即住院风险。腺病毒载体疫苗增加了静脉血栓形成和血小板减少的风险,而基于 mRNA 的疫苗增加了心肌炎的风险,每 200 例中约有 1-2 例死亡。我们发现了严重神经系统危害的证据,包括贝尔氏麻痹症、格林-巴利综合征、重症肌无力和中风,这些都可能是由于自身免疫反应引起的。随机试验中严重危害(即妨碍日常活动的危害)未被充分报道。这些危害在全面接种疫苗后的加强剂量研究和对先前感染者接种疫苗的研究中非常常见。结论:还需要进一步的随机试验。当局已建议全民接种 COVID-19 疫苗并注射加强剂量。他们不认为在儿童和已从 COVID-19 感染中康复的人等低风险人群中,益处和危害之间的平衡会变成负面的。
本文讨论了当前人工智能技术发展路径的几个潜在经济、政治和社会成本。我认为,如果人工智能继续沿着目前的发展轨迹部署,并且不受监管,它可能会产生各种社会、经济和政治危害。这些包括:损害竞争、消费者隐私和消费者选择;过度自动化工作,加剧不平等,低效压低工资,无法提高工人生产力;以及破坏政治话语,即民主最基本的命脉。虽然没有确凿的证据表明这些成本迫在眉睫或巨大,但在它们完全实现并变得更难甚至无法逆转之前了解它们可能是有用的,这正是因为人工智能前景广阔、潜力巨大。我还认为,这些成本并非人工智能技术本身固有的成本,而是与它们目前的使用和开发方式有关——赋予企业和政府权力,对抗工人和公民。因此,限制和扭转这些成本的努力可能需要依靠监管和政策来重新引导人工智能研究。仅通过促进竞争来遏制它们的尝试可能是不够的。
基于机器学习的新型人工智能(AI)系统正在以快速的速度融入我们的生活中,但并非没有后果:跨领域的学者越来越指出与隐私,透明度,偏见,歧视,剥削,剥削以及与公共部门和私营部门算法系统相关的与隐私,透明度,偏见,歧视,剥削以及排除相关的问题。围绕这些技术的不利影响的担忧刺激了关于算法危害主题的讨论。但是,关于上述危害的绝大多数文章对这些情况下的“危害”没有任何定义。本文旨在通过引入一个标准来解决算法危害的适当说明,以解决此遗漏。更具体地说,我们跟随乔尔·费恩伯格(Joel Feinberg)理解危害与错误不同的危害,在这种危害中,只有后者必须带有规范性维度。这种区别强调了围绕算法危害和错误汇合的当前奖学金中的问题。响应这些问题,我们提出了两个要求在分析这些技术越来越深远的影响时维护危害/错误的区别,并暗示这种区别如何在设计,工程和决策中有用。
信息专家对包括 MEDLINE 和 Cochrane 系统评价数据库在内的关键资源进行了文献检索。搜索方法是定制的,以检索有限的结果集,平衡全面性和相关性。搜索策略包括受控词汇,例如美国国家医学图书馆的 MeSH(医学主题词)和关键词。搜索概念是根据研究问题和选择标准的要素制定的。主要搜索概念是药品短缺。应用 CADTH 开发的搜索过滤器将检索范围限制在卫生技术评估、系统评价、荟萃分析或间接治疗比较;任何类型的临床试验或观察性研究;使用常规收集数据的真实世界证据;或加拿大背景。搜索于 2023 年 9 月 13 日完成,仅限于自 2003 年 1 月 1 日以来发表的文献。
从历史上看,大部分机器学习研究都集中在算法的性能上,但最近更多的关注集中在优化关节的人类算法性能上。在这里,我们分析了一种特定类型的人类算法协作,其中该算法可以访问一组n个项目,并向人类提供了一个大小K的子集,该大小K从这些K中选择了最终项目。此情况可以建模内容建议,路由计划或任何类型的标签任务。由于人类和算法都没有关于项目真实排序的嘈杂信息,所以关键问题是:k的哪个值最大化最终会选择最佳项目的概率?对于k = 1,单独作用的算法优化了性能,对于k = n,它是由人类单独作用优化的。令人惊讶的是,我们表明,对于多个噪声模型,设置k∈[2,n -1]是最佳的 - 也就是说,即使人类和算法分别具有同等的精度,协作也有严格的好处。我们在理论上为木棍模型和实验性的噪声置换模型进行了实验证明这一点。但是,当人类锚定在算法的订购订单上时,我们表明这种模式被逆转 - 关节系统始终严格的性能较差。我们将这些结果扩展到人类和算法的准确性水平有所不同的情况下,表明始终存在更准确的代理人从与较不准确的机构合作中严格受益,但这些制度在人类与算法的准确性之间是不对称的。
事实证明,人工智能 (AI) 在某些领域优于人类决策。每当需要高级战略推理和分析大量数据以解决复杂问题时,情况尤其如此。很少有人类活动比政治更符合这一描述。在政治上,我们处理人类面临的一些最复杂的问题,必须平衡短期和长期后果,并且我们在做出决定时知道我们并不完全了解它们的后果。我研究了人工智能在政府领域应用的一个极端案例,并利用这个案例来研究与算法治理相关的部分潜在危害。我重点关注基于政治理论考虑和人工智能技术统治的潜在政治危害的五个反对意见。这些反对意见基于“政治人”的理念,参与是合法性的先决条件,机器的非道德性以及透明度和问责制的价值。我的结论是,如果我们确保控制和备份机制到位,并且我们设计一个人类可以控制社会方向和基本目标的系统,这些反对意见就不会成功破坏人工智能技术统治。如果这里假设的人工智能政策制定能力成为现实,那么从理论上讲,这样的技术统治可以为我们提供更好的参与方式、合法性和更高效的政府。
尽管面临这些挑战,我们仍然有社会和道德义务预测和应对我们为世界引入新技术而做出的努力所带来的可预见的影响。公司和组织通常会探索如何持续最大限度地发挥其所生产技术的优势,但他们并没有预测其新计算技术可能带来的有害影响的记录。请考虑几个例子:抵押贷款审批系统在部署时,人们了解它们如何增加贷方的利润,但没有了解它们如何增加获得金融资源的不平等。许多人未能预料到社交媒体会以何种方式使社交互动变得更糟。自动招聘系统无意中将性别歧视和种族歧视做法纳入法典。还有更多不可预见的伤害和挑战的案例。