虽然美国的种族多元化程度正在提高,但生成性人工智能和相关技术却有可能破坏真正的代议制民主。如果不加以控制,人工智能将加剧现有的重大挑战,例如种族两极分化、文化焦虑、反民主态度、种族选票稀释和选民压制。合成视频和音频(“深度伪造”)受到了大部分公众的关注,但这只是冰山一角。针对种族的微定位虚假信息、自动选举管理中的种族偏见、歧视性投票限制、针对种族的网络攻击以及阻碍种族正义主张的人工智能监控只是人工智能威胁民主的几个例子。不幸的是,现有法律(包括《投票权法案》)不太可能应对这些挑战。然而,如果政策制定者、活动家和技术公司立即采取行动,这些问题并非不可克服。本文主张对人工智能进行监管,以促进种族包容的民主,提出了为监管人工智能提供框架的新原则,并提供了具体的政策干预措施来说明这些原则的实施。尽管种族是影响美国投票模式的最重要人口因素,但这是第一篇全面识别人工智能对民主造成的种族危害并提出前进方向的文章。
在没有监管护栏的情况下,图像生成人工智能 (AI) 工具的民主化放大了互联网上原有的危害。互联网上 AI 图像的出现始于生成对抗网络 (GAN),这是一种神经网络 1,包含 (1) 创建图像的生成器算法和 (2) 评估图像质量和/或准确性的鉴别器算法。通过生成器和鉴别器之间的几轮协作,最终生成 AI 图像 (Alqahtani、Kavakli-Thorne 和 Kumar,2021 年)。ThisPersonDoesNotExist.com 是由 Uber 工程师创建的网站,可生成逼真人物的 GAN 图像,于 2019 年 2 月推出,令观众惊叹不已 (Paez,2019 年),对广泛诈骗和社会工程等滥用领域的利用具有严重影响。这只是 AI 生成的图像及其在互联网上的利用的开始。随着时间的推移,AI 图像生成逐渐从 GAN 发展到扩散模型,这种模型可以生成比 GAN 更高质量、更多样的图像。扩散模型的工作原理是将高斯噪声 2 添加到原始训练数据图像中
从历史上看,大部分机器学习研究都集中在算法的性能上,但最近更多的关注集中在优化关节的人类算法性能上。在这里,我们分析了一种特定类型的人类算法协作,其中该算法可以访问一组n个项目,并向人类提供了一个大小K的子集,该大小K从这些K中选择了最终项目。此情况可以建模内容建议,路由计划或任何类型的标签任务。由于人类和算法都没有关于项目真实排序的嘈杂信息,所以关键问题是:k的哪个值最大化最终会选择最佳项目的概率?对于k = 1,单独作用的算法优化了性能,对于k = n,它是由人类单独作用优化的。令人惊讶的是,我们表明,对于多个噪声模型,设置k∈[2,n -1]是最佳的 - 也就是说,即使人类和算法分别具有同等的精度,协作也有严格的好处。我们在理论上为木棍模型和实验性的噪声置换模型进行了实验证明这一点。但是,当人类锚定在算法的订购订单上时,我们表明这种模式被逆转 - 关节系统始终严格的性能较差。我们将这些结果扩展到人类和算法的准确性水平有所不同的情况下,表明始终存在更准确的代理人从与较不准确的机构合作中严格受益,但这些制度在人类与算法的准确性之间是不对称的。
使用潜在的不当药物(PIMS),并用作提高质量并提高患者安全的机制。这种快速响应的目的是总结有关使用deprable的最新文献来改善老年人(年龄≥65岁)的药物使用安全性。•我们的文献搜索确定了自2019年以来发表的15项系统评价和7项原始研究,评估了对改善结果的干预措施的有效性。除原始研究之一以外的所有研究都是一项随机试验。•包括但不限于全面的药物审查,患者教育,提供者教育和临床决策支持系统的分类干预措施。在整个护理连续性的医疗保健环境中进行了研究,包括门诊诊所,急诊科,急诊医院,长期护理设施和社区药房。药剂师通常包括在干预措施中。•由于异质性,很少有系统的评论能够定量合成发现。结合了原始研究的发现,通常减少药物数量或可能不当的药物。临床结果的变化更大,发现结果矛盾或具有非统计学意义的结果。很少有不良药物提取事件是由于干预措施而导致的。•有大量有关障碍和促进者的文献,以实施不分解干预措施。潜在的影响力的促进者包括患者和临床医生的同意,以分类的标准化过程,减少药物使用的强大文化/动机以及专业团队的参与。
2。NCSC,“ NCSC年度评论2023',2023年11月14日,,2023年12月3日访问。3。丹·米尔莫(Dan Milmo),‘谁是英国勒索软件袭击的最新浪潮?',《卫报》,2023年9月14日。4。Zach Simas,“解开Moveit违规:统计和分析”,Emsisoft,2023年7月18日, emsisoft.com/en/blog/44123/unpacking-the-moveit-breach-statistics-and-analysis/>,2023年12月3日访问。 5。 James Sillars,‘BA,BBC和靴子,被网络安全违反了与联系和银行详细信息所揭露的,Sky News,2023年6月5日。 6。 Intel471,“来自Clop的Moveit勒索攻击的见解”,2023年6月22日,,于2023年12月3日访问。。 7。 Jamie MacColl等人,“网络保险和勒索软件挑战赛”,Rusi偶尔论文(2023年7月)。 8。 BlackFog,“勒索软件2023”,2023年11月,,2023年12月3日。 9。 MalwareBytes, ‘The 2023 State of Ransomware in Education: 84% Increase in Attacks Over 6-Month Period', 5 June 2023, 2023年12月3日访问。 10。 Sam Sabin,“勒索软件帮派零零,在资源不足的美国城镇”,Axios,2023年5月16日,emsisoft.com/en/blog/44123/unpacking-the-moveit-breach-statistics-and-analysis/>,2023年12月3日访问。5。James Sillars,‘BA,BBC和靴子,被网络安全违反了与联系和银行详细信息所揭露的,Sky News,2023年6月5日。6。Intel471,“来自Clop的Moveit勒索攻击的见解”,2023年6月22日,,于2023年12月3日访问。7。Jamie MacColl等人,“网络保险和勒索软件挑战赛”,Rusi偶尔论文(2023年7月)。8。BlackFog,“勒索软件2023”,2023年11月,,2023年12月3日。9。MalwareBytes, ‘The 2023 State of Ransomware in Education: 84% Increase in Attacks Over 6-Month Period', 5 June 2023, 2023年12月3日访问。10。Sam Sabin,“勒索软件帮派零零,在资源不足的美国城镇”,Axios,2023年5月16日,
信息专家对包括 MEDLINE 和 Cochrane 系统评价数据库在内的关键资源进行了文献检索。搜索方法是定制的,以检索有限的结果集,平衡全面性和相关性。搜索策略包括受控词汇,例如美国国家医学图书馆的 MeSH(医学主题词)和关键词。搜索概念是根据研究问题和选择标准的要素制定的。主要搜索概念是药品短缺。应用 CADTH 开发的搜索过滤器将检索范围限制在卫生技术评估、系统评价、荟萃分析或间接治疗比较;任何类型的临床试验或观察性研究;使用常规收集数据的真实世界证据;或加拿大背景。搜索于 2023 年 9 月 13 日完成,仅限于自 2003 年 1 月 1 日以来发表的文献。
• 演习试图发现的缺陷定义明确。当演习的成功条件明确时,红队会发挥更好的作用,这样当红队成员找到以前未知的破坏系统的方法时,每个人都可以同意红队发现了一个缺陷。明确结果的例子包括获取某人的私人信息(如信用卡号)或绕过已建立的护栏(如过滤攻击性内容)。 • 它与外部团体的透明度、披露和系统访问权限相结合。红队可以成为外部团体和公众了解、评估和信任系统测试的有用机制。为了使外部团体进行的红队有效,这些团体必须对相关系统具有完全和透明的访问权限。为了帮助建立信任并使其他团体能够从已发现的问题中吸取教训,披露在此过程中发现的内容也很重要。 • 它是更广泛评估过程的一部分。红队与其他方法结合使用效果最佳,因为它只能评估特定的安全标记。当通过向外部团体开放的广泛参与流程进行时,它也可以成为识别意外故障(即“未知的未知数”)的有用机制。 • 利益相关者已承诺制定计划和资源来解决问题。当红队发现漏洞时,必须制定计划并承诺缓解已发现的问题,并且如果系统已经上线,则必须为遭受损害的人提供补救途径。
人工智能 (AI) 有可能通过提高医疗诊断和治疗的准确性和效率来彻底改变医疗保健。然而,AI 在医疗保健领域的使用也引发了人们对该技术的潜在风险和意外后果的担忧。AI 的一个活跃研究领域是可解释 AI 的开发,旨在使 AI 系统对人类更加透明和易于理解。在医疗保健领域,可解释的 AI 有可能提高患者的信任度并降低有害后果的风险。在这篇反思中,我将讨论医疗保健中的 AI 及其对我们生态系统各个方面的潜在影响。先前关于 AI 在医疗保健中影响的研究强调了这项技术的潜在好处和风险。例如,对 AI 在医学成像中使用的系统评价发现,该技术有可能提高诊断准确性并减少放射科医生之间的差异 [6]。另一项研究发现,使用 AI 预测心力衰竭死亡率可能会挽救生命并降低医疗成本 [7]。然而,其他研究也对人工智能在医疗保健领域的潜在风险提出了担忧,包括与数据隐私、偏见和算法透明度相关的问题 [1、3]。可解释的人工智能已经成为解决其中一些问题的潜在解决方案,因为它使人工智能系统对人类更加透明和易于理解。例如,最近的一项研究发现,如果患者能够理解人工智能系统如何做出决定,他们更有可能信任人工智能系统做出的医疗诊断 [4]。其他研究发现,可解释的人工智能可以帮助识别和减轻人工智能系统中的偏见,提高公平性,减少
算法和数据驱动系统越来越多地用于公共部门,以提高现有服务的效率或通过新发现的处理大量数据的能力提供新服务。不幸的是,某些情况也会对公民产生负面影响,表现为歧视性结果、武断决定、缺乏追索权等等。这些对公民产生了严重影响,从物质伤害到心理伤害。这些伤害部分来自设计过程中的选择和互动。现有的技术设计批判性和反思性框架没有解决公共部门系统设计中几个重要的方面,即在潜在的算法危害面前保护公民、确保系统安全的机构设计,以及对权力关系如何影响这些系统的设计、开发和部署的理解。本次研讨会的目标是发展这三个观点,并朝着公共组织内反思性设计过程迈出下一步。研讨会将分为两部分。在上半部分,我们将通过一系列简短的演讲阐述这些观点的概念基础。研讨会参与者将通过了解哪些机构可以支持系统安全以及权力关系如何影响设计过程,学习在社会技术系统中防止算法危害的新方法。在下半部分,参与者将有机会通过分析真实案例来应用这些视角,并反思将概念框架应用于实践的挑战。