摘要:尽管美国变得越来越多样化,但生成的人工智能和相关技术威胁到破坏真正的代表性民主。剩下的,AI将加剧现有的现有挑战,例如种族两极分化,文化焦虑,反民主态度,种族投票稀释和抑制选民。合成视频和音频(“ Deepfakes”)受到大多数流行的关注,但只是冰山一角。对种族量身定制的虚假信息,自动选举管理中的种族偏见,种族针对性的网络攻击以及AI驱动的监视的微靶向,这使种族正义声称只是AI如何威胁民主国家的一些例子。不幸的是,现有法律(包括《投票权法》)不太可能应对挑战。但是,如果政策制定者,激进主义者,
虽然美国的种族多元化程度正在提高,但生成性人工智能和相关技术却有可能破坏真正的代议制民主。如果不加以控制,人工智能将加剧现有的重大挑战,例如种族两极分化、文化焦虑、反民主态度、种族选票稀释和选民压制。合成视频和音频(“深度伪造”)受到了大部分公众的关注,但这只是冰山一角。针对种族的微定位虚假信息、自动选举管理中的种族偏见、歧视性投票限制、针对种族的网络攻击以及阻碍种族正义主张的人工智能监控只是人工智能威胁民主的几个例子。不幸的是,现有法律(包括《投票权法案》)不太可能应对这些挑战。然而,如果政策制定者、活动家和技术公司立即采取行动,这些问题并非不可克服。本文主张对人工智能进行监管,以促进种族包容的民主,提出了为监管人工智能提供框架的新原则,并提供了具体的政策干预措施来说明这些原则的实施。尽管种族是影响美国投票模式的最重要人口因素,但这是第一篇全面识别人工智能对民主造成的种族危害并提出前进方向的文章。
• 演习试图发现的缺陷定义明确。当演习的成功条件明确时,红队会发挥更好的作用,这样当红队成员找到以前未知的破坏系统的方法时,每个人都可以同意红队发现了一个缺陷。明确结果的例子包括获取某人的私人信息(如信用卡号)或绕过已建立的护栏(如过滤攻击性内容)。 • 它与外部团体的透明度、披露和系统访问权限相结合。红队可以成为外部团体和公众了解、评估和信任系统测试的有用机制。为了使外部团体进行的红队有效,这些团体必须对相关系统具有完全和透明的访问权限。为了帮助建立信任并使其他团体能够从已发现的问题中吸取教训,披露在此过程中发现的内容也很重要。 • 它是更广泛评估过程的一部分。红队与其他方法结合使用效果最佳,因为它只能评估特定的安全标记。当通过向外部团体开放的广泛参与流程进行时,它也可以成为识别意外故障(即“未知的未知数”)的有用机制。 • 利益相关者已承诺制定计划和资源来解决问题。当红队发现漏洞时,必须制定计划并承诺缓解已发现的问题,并且如果系统已经上线,则必须为遭受损害的人提供补救途径。
IV.I .算法问责法案 15 IV.II .政府机构算法 17 IV.III .华盛顿州人工智能偏见立法 17 IV.IV .加利福尼亚州人工智能偏见立法 18 IV.V .伊利诺伊州人工智能偏见立法 19 IV.VI .面部识别技术 19 IV.VII .联邦人工智能偏见立法 20 V. 与人工智能偏见相关的案件 21 V. I .预测警务 21 V. II .教育 24 V. III .就业 25 V. IV .医疗保健 26 VI.需要算法责任理论 28 VI.I .技术能力义务 28 VI.II .平台注意义务 29 VI.III .侵权法 30 VII。拟议的算法注意义务 31 VII。I。司法管辖权 32 VII。II。算法审计 34 VII。III。联邦贸易委员会作为数据保护机构 34 VII。IV。团体数据和集体诉讼 36 VII。V。拟议的注意义务的持续发展 39 VIII。结论和局限性 40 VIII.I .拟议的算法注意义务的局限性 40 VIII.II .当前对可解释性的强调 42 VIII.III .算法危害诉讼的成功衡量标准 42 IX.引用的作品 44
执行摘要 在过去的三十年中,技术进步彻底改变了我们生活的各个方面,既有优点也有缺点。一个重大挑战是网络技术和数字设备的成瘾性。本报告讨论了网络视频游戏和赌博的过度和成瘾性,世界卫生组织现已将其视为精神障碍。与这些行为相关的风险超出了个人福祉,影响身心健康、人际关系、工作、教育和财务状况。此外,社会成本也很高。患病率表明,很大一部分人口处于危险之中,特别是男性、青少年和年轻人。这些问题的发展受到活动特征、个人特征和环境因素的影响。故意将在线活动设计为沉浸式和令人上瘾,加剧了这一问题。此外,赌博和游戏的融合,具有付费随机结果等功能,模糊了界限,针对弱势群体,包括儿童和年轻人。缺乏监管,特别是在视频游戏行业,减少未成年人过度游戏的措施效果有限。经济利益往往与解决赌博问题行为的努力相冲突。预防计划,特别是针对青少年的计划,至关重要,应注重社会支持和持续效果。虽然存在预防、治疗和危害最小化措施,但它们对在线形式和新人群的有效性需要进一步研究和实施。与行业的合作对于有效减少危害、预防和干预至关重要。需要持续监测以识别新出现的挑战并及时做出反应。应对不断变化的在线赌博和游戏格局需要采取多方面的方法,包括研究、监管、预防、治疗和行业合作。在各个层面优先考虑有效措施对于减轻对个人的伤害并降低数字时代与成瘾行为相关的社会成本至关重要。本报告重点关注过度和上瘾使用在线视频游戏和在线赌博,世界卫生组织在《国际疾病分类》第十一次修订版(ICD-11)中将其宣布为精神障碍。
人工智能 (AI) 有可能通过提高医疗诊断和治疗的准确性和效率来彻底改变医疗保健。然而,AI 在医疗保健领域的使用也引发了人们对该技术的潜在风险和意外后果的担忧。AI 的一个活跃研究领域是可解释 AI 的开发,旨在使 AI 系统对人类更加透明和易于理解。在医疗保健领域,可解释的 AI 有可能提高患者的信任度并降低有害后果的风险。在这篇反思中,我将讨论医疗保健中的 AI 及其对我们生态系统各个方面的潜在影响。先前关于 AI 在医疗保健中影响的研究强调了这项技术的潜在好处和风险。例如,对 AI 在医学成像中使用的系统评价发现,该技术有可能提高诊断准确性并减少放射科医生之间的差异 [6]。另一项研究发现,使用 AI 预测心力衰竭死亡率可能会挽救生命并降低医疗成本 [7]。然而,其他研究也对人工智能在医疗保健领域的潜在风险提出了担忧,包括与数据隐私、偏见和算法透明度相关的问题 [1、3]。可解释的人工智能已经成为解决其中一些问题的潜在解决方案,因为它使人工智能系统对人类更加透明和易于理解。例如,最近的一项研究发现,如果患者能够理解人工智能系统如何做出决定,他们更有可能信任人工智能系统做出的医疗诊断 [4]。其他研究发现,可解释的人工智能可以帮助识别和减轻人工智能系统中的偏见,提高公平性,减少
目前,《隐私法》尚未包含对儿童或其他弱势群体的任何特定保护,也不包含对公平处理个人信息的任何一般要求。从广义上讲,它基于通知,同意和目的的一致性对数据收集和处理施加限制。一般而言,《隐私法》中的《澳大利亚隐私原则》(APP)允许收集和处理个人信息,包括儿童和其他弱势群体的个人信息,只要通过合理的步骤遵守指定事项的合理步骤,以及是否存在指定问题的透明度,以及是否存在可访问的隐私政策以及足够的合法性基础和数据收集和处理。就使用和披露而言,法律依据通常需要与收集或同意的目的一致。同意主要是在信息中符合“敏感信息”的主要内容,尽管它隐含地基于要求直接从个人直接收集数据的要求。这些应用程序的前提是假设个人能够提供知情同意,并且通知要求足以告知同意。因此,这些规定为解决儿童和其他弱势个人的保护提供了逻辑上的起点。
高博士是一名肿瘤内科医生,美国食品药品管理局 (FDA) 肿瘤卓越中心 (OCE) 教育副主任,以及肿瘤疾病办公室临床审查政策代理副主任。她获得了哈佛大学的本科学位,并作为 J. William Fulbright 研究员在德国波恩工作了一年,之后在布朗大学阿尔珀特医学院完成了医学学位。高博士在麻省总医院完成了内科实习和住院医师培训,随后在美国国家癌症研究所 (NCI) 获得肿瘤内科医生的奖学金,并担任首席研究员。2016 年,高博士加入 FDA,担任乳腺癌团队的肿瘤学家。在 2019 年担任 OCE 现任职务之前,她曾担任代理乳腺团队负责人。她目前领导 OCE 苏格拉底计划下的教育计划,并共同领导 OCE 的公共卫生计划“更新计划”,旨在更新旧肿瘤药物的产品标签。她还参与了 OCE 公平计划,重点关注亚裔美国人、夏威夷原住民和其他太平洋岛民的癌症患者。
我们的法律长期以来一直保护孩子免受社会确定的事物有害或缺乏应付成熟和经验的危害。儿童无法理解并充分理解风险和生活影响(包括永久性不育),这是由于接受青春期阻滞剂,跨性别激素和剧烈的外科手术而导致的。如果孩子缺乏签订合同,投票,购买酒精甚至得到纹身的成熟度,他们如何才能成熟以同意实验性,不可逆转的医疗程序,从而导致永久性绝育?这就是为什么肯塔基州应采取行动保护孩子和父母免于受到意识形态和经济上动机的性别诊所的压力,以同意这些有害的实验程序。
1 A.9.10; “该法案的第231节中定义了主动技术。 从广义上讲,这是指:(i)“内容识别技术”,但除外1 A.9.10; “该法案的第231节中定义了主动技术。从广义上讲,这是指:(i)“内容识别技术”,但