正如隐私和安全法区分处理消费者个人数据的不同类型的公司一样,区分开发者和部署者可确保法律框架根据公司在 AI 生态系统中的角色准确地为其分配义务。因此,公司能够更好地履行这些义务并更好地保护消费者。例如,开发人员可以描述用于训练 AI 系统的数据的特征,但通常无法了解在另一家公司购买和实施 AI 系统后 AI 系统的使用方式。相反,使用该系统的部署者通常最有能力了解 AI 系统的使用方式、该使用是否符合其预期用途、是否以及如何纳入人工监督、AI 系统的输出、收到的任何投诉以及影响系统性能的现实因素。
注意:这是一份“动态文件”,将每年更新以反映有关技术和预算的新信息。此版本的日期为 2022 年 12 月 15 日,由国家公园管理局、美国鱼类和野生动物管理局、美国地质调查局和夏威夷原住民关系办公室制定并已批准共享。该文件确定了有助于为联邦预算制定过程提供信息的潜在投资机会,但它不是预算文件,并不意味着批准任何具体行动或投资。文件中包含的所有活动和建议都受制于资源限制和作为年度预算制定过程一部分的优先事项权衡,以及国会提供的拨款的可用性。
摘要在治疗逃生维护的问题行为时使用灭绝程序可能是不希望的,并且不切实际地使用从业者使用。为了减轻与逃生灭绝相关的风险,我们探讨了延迟加强令牌系统的有效性,而无需在学校和家庭环境中使用灭绝,以治疗自闭症谱系障碍学生的逃生维护的问题行为。代替逃生灭绝(例如,阻止),研究人员实施了30 s的休息,以问题行为和令牌(将在会议结束时交换)逐渐遵守依从性。多个探针设计的结果表明,所有四个参与者的依从性和问题行为的减少大幅增加。这些发现表明,消除自闭症儿童的逃脱维护的问题行为并不是必需的。
量子密钥分发 (QKD) [1,2] 开创了两个远距离通信方 (通常称为 Alice 和 Bob) 在窃听者 (称为 Eve) 面前共享密钥的全新方式。自第一个 QKD 协议——BB84 协议 [1] 提出以来,QKD 已成为量子信息技术的关注焦点 [3,4]。QKD 的无条件安全性已通过不同方法得到证明 [5–7],该安全性由量子力学定律保证。在传统的 BB84 协议之后,各种类型的新型 QKD 协议相继被提出。其中,高维量子密钥分发 (HD-QKD) 因具有在单个光子上编码多个比特的出色能力以及对信道噪声的强容忍度而备受关注。在高维量子密钥分发系统中,信息被编码在量子态的高维自由度上,如时间能量纠缠[8–10]、时间箱编码[11,12]、路径[13,14]和轨道角动量[15–17]。HD-QKD协议的安全性证明也已建立[18–20]。随着高维量子态制备和测量技术的发展,近年来不同的HD-QKD方案取得了许多突破性的成果[21–23]。其中,基于时间箱的HD-QKD方案[11,23]实现了创纪录的密钥速率,并且可以抵御一般的相干攻击。不幸的是,现实的QKD系统中的实际设备往往存在缺陷,很少符合理论安全模型[24,25]。因此,QKD的理论和实践之间始终存在差距。在过去的几十年里,QKD系统的实用安全性得到了广泛的研究。窃听者可以窃取
(1) 本部分对油船的要求适用于载运闪点不超过60°C(闭杯试验,经认可的闪点仪测定)且雷德蒸气压低于大气压的原油或石油产品或具有类似火灾危险的其他液体产品的油船。(2) 如果拟载运除上述(1)所述以外的其他液体货物或可能引起额外火灾危险的液化气体,则应适当考虑IBC规则、BC规则、IGC规则和GC规则的规定,采取额外的安全措施。(A) 闪点低于60°C的液体货物,且符合FSS规则的常规泡沫灭火系统无效,则在本条款中被视为可能引起额外火灾危险的货物。需要采取以下额外措施:(a) 泡沫应为抗酒精型;(b) 化学品船使用的泡沫浓缩液类型应符合本船级社的要求,同时考虑到国际海事组织制定的指南;(c) 泡沫灭火系统的容量和使用率应符合
明智,印度简和帕斯卡·鲍里(Pascal Borry)。“基于CRISPR的消除冈比亚的消除对抗疟疾的道德概述”。生物伦理研究期刊(2022):10。10
乔治城大学法学院法学教授。作者非常感谢三位杰出研究助理 Danielle B. Ellison、Perry R. Cao 和 Ryan M. Pereira 的大力支持,以及研究图书管理员 Jeremy McCabe 的出色协助。还要特别感谢以下朋友和同事对本文的先前草稿慷慨地提出评论:Almudena Azcárate Ortega、Jack M. Beard、Laurie R. Blank、Michael R. Cannon、Karl Chang、David E. Graham、Peter Hulsrøj、Christopher D. Johnson、David S. Jonas、Matthew T. King、Steven A. Mirmina、James A. Schoettler、Gary D. Solis、Dale Stephens、Matthew Stubbs、Kieran R.J. Tinkler 和 Brian Weeden。这项工作也受益于作者参与 Woomera 手册项目。当然,任何错误或遗漏的责任仍由我承担。本文表达的观点不一定代表美国国防部、美国政府或任何其他实体的观点。
摘要:近年来,人工智能 (AI) 安全在各种安全关键和道德问题的影响下获得了国际认可,这些问题有可能掩盖 AI 的广泛有益影响。在此背景下,AI 观测站工作的实施代表了一个关键的研究方向。本文提出了一种跨学科的 AI 观测站方法,将各种回顾性和反事实观点融为一体。我们利用具体的实际例子提供实用建议,同时阐明目标和局限性。区分无意和有意触发的具有不同社会心理技术影响的 AI 风险,我们举例说明了回顾性描述性分析,然后是回顾性反事实风险分析。基于这些 AI 观测站工具,我们提出了近期的跨学科 AI 安全指南。作为进一步的贡献,我们通过两个不同的现代人工智能安全范式的视角讨论了差异化和量身定制的长期方向。为简单起见,我们分别用术语人工智能愚蠢(AS)和永恒创造力(EC)来指代这两个不同的范式。虽然 AS 和 EC 都承认需要采用混合认知情感方法来确保人工智能安全,并且在许多短期考虑方面存在重叠,但它们在多个设想的长期解决方案模式的性质上存在根本区别。通过汇编相关的潜在矛盾,我们旨在为实践和理论人工智能安全研究中的建设性辩证法提供面向未来的激励。
作者:Z Huang · 2020 · 被引用 5 — 5,2018;美国国防部 (DoD),“帕内塔部长就网络安全问题发表讲话。纽约市国家安全局企业高管网络安全问题”,12 ...