摘要:人们越来越认识到人工智能 (AI) 的政治、社会、经济和战略影响的重要性。这引发了有关人工智能编程、使用和监管的重要伦理问题。本文认为,人工智能的编程和应用本质上都是 (顺) 性别化、性化和种族化的。毕竟,人工智能是由人类编程的,因此,谁来训练人工智能、教它学习以及这样做的伦理问题对于避免 (顺) 性别化和种族主义刻板印象的重现至关重要。本文的实证重点是欧盟资助的 iBorderCtrl 项目,该项目旨在通过实施多种基于人工智能的技术(包括面部识别和欺骗检测)来管理安全风险并提高第三国国民的过境速度。本文汇集了 1) 风险与安全 2) 人工智能与道德/移民/庇护以及 3) 种族、性别、(不)安全与人工智能等领域的文献,探讨了谎言检测对常规过境和难民保护的影响,概念重点关注性别、性取向和种族的交叉点。我们在此认为,iBorderCtrl 等人工智能边境技术存在重大风险,不仅会进一步边缘化和歧视 LGBT 人士、有色人种和寻求庇护者,还会强化现有的非入境做法和政策。
HAL 是一个多学科开放存取档案库,用于存放和传播科学研究文献,无论这些文献是否已出版。这些文献可能来自法国或国外的教学和研究机构,也可能来自公共或私人研究中心。
摘要 在快速发展的无线通信领域,即将到来的 6G 网络有望彻底改变我们的通信方式,提供无与伦比的速度、最小的延迟和无缝连接。然而,在这一演变过程中,人们最关心的仍然是穿越这些网络的数据的安全性和隐私性。传统的集中式人工智能 (AI) 技术已经难以跟上未来 6G 网络的海量数据,并应对日益增长的隐私担忧。联邦学习 (FL) 是可信人工智能 (TAI) 的关键推动因素,它使分布式网络节点能够参与人工智能训练,而无需交换原始数据,从而降低了与集中式数据处理相关的风险。在本文中,我们对 FL 在增强 6G 网络安全性方面的潜力进行了全面的调查。特别是,我们首先提供有关 5G 网络和 FL 的必要背景知识,为理解它们当前和未来的影响奠定基础。然后,我们探讨 5G 网络中 FL 应用的当前最新进展及其与 6G 未来威胁形势的相关性。随后,我们研究了 FL 系统的固有漏洞、5G 网络背景下针对 FL 的主要攻击以及相应的防御机制。最后,我们讨论了先进的 FL 技术和概念的集成,以增强 6G 网络的网络安全和隐私,旨在涵盖即将到来的 6G 威胁形势背景下 FL 的所有方面和未来前景。
作者:Alice Lunardon 1*、Weronika Patena 1*、Cole Pacini 1、Michelle Warren-Williams 1、Yuliya Zubak 1、Matthew Laudon 2、Carolyn Silflow 2、Paul Lefebvre 2、Martin Jonikas 1,3 1 普林斯顿大学,新泽西州,美国;2 明尼苏达大学,明尼苏达州,美国;3 霍华德休斯医学研究所 * 这些作者贡献相同。摘要。莱茵衣藻(以下简称衣藻)是研究光合作用、纤毛运动和其他细胞过程的有力模式生物 [1–4]。已映射的核随机插入突变体的 CLiP 文库 [5,6] 通过提供目标基因的突变体,加速了数百个实验室在这些领域的进展。然而,由于其对高置信度破坏等位基因的基因组覆盖率有限(46% 的核蛋白编码基因在外显子/内含子中具有 1+ 高置信度等位基因;12% 的基因在外显子/内含子中具有 3+ 等位基因),因此其价值受到限制。我们在此介绍 CLiP2(衣藻文库计划 2)文库,它大大扩展了可用的已映射高置信度插入突变体的数量。CLiP2 文库包含 71,700 个菌株,覆盖 79% 的核蛋白编码基因在外显子/内含子中具有 1+ 高置信度等位基因,以及 49% 的基因在外显子/内含子中具有 3+ 等位基因。社区可通过衣藻资源中心获取突变体。
基于模型的系统工程 (MBSE) 的核心是“从概念设计阶段开始并贯穿整个开发和后续生命周期阶段的建模形式化应用,以支持系统需求、设计、分析、验证和确认活动”(INCOSE,2007)。因此,MBSE 提倡“使用模型来执行传统上使用文档执行的系统工程活动”(Mann,2009)。这促进了对复杂系统工程过程的理解,包括人工智能 (AI) 系统工程作为一个多工程过程 (Mattioli 等人,2023d)。然而,MBSE 的成功应用需要对 ISO/IEC DIS 30145-2 标准定义的 AI 可信度进行评估,即“以可验证的方式满足利益相关者期望的能力”。事实上,如果在开发早期阶段没有对可信度进行评估,那么在航空电子、移动、医疗保健和国防等安全关键系统中部署人工智能组件就会变得有风险 (Mattioli 等人,2023b)。鉴于此,量化基于人工智能的系统可信度成为热门话题也就不足为奇了 (Braunschweig 等人,2022)。人工智能
Web 代理的最新进展引入了新颖的架构和基准,展示了自主 Web 导航和交互方面的进展。然而,大多数现有基准优先考虑有效性和准确性,而忽略了安全性和可信度等因素——这两者都是部署企业环境中的 Web 代理所必需的。我们提出了 ST-WebAgentBench,这是一个基准,旨在评估 Web 代理在六个关键维度上的安全性和可信度,这对于企业应用程序的可靠性至关重要。该基准基于一个详细的框架,该框架定义了安全和可信 (ST) 代理行为。我们的工作扩展了 WebArena,增加了安全模板和评估功能,以严格评估安全政策合规性。我们引入了“按政策完成”来衡量在遵守政策的同时完成任务的成功程度,以及“风险比率”,它可以量化各个维度的政策违规行为,从而提供可行的见解来解决安全漏洞。我们的评估表明,当前的 SOTA 代理在遵守政策方面存在困难,尚不能依赖它来处理关键业务应用程序。我们开源此基准并邀请社区做出贡献,目标是培育新一代更安全、更值得信赖的 AI 代理。所有代码、数据、环境复制资源和视频演示均可在 https://sites.google.com/view/st-webagentbench/home 上找到。
本文提出了对AI可信度的正式描述,并在操作示意图中连接了内在和感知的可信度。我们认为,可信度超出了AI系统的固有功能,包括观察者的看法,例如感知到的透明度,代理基因座和人类的监督。在文献中讨论了感知到的可信度的概念,但很少有尝试将其与AI系统的内在可信度联系起来。我们的分析引入了一种新颖的示意图,以评估预期和观察到的行为之间的差异以及这些如何影响感知的不确定性和信任,以量化可信度。本文考虑了感知和内在特征,为衡量可信赖性提供了形式化。通过详细说明影响信任的因素,本研究旨在促进更具道德和广泛接受的AI技术,以确保它们符合功能和道德标准。
“凭借经验、表现和测试,您已晋升为首席军士长。在美国海军——而且只有在美国海军——E7 军衔具有独特的责任和特权,您需要履行并必须遵守。您的整个生活方式都发生了变化。对您的期望会更高;对您的要求也会更高。不是因为您是 E7,而是因为您现在是一名首席军士长。”
近年来,人工智能技术不断取得显著进展,已广泛应用于社会的各个方面。特别是在图像处理领域,发展迅速的先进生成式人工智能技术已使人们能够轻松创建与真实照片具有相同细节水平的生成和处理图像。它已成为一种强大的工具,通过可视化难以拍摄或实际上不存在的事件来增强我们的理解和认识。在数码相机中,此类人工智能技术用于拍摄时的场景检测、图像识别和图像处理,不仅有助于提高图像质量,而且还可以在传统技术难以捕捉的情况下捕捉高质量的图像和视频。正如这些例子所示,人工智能技术在数码相机中的应用有望进一步扩大图像/视频在社会中应用的可能性。另一方面,生成式人工智能技术的进步使人们能够轻松且廉价地创建与数码相机拍摄的图像和视频无法区分的高清图像和视频,通过传播虚假图像和视频来诱导舆论已成为一个社会问题。此外,数码相机的 AI 图像处理可能会无意中记录与真实事件不同的图像和视频,这可能会根据图像和视频的预期用途造成问题。这些都是与数码相机拍摄的图像和视频的可信度相关的问题,也是相机制造商不能忽视的风险因素,他们一直致力于提高“捕捉真相”的能力。