推荐系统已成为在线服务的组成部分,因为它们能够帮助用户在数据海中找到特定信息。但是,现有的研究表明,某些推荐系统容易受到中毒攻击的影响,尤其是涉及学习方案的攻击。中毒攻击是对手对训练模型进行精心制作的数据的注射,目的是操纵系统的建议。基于人工智能的最新进展(AI),此类攻击最近变得重要。目前,我们还没有关于对手为何进行这种攻击的原因,也没有全面了解这种攻击会破坏模型或可能产生的影响的全部能力。虽然已经开发了许多中毒攻击的对策,但它们尚未系统地与攻击的特性联系在一起。因此,评估缓解策略的各自的风险和潜在成功是DIICULT,即使不是不可能。这项调查旨在通过主要专注于中毒攻击及其对策来造成这一差距。这与主要关注攻击及其检测方法的先前调查相反。通过详尽的文献综述,我们为中毒攻击,形式化其维度提供了一种新颖的分类法,并因此组织了文献中描述的31次攻击。此外,我们审查了43个对策,以检测和/或防止中毒攻击,评估其针对特定类型攻击的效率。
统计歧视(例如,参见Baldus和Cole,1980年):根据群体级统计平均值而不是其个体特征,对个人进行了不同的对待。它们不是源于偏见或偏见,而是由于依赖不完美信息并将小组成员身份作为单个特征的代理而产生的。某些形式的歧视被认为是不可接受的(Hellman,2008)。Fisher(1936):根据测量特征将观测值分开或分类为不同的组。在这种情况下,歧视纯粹是一个统计操作,没有社会偏见或不平等的含义。但是,统计歧视可能导致:
对映选择性金 (I) 催化的挑战显然与活性配合物的线性几何形状有关,并且在许多情况下与对映决定步骤的外层机制有关。尽管如此,近年来可以通过空间拥挤的配体(其形成嵌入远端活性位点的深手性口袋)、双功能膦或可能通过亲金相互作用形成的双核配合物实现高对映选择性。1 另外,Toste 2 引入了手性反离子策略,其中值得注意的是 BINOL 衍生的磷酸盐在涉及阳离子金中间体的反应中充当手性诱导剂。尽管对于磷酸盐阴离子的确切机制和作用存在一些不确定性,但该策略已显示出突出的潜力,并引发了金 3,4 和其他过渡金属催化的重大进展。 5,6 在金 (I) 催化中,首次公开的分子内氢烷氧基化、氢羧化和氢胺化反应迄今为止仍然是反离子策略的主要应用领域,尽管该方法在理论上应该适用于更广泛的反应。值得注意的是,所有涉及对映体决定步骤中紧密离子对的反应都可能适用,包括那些通过碳阳离子中间体与远程中性金 (I) 单元进行的反应。这种情况可以用图 1.1 中的串联杂环化-亲核加成反应来适当地代表。7 在这种情况下以及其他情况下,手性反离子的立体化学控制受到磷酸盐-碳阳离子对的空间排列不明确和灵活的影响。我们认为可以通过以某种方式将磷酸盐反离子束缚在阳离子金复合物上来克服这个缺点(图 1.2b)。将磷酸单元连接到金配体的共价系链可能为关键中间体提供足够的几何约束和分子组织,从而实现有效的立体化学控制。如果正确实施,这种方法可能会突破对映选择性金催化以及更广泛地说对映选择性过渡金属催化中“离子配对策略”的极限。之前已经报道过在分子内嵌入阴离子的过渡金属配合物。然而在这些
a 张振浩博士、Nazarii Sabat 博士、Angela Marinetti 博士、Xavier Guinchard 博士、巴黎萨克雷大学、法国国家科学研究中心、自然化学研究所、UPR 2301, 91198、Gif-sur-Yvette、法国。电子邮件:angela.marinetti@cnrs.fr; xavier.guinchard@cnrs.fr b 张振浩博士、Gilles Frison 博士 LCM、CNRS、巴黎综合理工学院、巴黎综合理工学院、91128 Palaiseau、法国。 c Dr Gilles Frison 索邦大学,法国国家科学研究院,理论化学实验室,75005 巴黎,法国 CPA-Phos 系列新型手性磷酸官能化膦的金(I)配合物可使醛、羟胺和环状炔烯酮之间发生对映选择性多组分反应,生成 3,4-二氢-1H-呋喃并[3,4-d][1,2]恶嗪。这是金(I)催化下高度对映选择性多组分反应的第一个例子。反应在低催化剂负载下进行,产率高,总非对映选择性和对映体过量高达 99%。可应用无银条件。该方法适用范围非常广泛,既适用于脂肪族和芳香族醛和羟胺,也适用于各种环状炔烯酮,以及炔烯酮衍生的肟。据报道,DFT 计算启发了对映体控制途径。
摘要 - Crystals-kyber已被NIST标准化为唯一的密钥包裹机制(KEM)方案,以承受大规模量子计算机的攻击。但是,仍需要对即将到来的迁移进行充分考虑侧向通道攻击(SCA)。在此简介中,我们通过合并一种新颖的紧凑型洗牌建筑,为Kyber提出了安全有效的硬件。首先,我们修改了Fisher-Yates的散装,以使其更适合硬件。然后,我们为众所周知的开源kyber硬件实现设计了优化的洗牌架构,以增强所有已知和潜在的侧向通道泄漏点的安全性。最后,我们在FPGA上实施了经过修改的Kyber设计,并评估其安全性和性能。通过在硬件上进行相关能力分析(CPA)和测试向量泄漏评估(TVLA)来验证安全性。与此同时,FPGA位置和路由结果表明,与原始的未保护版本相比,建议的设计仅报告了硬件效率的8.7%降解,比现有的硬件隐藏方案要好得多。
在制定反欺诈策略时,要考虑现在和将来面临的挑战和机遇以及组织将如何改变以满足这些挑战和机遇至关重要。这可能包括不断发展的欺诈策略,新兴技术,监管变化或经济转变。该战略应预测这些发展,确定可能出现的挑战和机遇,并计划积极的措施以实现组织目标。通过彻底评估当前环境,组织可以建立清晰,可行的里程碑,从而确保进步与长期目标保持一致。
随着大型语言模型(LLM)的出现,具有越来越令人印象深刻的范围,已经提出了许多大型视觉模型(LVLM),以使LLM具有视觉输入。这样的模型在输入显示和文本提示下生成了文本,从而实现了各种用例,例如视觉问答和多模式聊天。虽然先前的研究检查了LLMS产生的文本中所包含的社会偏见,但该主题在LVLM中得到了相对尚未探索的。检查LVLMS中的社会偏见尤其具有挑战性,这是因为在文本和视觉方式中所包含的信息所产生的偏见的混乱贡献。为了解决这个挑战性问题,我们对不同的LVLM产生的文本进行了大规模研究,该文本在反事实上对输入图像进行了更改,从而从流行模型中提出了超过5700万个响应。我们的多维偏见评估框架表明,图像中描述的种族,性别和身体特征等社会属性可能会显着影响有毒内容,能力相关词,有害的立体类型以及个人的数值等级的产生。
卷积神经网络(CNN)在几十年前就无法想象的表演,这要归功于采用了数百层和近数十亿个可训练的参数的非常大的模型。然而,解释他们的决策是很不困难的,因为它们是高度非线性的,并且过度参数化。此外,对于现实生活中的应用,如果模型利用数据的伪造相关性来预测预测,则最终用户将怀疑该决定的有效性。尤其是,在医学或关键系统等高风险场景中,ML必须保证使用正确的功能来计算预测并防止伪造的关联。因此,近年来,可解释的人工智能(XAI)研究领域一直在不断发展,以了解黑盒模型中的决策机制。在本文中,我们关注事后解释方法。值得注意的是,我们对反事实解释的不断增长分支(CE)[63]。ce旨在创建输入样本的最小但有意义的扰动,以更改固定预告片模型给出的原始决定。尽管CE和对抗性示例之间的观点具有一些相似之处[44],但CE的扰动必须是可以理解和合理的。相比之下,对抗性示例[37]包含与人眼无法区分的高频噪声。总体而言,CE目标四个目标:(i)解释必须使用(ii)稀疏修改,即具有最小扰动的实例。此外,(iii)解释必须是现实的,并且可以通过