我们表明,存在一个统一的量子甲骨文,相对于量子承诺的存在,但没有(有效验证)单向状态发生器。两者都被广泛认为是替换单向函数作为密码学的最小假设的候选者,这是所有计算密码学所隐含的最弱的加密假设。最近的工作表明,可以从单向状态发生器构建承诺,但另一个方向仍然开放。我们的结果排除了任何黑盒结构,因此解决了这个关键的开放问题,表明量子承诺(以及其EFI对的等效类别,量子遗漏的转移和安全的量子多部分计算)似乎在所有已知的加密原始词中都是最弱的。
深度学习 (DL) 是机器学习 (ML) 的一个子领域,专注于开发深度神经网络 (DNN) 模型 (Shahroudnejad,2021)。DNN 是能够在各种任务上实现高性能的复杂模型。许多深度神经网络模型都是不可解释的黑匣子,这通常导致用户对它们的信任度降低 (Miller,2019)。这种可解释性和信任度的缺乏可能会产生负面影响——人们可能会使用会犯错误的人工智能,或者不使用可以提高获得期望结果的机会的人工智能。为了提高黑盒模型的可解释性和可信度,可解释人工智能 (XAI) 研究专注于开发方法来以人类可以理解的方式解释这些模型的行为 (Molnar,2020)。
在这里,我们假设消息空间具有超多项式大小(否则,无法实现OW安全性)。在任何这些含义中,攻击者(a 0,a 1)赢得OW-ATK游戏(以黑盒方式)可以转换为另一个(b 0,b 1)赢得IND-ATK游戏。的确,b 0运行st a←a d 0 0(pk)(或仅将st a设置为空字符串,如果atk = cpa),然后选择两个随机差异消息m 0,m1∈PKE.Mpk,然后输出(m 0,m 1,st),其中st =(st a,m 0,m 0,m 0,m 1,m 1)。在第二阶段,B 1使用接收到的sT A和挑战c ∗运行A 1(或A,如果ATK = CPA)。然后将A的输出M'与M 1进行比较。它们等于B 1输出1。否则,它输出0。
在当今的数字时代,网络威胁的激增使得部署先进的安全措施以保护敏感数据和关键基础设施成为必要。人工智能 (AI) 已成为网络安全领域的变革性工具,推动了能够实时识别和缓解潜在安全漏洞的复杂入侵检测系统 (IDS) 的开发。人工智能驱动的 IDS 利用机器学习算法来检测表明恶意活动的异常和模式,从而提高威胁检测的速度和准确性 (Hussain et al., 2021)。然而,对复杂的“黑盒”人工智能模型的日益依赖引发了人们对其透明度和可信度的重大担忧,尤其是在网络安全等关键应用中 (Zhang et al., 2020)。问题陈述
在医疗保健等领域,AI有助于医学诊断,药物发现和个性化治疗建议[2]。同样,在金融市场中,AI驱动算法有助于高频交易,风险评估和欺诈检测[3]。在自动驾驶汽车和机器人技术中的AI部署增强了导航,对象识别和实时决策能力[4]。然而,尽管AI在决策中的潜力是巨大的,但与模型可解释性,可信度和道德考虑有关的挑战仍然存在[5]。一个主要问题是依赖黑盒深度学习模型,尽管它们令人印象深刻,但他们的决策过程缺乏透明度[6]。这种不透明度导致人们对AI应用程序中的公平性,问责制和法规合规性的关注日益加剧[7]。
摘要。本文提出了第一个有效的量子版本密钥恢复攻击,该攻击基于不可能差分,是之前工作中未解决的问题。这些攻击分为两个阶段。首先,通过解决有限生日问题收集大量差分对,将受攻击的分组密码视为黑盒。其次,根据部分密钥候选对这些差分对进行过滤。我们展示了如何将对过滤步骤转换为量子程序,并对其复杂性进行了完整的分析。如果可以适当地重新优化攻击路径,则此过程可以相对于经典攻击显著加速。我们在 SKINNY -128-256 和 AES-192/256 上提供了两个应用程序。这些结果不会威胁这些密码的安全性,但可以让我们更好地了解它们的(后量子)安全裕度。
采用 AI 应用程序的一个关键要素是算法的可解释性、过度拟合和可重复性。具体而言,AI 模型受到可解释性或黑盒限制的影响,因为它们依赖于复杂的非线性、多维决策边界。这些模型还存在过度拟合的问题,可以识别医学图像中完全不相关的强目标相关伪影,导致泛化能力差。因此,得出误导性预测的可能成本反而非常高昂且耗时。因此,必须使用最先进的技术来识别 AI 模型中的任何这些问题。例如,激活图(也称为加热图)显示了模型在使用亮度进行预测时关注的内容。因此,它可以突出显示每个预测的关注领域,这可能有助于人类理解 AI 模型用于得出结果的过程。
问题:以后生活的年代老化与脑退化过程以及中风和痴呆等疾病的风险增加有关。随着衰老人群的趋势,寿命,心理健康和精神病研究的增加,人们越来越关注理解与大脑相关的衰老变化。最近的发现表明脑年龄差距(按时间年龄和大脑成像指数预测的脑年龄之间的差异);间隙的大小可能表明脑老化过程和疾病的早期发作。人工智能允许在年代和预测的脑时代的差距上缩小差距。但是,驱动大脑年龄预测模型预测的因素仍然未知,并且这些因素并不多,这些因素可以从机器学习模型的黑盒本质中收集。本研究的目的是测试一种大脑年龄回归方法,该方法更适合研究人员和临床医生的解释。
本文提出了可解释的(𝑥折),这是蛋白质结构预测的解释AI框架。尽管基于AI的方法(例如Alphafold(𝛼倍))在该领域取得了成功,但由于深度学习模型的黑盒性质,其预测的根本原因尚不清楚。为了解决这个问题,我们提出了一个受生物学原理启发的反事实学习框架,以生成针对蛋白质结构预测的反事实解释,从而实现了一种干LAB实验方法。我们的实验结果表明,外观折叠对Alphafold的预测产生高质量解释的能力,从而对氨基酸对3D蛋白质结构的影响几乎有实验的理解。该框架有可能促进对蛋白质结构的深入了解。源代码和解释性项目的数据可在https://github.com/rutgerswiselab/explainablefold上找到。