用于磁共振成像 (MRI) 的单图像超分辨率 (SISR) 重建引起了人们的极大兴趣,因为它不仅可以加快成像速度,还可以改善可用图像数据的定量处理和分析。生成对抗网络 (GAN) 已被证明在图像恢复任务中表现良好。在这项工作中,我们遵循 GAN 框架并开发了一个与鉴别器相结合的生成器来解决 T1 脑 MRI 图像上的 3D SISR 任务。我们开发了一种新颖的 3D 内存高效的残差密集块生成器 (MRDG),其在 SSIM(结构相似性)、PSNR(峰值信噪比)和 NRMSE(归一化均方根误差)指标方面实现了最先进的性能。我们还设计了一个金字塔池化鉴别器 (PPD) 来同时恢复不同尺寸尺度上的细节。最后,我们引入了模型混合,这是一种简单且计算效率高的方法,可以平衡图像和纹理
IL-27 是 IL-6/IL-12 细胞因子超家族的成员,主要由抗原呈递细胞分泌,特别是树突状细胞、巨噬细胞和 B 细胞。IL-27 具有抗病毒活性,可调节针对病毒的先天和适应性免疫反应。IL-27 在病毒感染环境中的作用尚不明确,促炎和抗炎功能均有描述。在这里,我们讨论了 IL-27 在几种人类疾病病毒感染模型中的作用的最新进展。我们重点介绍了 IL-27 表达调控的重要方面、感染不同阶段的关键细胞来源及其对细胞介导免疫的影响。最后,我们讨论了在人类慢性病毒感染的背景下更好地定义 IL-27 的抗病毒和调节(促炎与抗炎)特性的必要性。
摘要。网络安全的进步对于一个国家的经济和国家安全至关重要。随着数据传输和存储的指数增加,迫切需要新的威胁检测和缓解技术。网络安全已成为绝对的必要性,每天每天都有越来越多的传输网络,导致数据存储在服务器上的数据的指数增长。为了阻止将来的复杂攻击,有必要定期更新威胁检测和数据保存技术。生成对抗网络(GAN)是一类无监督的机器学习模型,可以生成合成数据。gan在基于AI的网络安全系统中变得重要,例如入侵检测,隐肌,密码学和异常检测。本文对将gans应用于网络安全的研究进行了全面综述,包括对这些研究中使用的流行网络安全数据集和甘恩模型架构的分析。
媒体联系人:Gina Kirchweger gina@lji.org 848.357.7481即时释放T细胞,T细胞上升以与肠道科学家的感染作斗争,展示了一个特殊的T细胞如何通过小肠里漫游,以打击ca la jolla,ca -your ut ut ut ut ut ut ut。围绕小肠排列的细胞必须平衡两个看似矛盾的工作:吸收食物中的营养,同时保持警惕的病原体试图入侵您的身体。“这是病原体可以潜入的表面,” La Jolla免疫学研究所(LJI)助理教授Miguel Reina-Campos博士说。 “对于免疫系统来说,这是一个巨大的挑战。”那么,免疫细胞如何确保肠道安全?由LJI,加州大学圣地亚哥分校的科学家领导的新研究和艾伦免疫学研究所表明,抗原病原体的免疫细胞称为组织居民记忆CD8 T细胞(T RM细胞)经历了令人惊讶的转化,并恢复了小肠中的感染。实际上,这些细胞实际上在组织中上升较高,以在病原体传播到更深,更脆弱的地区之前对抗感染。“肠道中的组织已经发展为为免疫细胞浸润提供信号 - 将免疫细胞放置在特定的地方,因此它们具有更好的阻止病原体的能力,” Reina-Campos说,他与联合首先研究的新自然研究的第一作者和UC Sanivo和UC Sanivo的Alexander Monell一起担任了新自然研究的第一作者,并获得了UC Sanivo和联合Aneror Author Author Authorian Authorian Anegianian Heeg,M.Div。 和艾伦免疫学研究所和圣地亚哥分校的Ananda W. Goldrath博士。 新发现增加了免疫细胞适应特定组织的越来越多的证据体。和艾伦免疫学研究所和圣地亚哥分校的Ananda W. Goldrath博士。新发现增加了免疫细胞适应特定组织的越来越多的证据体。Reina-campos认为这些“组织居住”的免疫细胞可能是未来癌症的特定器官肿瘤的关键参与者。
摘要 — 单独增强单个深度学习模型的鲁棒性只能提供有限的安全保障,尤其是在面对对抗性示例时。在本文中,我们提出了 DeSVig,这是一个去中心化的 Swift Vigilance 框架,用于识别工业人工智能系统 (IAIS) 中的对抗性攻击,使 IAIS 能够在几秒钟内纠正错误。DeSVig 高度去中心化,提高了识别异常输入的有效性。我们尝试使用特殊指定的移动边缘计算和生成对抗网络 (GAN) 来克服由行业动态引起的超低延迟挑战。我们工作最重要的优势是它可以显着降低被对抗性示例欺骗的失败风险,这对于安全优先和延迟敏感的环境至关重要。在我们的实验中,工业电子元件的对抗样本由几种经典的攻击模型生成。实验结果表明,DeSVig 比一些最先进的防御方法更强大、更高效、更具可扩展性。
作者:E Kim · 2020 · 被引用 29 次 — 或者,防御可以通过预处理、量化或压缩来处理模型的输入 [47, 11, 17, 19, 28]。我们的工作是独特的,不...
在这项研究中,我们评估了自主驾驶(AD)系统中增强学习的鲁棒性(RL),特别是反对对抗攻击的稳健性。我们采用了Karavolos等人提出的基于Q学习的AD模型。[1]的简单性,是我们分析的基础。此选择使我们能够在简单的Q学习方法和更复杂的RL系统之间进行明显的比较。我们设计了两个威胁模型,以模拟对基于RL的广告系统的对抗性攻击。第一个模型涉及在RL模型的细调中注入未发现的恶意代码,使其容易受到对抗性扰动的影响,这可能会导致在特定的触发条件下碰撞。第二个威胁模型旨在通过直接改变RL模型在特定触发条件下的行动决策来引起碰撞,这代表了一种更隐秘的方法。基于这些威胁模型,我们对两种主要情况的实证研究提出:操纵传感器输入和直接对动作的扰动。研究结果表明,尽管基于RL的AD系统表现出针对传感器输入操纵的弹性,但在受到直接动作扰动时它们会表现出脆弱性。主要的和宽容的场景涉及更改传感器读数,例如在偏心转弯期间,这可能会误导系统并可能导致事故。这对于小误差很大的操作至关重要。第二种情况直接扰动动作,更多地是对基于RL的AD系统脆弱性的理论研究,而不是实用的现实世界威胁。
对抗训练(AT)是提高深度神经网络鲁棒性的最常用机制。最近,一种针对中间层的新型对抗攻击利用了对抗训练网络的额外脆弱性,输出错误的预测。这一结果说明对抗训练中对抗扰动的搜索空间不足。为了阐明中间层攻击有效的原因,我们将前向传播解释为聚类效应,表征神经网络对于与训练集具有相同标签的样本的中间层表示相似,并通过相应的信息瓶颈理论从理论上证明了聚类效应的存在。随后我们观察到中间层攻击违反了 AT 训练模型的聚类效应。受这些重要观察的启发,我们提出了一种正则化方法来扩展训练过程中的扰动搜索空间,称为充分对抗训练(SAT)。我们通过严格的数学证明给出了经过验证的神经网络鲁棒性界限。实验评估表明,SAT 在防御针对输出层和中间层的对抗性攻击方面优于其他最先进的 AT 机制。我们的代码和附录可以在 https://github.com/clustering-effect/SAT 找到。