Doctor Web’s Q2 2024 virus activity review
2024 年 7 月 1 日根据 Dr.Web 反病毒软件收集的检测统计数据,在 2024 年第二季度,最常见的威胁是不需要的广告软件程序和广告软件木马,以及作为其他木马的一部分分发并用于使后者更难检测的恶意软件。在电子邮件流量中,最常检测到的是恶意脚本和各种钓鱼文档。文件受到编码器木马影响的用户最常遇到 Trojan.Encoder.3953、Trojan.Encoder.35534 和 Trojan.Encoder.26996。对于 Android 移动设备,最常检测到的威胁是 Android.HiddenAds 广告软件木马、Android.FakeApp 恶意程序和 Android.S
Doctor Web’s February 2024 virus activity review
2024 年 4 月 1 日对 2024 年 2 月 Dr.Web 反病毒检测统计数据的分析显示,与 1 月相比,检测到的威胁总数增加了 1.26%。与此同时,唯一威胁的数量减少了 0.78%。各种广告显示木马和不需要的广告软件程序再次占据了检测数量的领先地位。此外,与其他威胁一起分发以使其更难检测的恶意应用程序仍然非常活跃。在电子邮件流量中,最常检测到的是恶意脚本、网络钓鱼文档和利用 Microsoft Office 软件漏洞的程序。与上个月相比,解密受编码器木马影响的文件的用户请求数量减少了 7.02%。勒索攻击背后最常见的恶意软件是 Trojan.Encoder.3953(占事件的 18
Doctor Web’s January 2024 virus activity review
2024 年 3 月 29 日对 Dr.Web 反病毒检测统计数据的分析显示,2024 年 1 月检测到的威胁总数与 2023 年 12 月相比增加了 95.66%。同时,唯一威胁的数量增加了 2.15%。最常检测到的是不需要的广告软件和广告软件木马,以及与其他威胁一起分发的恶意程序,以使后者更难检测到。在邮件流量中,最常见的是恶意脚本和网络钓鱼文档。与 2023 年最后一个月相比,用户要求解密受编码器木马影响的文件的数量增加了 22.84%。这些恶意程序的受害者再次最常遇到 Trojan.Encoder.26996、Trojan.Encoder.3953 和 Trojan.Encoder.3
IEEE Transactions on Artificial Intelligence, Volume 5, Issue 6, June 2024
1) 特邀编辑:非平稳数据的 AutoML作者:Ran Cheng、Hugo Jair Escalante、Wei-Wei Tu、Jan N. Van Rijn、Shuo Wang、Yun Yang页数:2456 - 24572) 用于异构遥感图像中无监督变化检测的自引导自动编码器作者:Jiao Shi、Tiancheng Wu、Alex Kai Qin、Yu Lei、Gwanggil Jeon页数:2458 - 24713) 用于实时追踪水污染的学习驱动动态多模态优化算法作者:Xuesong Yan、Xing Guo、Jin Chen、Chengyu Hu、Wenyin Gong、Liang
AI can now translate brain activity into text
一个突破性的人工智能系统使用非侵入性方法和 fMRI 扫描仪数据将思想转化为连续的文本。凭借在转换人类思想内容方面取得的成功率,语义解码器为增强沟通开辟了新的可能性。
Another Exercise In Encoding Reversing
我还为这篇博文录制了一个视频。在这篇博文中,我将展示如何通过执行统计分析和猜测一些“明文”来解码以十六进制编码变体编码的有效载荷。我现在也有解码器(.NET 程序集),但在这里我将展示如何 […]
Stanford AI Lab Papers and Talks at NeurIPS 2021
第三十五届神经信息处理系统会议(NeurIPS)2021 将于 12 月 6 日至 14 日以线上方式举办。我们很高兴与大家分享 SAIL 在主会议、数据集和基准测试轨道以及各种研讨会上展示的所有工作,您可以在下面找到论文、视频和博客的链接。我们 SAIL 社区的一些成员还担任 12 月 13 日至 14 日举行的几场激动人心的研讨会的共同组织者,所以我们希望您能关注它们!欢迎直接联系联系作者和研讨会组织者,以了解斯坦福大学正在进行的工作!主会议通过将表示解码为输入来提高神经网络的组合性作者:Mike Wu、Noah Goodman、Stefano Ermon联系方式:wumike@stanf
Stanford AI Lab Papers and Talks at NeurIPS 2021
第三十五届神经信息处理系统会议(NeurIPS)2021 将于 12 月 6 日至 14 日以线上方式举办。我们很高兴与大家分享 SAIL 在主会议、数据集和基准测试轨道以及各种研讨会上展示的所有工作,您可以在下面找到论文、视频和博客的链接。我们 SAIL 社区中的一些成员还担任 12 月 13 日至 14 日举行的几场激动人心的研讨会的共同组织者,所以我们希望您能关注它们!欢迎直接联系联系作者和研讨会组织者,以了解斯坦福大学正在进行的工作!主会议通过将表示解码为输入来提高神经网络的组合性作者:Mike Wu、Noah Goodman、Stefano Ermon联系方式:wumike@stan
YOLOP: You Only Look Once for Panoptic Driving Perception
全景驾驶感知系统是自动驾驶的重要组成部分。高精度、实时的感知系统可以帮助车辆在驾驶时做出合理的决策。我们提出了一个全景驾驶感知网络(YOLOP),用于同时执行交通物体检测、可驾驶区域分割和车道检测。它由一个用于特征提取的编码器和三个用于处理特定任务的解码器组成。我们的模型在具有挑战性的 BDD100K 数据集上表现非常出色,在准确性和速度方面在所有三个任务上都达到了最先进的水平。此外,我们通过烧蚀研究验证了我们的多任务学习模型用于联合训练的有效性。
Deep Recurrent Neural Nets with Long Short Term Memory
再次。LTSM 可能正在成为循环 NN 建模中的大问题。我之前写过博客(例如这里),但我仍然不太了解它。有人了解吗?也许它只是一种避免消失梯度问题的手段(并不是说这并不重要);也许它更重要。这篇新论文写得很好,突出介绍了 LSTM。DONUT 集成组合预测方法作者:Lars Lien Ankile;Kjartan Krange摘要:本文提出了一种集成预测方法,通过减少特征和模型选择假设,在 M4Competition 数据集上显示出强劲的结果,称为 DONUT(不使用人类假设)。我们的假设减少主要由自动生成的特征和更多样化的集成模型池组成,其表现明显优于 Montero-Manso 等人(20
How Transformers work in deep learning and NLP: an intuitive introduction
对 Transformers 及其在机器翻译中的使用方式的直观理解。在逐一分析了自注意力和位置编码等所有子组件之后,我们解释了编码器和解码器背后的原理以及 Transformers 为何如此有效
FNN-VAE for noisy time series forecasting
在这个关于使用假最近邻 (FNN) 损失进行预测的迷你系列的最后一部分中,我们用卷积 VAE 替换了上一篇文章中的 LSTM 自动编码器,从而实现了相同的预测性能,但训练时间明显缩短。此外,我们发现,当底层确定性过程被大量噪声所掩盖时,FNN 正则化会大有帮助。
Time series prediction with FNN-LSTM
在最近的一篇文章中,我们展示了如何使用由假最近邻 (FNN) 损失正则化的 LSTM 自动编码器来重建非线性混沌动态系统的吸引子。在这里,我们探讨了同样的技术如何帮助进行预测。与容量相当的“原始 LSTM”相比,FNN-LSTM 可以提高一组非常不同的真实世界数据集的性能,尤其是对于多步预测中的初始步骤。
Deep attractors: Where deep learning meets chaos
在非线性动力学中,当状态空间被认为是多维的,但我们所拥有的数据只是一个单变量时间序列时,人们可能会尝试通过延迟坐标嵌入重建真实空间。然而,先验地不清楚如何选择重建空间的维数和时间滞后。在这篇文章中,我们展示了如何使用自动编码器架构来解决这个问题:只需给出一系列标量的观察结果,自动编码器就会直接学习以足够的维数来表示混沌系统的吸引子。
Infinite surprise - the iridescent personality of Kullback-Leibler divergence
Kullback-Leibler 散度不仅用于训练变分自动编码器或贝叶斯网络(而且不仅仅是一个难以发音的东西)。它是信息论中的一个基本概念,被广泛应用于各种应用中。最有趣的是,它并不总是与约束、正则化或压缩有关。恰恰相反,有时它与新颖性、发现和惊喜有关。
Future of Natural Language Processing with Deep Learning (NLP/DL)
我最近参加了 Kevin Clarke (CS224n) 的演讲,他在演讲中谈到了 NLP 的未来趋势。我写这篇文章是为了总结和讨论最近的趋势。幻灯片片段来自他的客座演讲。有两个主要主题奠定了深度学习 NLP 的趋势:1. 使用无监督 / 未标记数据进行预训练2. OpenAI GPT-2 突破1. 使用无监督 / 未标记数据进行预训练监督数据昂贵且有限,我们如何使用无监督数据来补充训练和监督微调以做得更好?让我们将其应用于机器翻译的问题,看看它如何有所帮助 - 如果您有 2 个不同语言的文本语料库(转录或维基百科文章),没有跨语言映射。我们可以将其用于预训练,在两个语料库上分别训练编码器和解
Discrete Representation Learning with VQ-VAE and TensorFlow Probability
在考虑变分自动编码器 (VAE) 时,我们通常会将先验描绘为各向同性的高斯。但这绝不是必需的。van den Oord 等人的“神经离散表示学习”中描述的矢量量化变分自动编码器 (VQ-VAE) 具有离散潜在空间,可以学习令人印象深刻的简洁潜在表示。在这篇文章中,我们结合了 Keras、TensorFlow 和 TensorFlow Probability 的元素,看看我们是否可以生成与 Kuzushiji-MNIST 中的字母相似的令人信服的字母。
Getting started with TensorFlow Probability from R
TensorFlow Probability 提供了广泛的功能,从概率网络层上的分布到概率推理。它与核心 TensorFlow 和 (TensorFlow) Keras 无缝协作。在这篇文章中,我们简要介绍了分布层,然后使用它在变分自动编码器中采样和计算概率。