LSTM关键词检索结果

使用LSTM和Google的Bert模型检测恶意URL

Detecting Malicious URLs Using LSTM and Google’s BERT Models

一种渐进的方法,将使用LSTM和Google的BERT模型实施AI驱动的网页检测应用程序在生产中检测恶意URL,这首先出现在数据科学方面。

手动深入研究 LSTM 和 xLSTM ✍️

Deep Dive into LSTMs & xLSTMs by Hand ✍️

深入研究 LSTM 和 xLSTM ✍️探索 LSTM 的智慧,从而引领 xLSTM — 可能与当今的 LLM 竞争作者图片(我 4 岁的孩子创造的古代巫师)“在 Serentia 的魔法王国中,古老的森林低语着早已被遗忘的咒语秘密,那里居住着 Enigmastrider — 一位受人尊敬的巫师,永恒智慧的守护者。在 Serentia 面临可怕危险的一个关键日子,Enigmastrider 使用精华石编织了一个神秘的仪式,充满了过去、现在和未来的精华。借助古老的魔法,他召唤出了 LSTM,这是一种知识管道,能够保存 Serentia 的历史并预见其命运。就像一条充满无限智慧的河流,LSTM 流

长短期记忆 (LSTM) 简介

Introduction to Long Short Term Memory (LSTM)

为什么重要:在人工智能 (AI) 和深度学习领域,LSTM 是使用人工神经网络的长短期记忆网络。

用于空间预测的卷积 LSTM

Convolutional LSTM for spatial forecasting

在预测空间确定的现象(例如天气或电影中的下一帧)时,我们希望对时间演变进行建模,理想情况下使用递归关系。同时,我们希望有效地提取空间特征,这通常是使用卷积滤波器完成的。理想情况下,我们将拥有一个既是循环又是卷积的架构。在这篇文章中,我们使用 torch 构建了一个卷积 LSTM。

循环神经网络:在 Pytorch 中构建 GRU 单元 VS LSTM 单元

Recurrent Neural Networks: building GRU cells VS LSTM cells in Pytorch

RNN 相对于 transformer 有哪些优势?何时使用 GRU 而不是 LSTM?GRU 的方程式到底是什么意思?如何在 Pytorch 中构建 GRU 单元?

循环神经网络:构建自定义 LSTM 单元

Recurrent neural networks: building a custom LSTM cell

您是否有兴趣了解循环网络如何在后台处理序列?这就是本文的全部内容。我们将检查并构建我们自己的自定义 LSTM 模型。此外,我们对循环模块和卷积模块进行了一些比较,以最大限度地加深我们的理解。

使用 FNN-LSTM 进行时间序列预测

Time series prediction with FNN-LSTM

在最近的一篇文章中,我们展示了如何使用由假最近邻 (FNN) 损失正则化的 LSTM 自动编码器来重建非线性混沌动态系统的吸引子。在这里,我们探讨了同样的技术如何帮助进行预测。与容量相当的“原始 LSTM”相比,FNN-LSTM 可以提高一组非常不同的真实世界数据集的性能,尤其是对于多步预测中的初始步骤。

Juergen Schmidhuber:哥德尔机、元学习和 LSTM

Juergen Schmidhuber: Godel Machines, Meta-Learning, and LSTMs

Juergen Schmidhuber 是长短期记忆网络 (LSTM) 的共同创造者,该网络如今已在数十亿台设备中用于语音识别、翻译等。30 多年来,他提出了许多有趣的、开箱即用的人工智能想法,包括创造力的正式理论。视频版本可在 YouTube 上找到。如果您想获取有关此播客的更多信息,请访问 https://lexfridman.com/ai 或在 Twitter、LinkedIn、Facebook 或 YouTube 上与 @lexfridman 联系,您可以在那里观看这些对话的视频版本。

使用长期排序记忆网络 (LSTM) 预测比特币价格

Predict Bitcoin price with Long sort term memory Networks (LSTM)

如何使用循环神经网络和 LSTM 预测加密货币价格

1000万英镑用于AI驱动的机器人实验室,该实验室将加速致命感染的新疗法

£10m funding for AI-powered robotic labs that will accelerate new treatments for deadly infections

新的AI驱动机器人实验室将在同意1000万英镑的创新区资金后,将在利物浦建立致命疾病的新疗法的开发。位于利物浦热带医学学院(LSTM)的高遏制3级实验室,并得到感染创新联盟(IICON)的支持,能够在开发和验证可以挽救全球生命的新治疗过程中处理一系列病原体...

软计算,第29卷,第4期,2025年2月

Soft Computing, Volume 29, Issue 4, February 2025

1)一种地图还原算法,可以找到有定向GraphSauthor的紧密连接组件:Fujun Ji,Jidong Jinpages:1947-19662)复杂的偏好分析:基于得分的评估评估策略:用于进化的AlgorithMassauthorsauthorsauthorsauthorsaute and AlgorithMassauthor(S) 19803)基于特征选择的排名准确性的加权等级聚集:Mahdi Kheradpages:Majid Abdolrazzagh-Nezhad:1981 - 20014年)探索多样性和时间引起的建议:通过新颖的双向动态时间战争的LSTM-DNN模型ZHIPAG

不断发展的系统,第 15 卷,第 4 期,2024 年 8 月

Evolving Systems, Volume 15, Issue 4, August 2024

1) 通过基于聚类的表示进行时间序列异常检测作者:Elham Enayati、Reza Mortazavi……Mahmoud Moallem页数:1115 - 11362) 自适应单位分割网络 (APUNet):一种用于解决 PDE 的局部深度学习方法作者:Idriss Barbara、Tawfik Masrour、Mohammed Hadda页数:1137 - 11583) 使用自适应对强化技术增强黑猩猩优化算法以发展用于会计利润预测的深度 LSTM 作者:Chengchen Yang、Tong Wu、Lingzhuo Zeng页数:1159 - 11784) 用于支持普适边缘应用的同质迁移

数据机器 #252

Data Machina #252

用于时间序列的扩散、FM 和预训练 AI 模型。TinyTimeMixers。MambaFormer。TimesFM。Frankenstein Prompts。BabyAGI。KANs 解释。GPT 研究员。xLSTM。思想可视化。

不断发展的系统。第 15 卷,第 3 期,2024 年 6 月

Evolving Systems. Volume 15, Issue 3, June 2024

1)基于改进的Bi-LSTM神经网络的山区公路隧道入口路面温湿度预测作者:陶睿,彭睿……乔建刚页数:691 - 7022)反脆弱视角下涉及非凸属性的投资组合选择多目标优化作者:Davi Gotardelo,Leonardo Goliatt页数:703 - 7153)通过深度学习和计算机视觉打造AI设计师作者:Caner Balim,Kemal Ozkan页数:717 - 7294)RVFLN-CDFPA:一种利用混沌差分花授粉算法优化的随机向量函数链接神经网络,用于日前净资产价值预测作者:Smita Mohanty,Rajashree Dash页数:731 - 7575)DeepNet-WI:

具有长期短期记忆的深度循环神经网络

Deep Recurrent Neural Nets with Long Short Term Memory

再次。LTSM 可能正在成为循环 NN 建模中的大问题。我之前写过博客(例如这里),但我仍然不太了解它。有人了解吗?也许它只是一种避免消失梯度问题的手段(并不是说这并不重要);也许它更重要。这篇新论文写得很好,突出介绍了 LSTM。DONUT 集成组合预测方法作者:Lars Lien Ankile;Kjartan Krange摘要:本文提出了一种集成预测方法,通过减少特征和模型选择假设,在 M4Competition 数据集上显示出强劲的结果,称为 DONUT(不使用人类假设)。我们的假设减少主要由自动生成的特征和更多样化的集成模型池组成,其表现明显优于 Montero-Manso 等人(20

使用 torch 进行入门时间序列预测

Introductory time-series forecasting with torch

这篇文章介绍了使用 torch 进行时间序列预测。核心主题是数据输入和 RNN(GRU/LSTM)的实际使用。即将发布的文章将以此为基础,并介绍越来越复杂的架构。

理解 SoTA 语言模型 (BERT、RoBERTA、ALBERT、ELECTRA)

Understanding SoTA Language Models (BERT, RoBERTA, ALBERT, ELECTRA)

大家好,现在有大量的语言模型!其中许多都有自己独特的学习“自监督”语言表示的方式,可供其他下游任务使用。在本文中,我决定总结当前的趋势并分享一些关键见解,以将所有这些新方法粘合在一起。😃(幻灯片来源:Delvin 等人,斯坦福 CS224n)问题:上下文无关/原子词表示我们在上一篇文章中从上下文无关方法开始,例如 word2vec、GloVE 嵌入。这些方法的缺点是它们不考虑句法上下文。例如“开立银行账户”与“在河岸上”。单词 bank 的含义取决于单词所处的上下文。解决方案 #1:上下文单词表示借助 ELMo,社区开始构建前向(从左到右)和后向(从右到左)序列语言模型,并使用从这两个模型(连

预测厄尔尼诺-南方涛动 (ENSO)

Forecasting El Niño-Southern Oscillation (ENSO)

厄尔尼诺-南方涛动 (ENSO) 是一种大气现象,位于热带太平洋,极大地影响着全球大部分地区的生态系统和人类福祉。我们使用之前文章中介绍的 convLSTM 从空间有序的海面温度序列预测 Niño 3.4 指数。