Introductory time-series forecasting with torch
这篇文章介绍了使用 torch 进行时间序列预测。核心主题是数据输入和 RNN(GRU/LSTM)的实际使用。即将发布的文章将以此为基础,并介绍越来越复杂的架构。
How Positional Embeddings work in Self-Attention (code in Pytorch)
了解位置嵌入是如何出现的,以及我们如何使用内部自注意力来对图像等高度结构化的数据进行建模
torch, tidymodels, and high-energy physics
今天我们介绍 tabnet,这是“TabNet:专注可解释表格学习”的 torch 实现,与 tidymodels 框架完全集成。从本质上讲,tabnet 的设计只需要很少的数据预处理;多亏了 tidymodels,超参数调整(在深度学习中通常很麻烦)变得方便甚至有趣!
Simple audio classification with torch
本文将 Daniel Falbel 关于“简单音频分类”的文章从 TensorFlow/Keras 翻译成 torch/torchaudio。
torch 0.2.0 - Initial JIT support and many bug fixes
torch 0.2.0 版本包含许多错误修复和一些不错的新功能,如初始 JIT 支持、多工作器数据加载器、新优化器和 nn_modules 的新打印方法。
Brain image segmentation with torch
各种科学及其应用都需要对图像进行分割,其中许多对人类(和动物)生命至关重要。在这篇介绍性文章中,我们训练了一个 U-Net 来标记 MRI 脑部扫描中的病变区域。
使用 torch,几乎没有理由从头开始编写反向传播代码。它的自动微分功能称为 autograd,可跟踪需要计算梯度的操作以及如何计算它们。在这个由四部分组成的系列的第二篇文章中,我们更新了简单的手工编码网络以使用 autograd。
Getting familiar with torch tensors
在这个由四部分组成的迷你系列的第一部分中,我们介绍了您想要了解的有关 torch 张量的主要内容。作为一个说明性示例,我们将从头开始编写一个简单的神经网络。
Recurrent Neural Networks: building GRU cells VS LSTM cells in Pytorch
RNN 相对于 transformer 有哪些优势?何时使用 GRU 而不是 LSTM?GRU 的方程式到底是什么意思?如何在 Pytorch 中构建 GRU 单元?
VDH: The Murder Of Charlie Kirk Was Not A 'George Floyd Moment'
vdh:谋杀查理·柯克(Charlie Kirk)并不是维克多·戴维斯·汉森(Victor Davis Hanson)通过美国伟大的乔治·弗洛伊德(George Floyd乔治·弗洛伊德(George Floyd)的去世是如此荒谬的叙述所涉及的谎言。 There were no mass riots after his death of the sort that followed Floyd’s demise.Floyd’s death was used by the left to justify five months of rioting, arson, murder, looting
MobileNetV1 Paper Walkthrough: The Tiny Giant
与Pytorch The MobileNetv1纸上演练了解和实施Mobilenetv1:这家小巨人首先出现在数据科学上。
Positional Embeddings in Transformers: A Math Guide to RoPE & ALiBi
学习gpt的猿,绳索和不在场的位置嵌入 - 直觉,数学,pytorch代码以及在变形金刚的TinyStoriesthe后位置嵌入的实验:绳索和艾比利的数学指南首先出现在数据科学上。
The Channel-Wise Attention | Squeeze and Excitation
使用pytorch在频道的关注下,将挤压和激发模块应用在resnext上|首先,挤压和激发出现在数据科学方面。
The Crucial Role of NUMA Awareness in High-Performance Deep Learning
Pytorch模型性能分析和优化 - 第10部分NUMA意识在高性能深度学习中的关键作用首先出现在数据科学方面。