Pytorch关键词检索结果

使用Pytorch轻松访问您的GPU

Use PyTorch to Easily Access Your GPU

或…ML库如何加速非ML计算该帖子使用Pytorch轻松访问您的GPU首先出现在数据科学上。

使用Pytorch&Hugging Face

Building an Automatic Speech Recognition System with PyTorch & Hugging Face

请查看此分步指南,以使用Pytorch&Hugging Face构建语音到文本系统。

Pytorch 中从头开始的扩散模型

Diffusion Model from Scratch in Pytorch

去噪扩散概率模型 (DDPM) 的实现 MNIST 上的 DDPM 示例 — 作者提供的图片简介一般来说,扩散模型是一种生成式深度学习模型,它从学习到的去噪过程中创建数据。扩散模型有很多种,最流行的通常是文本条件模型,它可以根据提示生成特定的图像。一些扩散模型 (Control-Net) 甚至可以将图像与某些艺术风格融合在一起。下面是一个例子:作者使用经过微调的 MonsterLabs 的 QR Monster V2 提供的图片如果您不知道这幅图像有什么特别之处,请尝试远离屏幕或眯起眼睛来查看图像中隐藏的秘密。扩散模型有许多不同的应用和类型,但在本教程中,我们将构建基础的无条件扩散模型 DDP

学习 Pytorch:逐步训练您的第一个深度学习模型

Learn Pytorch: Training your first deep learning models step by step

这篇博文是关于开始学习 pytorch 的,并提供图像分类的动手教程。

BYOL 教程:使用 Pytorch 中的代码对 CIFAR 图像进行自监督学习

BYOL tutorial: self-supervised learning on CIFAR images with code in Pytorch

实现和理解 byol,一种没有负样本的自监督计算机视觉方法。了解 BYOL 如何学习用于图像分类的稳健表示。

Pytorch 中的分布式训练的工作原理:分布式数据并行和混合精度训练

How distributed training works in Pytorch: distributed data-parallel and mixed-precision training

了解分布式训练在 pytorch 中的工作原理:数据并行、分布式数据并行和自动混合精度。以巨大的速度训练您的深度学习模型。

JAX vs Tensorflow vs Pytorch:构建变分自动编码器 (VAE)

JAX vs Tensorflow vs Pytorch: Building a Variational Autoencoder (VAE)

在从头开始开发和训练变分自动编码器时,对 JAX、Tensorflow 和 Pytorch 进行并排比较

位置嵌入如何在自注意力机制中工作(Pytorch 中的代码)

How Positional Embeddings work in Self-Attention (code in Pytorch)

了解位置嵌入是如何出现的,以及我们如何使用内部自注意力来对图像等高度结构化的数据进行建模

循环神经网络:在 Pytorch 中构建 GRU 单元 VS LSTM 单元

Recurrent Neural Networks: building GRU cells VS LSTM cells in Pytorch

RNN 相对于 transformer 有哪些优势?何时使用 GRU 而不是 LSTM?GRU 的方程式到底是什么意思?如何在 Pytorch 中构建 GRU 单元?

挑战VIT

The CNN That Challenges ViT

在Convnext Architecturethe之后的CNN上的Pytorch实施,VIT首先出现在数据科学方面。

噪音的艺术

The Art of Noise

与Pytorch从头开始理解和实施扩散模型。

PyTorch 中的高效指标收集:避免 TorchMetrics 的性能陷阱

Efficient Metric Collection in PyTorch: Avoiding the Performance Pitfalls of TorchMetrics

指标收集是每个机器学习项目的重要组成部分,使我们能够跟踪模型性能并监控训练进度。理想情况下,指标的收集和计算不应给训练过程带来任何额外开销。然而,就像训练循环的其他组件一样,低效的指标计算可能会带来不必要的开销,增加训练步骤[…]PyTorch 中的高效指标收集:避免 TorchMetrics 的性能陷阱首先出现在 Towards Data Science 上。

展示和讲述

Show and Tell

使用 PyTorch 实现最早的神经图像标题生成器模型之一。文章“Show and Tell”首先出现在 Towards Data Science 上。

使用 QLoRA 加速 Amazon SageMaker 上的 Mixtral MoE 微调

Accelerating Mixtral MoE fine-tuning on Amazon SageMaker with QLoRA

在本文中,我们将演示如何通过使用完全托管的环境和 Amazon SageMaker 训练作业来使用 PyTorch 完全分片数据并行 (FSDP) 和量化低秩自适应 (QLoRA) 对 Mixtral 8x7B 模型进行微调,从而解决模型定制复杂、耗时且通常成本高昂的挑战。

用于大型语言模型中快速推测解码的循环起草器

Recurrent Drafter for Fast Speculative Decoding in Large Language Models

我们提出了 Recurrent Drafter (ReDrafter),这是一种先进的推测解码方法,可实现大型语言模型 (LLM) 推理的最先进的加速。性能提升由三个关键方面推动:(1) 利用循环神经网络 (RNN) 作为 LLM 隐藏状态的草稿模型条件,(2) 对波束搜索结果应用动态树注意算法以消除候选序列中的重复前缀,以及 (3) 通过 LLM 中的知识提炼进行训练。ReDrafter 使用 PyTorch 将 MT-Bench 中的 Vicuna 推理速度提高了 3.5 倍……

Lightning AI 创始人兼首席执行官 William Falcon – 访谈系列

William Falcon, Founder and CEO of Lightning AI – Interview Series

Lightning AI 是 PyTorch Lightning 的创造者,PyTorch Lightning 是一个用于训练和微调 AI 模型的框架,也是 Lightning AI Studio 的创造者。PyTorch Lightning 最初由 William Falcon 于 2015 年在哥伦比亚大学就读时开发。后来,他在纽约大学和 Facebook AI Research 攻读博士学位期间于 2019 年开源,由 […]The post William Falcon, Founder and CEO of Lightning AI – Interview Series 首次出现在

论文演练:U-Net

Paper Walkthrough: U-Net

最流行的语义分割模型之一的 PyTorch 实现。继续阅读 Towards Data Science »

为电影推荐器构建图形学习系统的分步指南

A Step-by-Step Guide to Build a Graph Learning System for a Movie Recommender

使用 PyTorch Geometric 和 MovieLens DataSet 构建继续阅读 Towards Data Science »