pytorch关键词检索结果

pytorch的真正含义是叶子张量及其毕业生

What PyTorch Really Means by a Leaf Tensor and Its Grad

叶子,梯度和强大的秘密生活需要post the post pytorch pytorch的真正含义,叶子的毕业生及其毕业生首先出现在数据科学方面。

grad-cam从头开始使用pytorch钩

Grad-CAM from Scratch with PyTorch Hooks

动手观察可解释的AI(XAI)技术,该技术有助于揭示为什么卷积神经网络(CNN)做出了一个特定的决定,该决定首先是朝向数据科学的Pytorch挂钩后的Grad-CAM。

自监督学习教程:使用 pytorch lightning 实现 SimCLR

Self-supervised learning tutorial: Implementing SimCLR with pytorch lightning

了解如何实现臭名昭著的对比自监督学习方法 SimCLR。在 PyTorch 和 PyTorch-lightning 中逐步实现

如何通过加强学习来微调小语言模型

How to Fine-Tune Small Language Models to Think with Reinforcement Learning

pytorch the Post中的训练GRPO推理模型的视觉游览和从抓斗指南如何微调小语言模型,以增强学习的方式首先出现在数据科学上。

将重新连接到下一个级别

Taking ResNet to the Next Level

了解Resnext如何在重新系统上进行改进,并通过全面的Pytorch实施GuidEthe将重新连接到一个新的水平首先出现在数据科学方面。

用CUDA流提供AI/ML培训工作负载

Pipelining AI/ML Training Workloads with CUDA Streams

Pytorch模型绩效分析和优化 - 第9部分在管道后,使用CUDA流的AI/ML培训工作负载首先出现在数据科学方面。

一种用于识别数据输入管道上瓶颈的缓存策略

A Caching Strategy for Identifying Bottlenecks on the Data Input Pipeline

pytorch模型性能分析和优化 - 第8部分,邮政的一种缓存策略,用于识别数据输入管道上的瓶颈,首先出现在数据科学方面。

使用Pytorch轻松访问您的GPU

Use PyTorch to Easily Access Your GPU

或…ML库如何加速非ML计算该帖子使用Pytorch轻松访问您的GPU首先出现在数据科学上。

挑战VIT

The CNN That Challenges ViT

在Convnext Architecturethe之后的CNN上的Pytorch实施,VIT首先出现在数据科学方面。

噪音的艺术

The Art of Noise

与Pytorch从头开始理解和实施扩散模型。

使用Pytorch&Hugging Face

Building an Automatic Speech Recognition System with PyTorch & Hugging Face

请查看此分步指南,以使用Pytorch&Hugging Face构建语音到文本系统。

PyTorch 中的高效指标收集:避免 TorchMetrics 的性能陷阱

Efficient Metric Collection in PyTorch: Avoiding the Performance Pitfalls of TorchMetrics

指标收集是每个机器学习项目的重要组成部分,使我们能够跟踪模型性能并监控训练进度。理想情况下,指标的收集和计算不应给训练过程带来任何额外开销。然而,就像训练循环的其他组件一样,低效的指标计算可能会带来不必要的开销,增加训练步骤[…]PyTorch 中的高效指标收集:避免 TorchMetrics 的性能陷阱首先出现在 Towards Data Science 上。

展示和讲述

Show and Tell

使用 PyTorch 实现最早的神经图像标题生成器模型之一。文章“Show and Tell”首先出现在 Towards Data Science 上。

使用 QLoRA 加速 Amazon SageMaker 上的 Mixtral MoE 微调

Accelerating Mixtral MoE fine-tuning on Amazon SageMaker with QLoRA

在本文中,我们将演示如何通过使用完全托管的环境和 Amazon SageMaker 训练作业来使用 PyTorch 完全分片数据并行 (FSDP) 和量化低秩自适应 (QLoRA) 对 Mixtral 8x7B 模型进行微调,从而解决模型定制复杂、耗时且通常成本高昂的挑战。

用于大型语言模型中快速推测解码的循环起草器

Recurrent Drafter for Fast Speculative Decoding in Large Language Models

我们提出了 Recurrent Drafter (ReDrafter),这是一种先进的推测解码方法,可实现大型语言模型 (LLM) 推理的最先进的加速。性能提升由三个关键方面推动:(1) 利用循环神经网络 (RNN) 作为 LLM 隐藏状态的草稿模型条件,(2) 对波束搜索结果应用动态树注意算法以消除候选序列中的重复前缀,以及 (3) 通过 LLM 中的知识提炼进行训练。ReDrafter 使用 PyTorch 将 MT-Bench 中的 Vicuna 推理速度提高了 3.5 倍……

Lightning AI 创始人兼首席执行官 William Falcon – 访谈系列

William Falcon, Founder and CEO of Lightning AI – Interview Series

Lightning AI 是 PyTorch Lightning 的创造者,PyTorch Lightning 是一个用于训练和微调 AI 模型的框架,也是 Lightning AI Studio 的创造者。PyTorch Lightning 最初由 William Falcon 于 2015 年在哥伦比亚大学就读时开发。后来,他在纽约大学和 Facebook AI Research 攻读博士学位期间于 2019 年开源,由 […]The post William Falcon, Founder and CEO of Lightning AI – Interview Series 首次出现在

论文演练:U-Net

Paper Walkthrough: U-Net

最流行的语义分割模型之一的 PyTorch 实现。继续阅读 Towards Data Science »

为电影推荐器构建图形学习系统的分步指南

A Step-by-Step Guide to Build a Graph Learning System for a Movie Recommender

使用 PyTorch Geometric 和 MovieLens DataSet 构建继续阅读 Towards Data Science »