详细内容或原文请订阅后点击阅览
Que haja luz:为 torch 点亮更多光芒!
今天,我们介绍 luz,它是 torch 的高级接口,可让您以简洁、声明式的风格训练神经网络。从某种意义上说,它之于 torch 就像 Keras 之于 TensorFlow:它既提供了简化的工作流程,也提供了强大的自定义方式。
来源:RStudio AI博客... 在我们开始之前,我先向我们讲西班牙语的读者表示歉意... 我不得不在“haja”和“haya”之间做出选择,最后只能抛硬币决定...
... 在我们开始之前,我先向我们讲西班牙语的读者表示歉意... 我不得不在“haja” 和“haya” 之间做出选择,最后只能抛硬币决定...在我写这篇文章的时候,我们对 torch 的快速采用感到非常高兴 - 不仅可以立即使用,而且在基于它构建的软件包中也可以利用其核心功能。
torch
然而,在应用场景中——涉及同步训练和验证、计算指标并对其采取行动以及在此过程中动态更改超参数的场景——有时似乎涉及大量样板代码。首先,存在跨时期的主循环,内部存在跨训练和验证批次的循环。此外,更新模型模式(分别为训练或验证)、归零和计算梯度以及反向传播模型更新等步骤必须按正确的顺序执行。最后同样重要的是,必须注意,在任何时候,张量都位于预期的设备上。
模式 设备如果像 2000 年代初期流行的“Head First ...”系列曾经说过的那样,有一种方法可以消除这些手动步骤,同时保持灵活性,那不是很梦幻吗?有了 luz,就有了。
如果luz
在本篇文章中,我们的重点是两件事:首先,简化的工作流程本身;其次,允许自定义的通用机制。有关后者的更详细示例以及具体的编码说明,我们将链接到(已经很广泛的)文档。
训练并验证,然后测试:使用 luz 的基本深度学习工作流程
luz
狗与猫
torchdatasets
torchvision
torch
luz
数据
数据集从 Kaggle 下载;您需要编辑以下路径以反映您自己的 Kaggle 令牌的位置。
dir <- "~/Downloads/dogs-vs-cats" dir <-