pytorch的真正含义是叶子张量及其毕业生

叶子,梯度和强大的秘密生活需要post the post pytorch pytorch的真正含义,叶子的毕业生及其毕业生首先出现在数据科学方面。

来源:走向数据科学

不是链条规则的另一个解释。这是一场穿越自动克拉德(Autograd)怪异一面的旅行 - 梯度为物理服务,而不仅仅是举重

我最初在博士学位的第一年为自己写了本教程,同时浏览了Pytorch的梯度计算的复杂性。大部分显然是考虑到标准反向传播的设计,这很好,因为这就是大多数人所需要的。

,但是物理信息的神经网络(PINN)是一种喜怒无常的野兽,需要另一种梯度逻辑。我花了一些时间来喂食它,我认为可能值得与社区分享这些发现,尤其是与Pinn其他从业人员分享 - 也许它会为某人节省一些麻烦。但是,如果您从未听说过Pinns,请不用担心!这篇文章仍然适合您 - 特别是如果您喜欢梯度和所有有趣的东西之类的东西。

基础术语

计算机世界中的张量仅意味着一个多维数组,即一个或多个整数索引的数字。确切地说,还有零维张量,这只是单个数字。有人说,张量是将矩阵概括为两个以上维度的概括。

张量

如果您以前研究过一般相对论,您可能听说数学张量具有协变量和违反指标。但是忘了这一点 - 在pytorch中,张量只是多维阵列。这里没有技巧。

叶子张量是一种张量,是计算图的叶子(从图理论的意义上)。我们将在下面查看这些定义会更有意义。

叶子张量

张量的需求_grad属性告诉Pytorch是否应该记住该张量如何在进一步的计算中使用。目前,请考虑具有suremenes_grad = true的张量为变量,而sirgnes_grad = false的张量为常数。

需要 需要_grad = true 需要_grad = false

叶子张量

is_leaf a b c d d.is_leaf Pytorch的文档 false c * c

毕业生保留

-