在 Torch 中使用 Autograd 进行自动微分非常简单。Autograd 是 Torch 中的自动微分引擎,可以根据输入和前向运算自动计算梯度。
下面是一个简单的示例,演示如何在 Torch 中使用 Autograd 进行自动微分:
import torch
# 创建一个张量并设置 requires_grad=True 来追踪计算梯度
x = torch.tensor(2.0, requires_grad=True)
# 定义一个函数 y = x^2
y = x**2
# 使用 Autograd 计算梯度
y.backward()
# 打印出 x 的梯度
print(x.grad)
在这个示例中,我们首先创建了一个张量 x
,并设置 requires_grad=True
,这样就可以追踪计算梯度。然后定义了一个函数 y = x^2
,接着使用 y.backward()
来计算 y
相对于 x
的梯度。最后打印出 x
的梯度,即 dy/dx = 2x = 4
。
这样,我们就可以在 Torch 中使用 Autograd 进行自动微分。Autograd 会自动跟踪计算图,并计算相对于需要梯度的张量的梯度。