您好,登录后才能下订单哦!
这篇文章主要为大家展示了“Python中自动微分的示例分析”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Python中自动微分的示例分析”这篇文章吧。
antograd包是Pytorch中所有神经网络的核心。autograd为Tensor上的所有操作提供自动微分,它是一个由运行定义的框架,这意味着以代码运行方式定义后向传播,并且每一次迭代都可能不同
torch.Tensor是包的核心。
1.如果将属性.requires_grad设置为True,则会开始跟踪针对tensor的所有操作。
2.完成计算之后,可以调用backward()来自带计算多有梯度。该张量的梯度将积累到.grad属性中。
3.要停止tensor历史记录的跟踪,可以调用.detach(),他将与计算历史记录分离,并防止将来的计算被跟踪
4.要停止跟踪历史记录(和使用内存),可以将代码块使用with torch.no_grad():包装起来。在评估模型时候,很有用,因为模型在训练阶段具有requires_grad=True的可训练参数有利于调参,但是在评估阶段不需要梯度
5.还有一个对于autograd实现非常重要的就是Function。tensor和Function互相连接并构建一个肺循环图,他保存整个完整的计算过程的历史信息。每个张量都有一个.grad_fn属性保存着创建了张量的Function的引用(如果用户自己创建的张量,那么grad_fn是None)
6.如果想计算导数,可以调用Tensor.backward().如果Tensor是标量(包含一个元素数据)则不需要指定任何参数backward(),但是如果他有更多元素,则需要指定gradient参数来指定张量的形状
import torch # 创建一个张量,设置requires_grad=True x=torch.ones(2,2,requires_grad=True) print(x) # 针对张量操作 y=x+2 print(y) print(y.grad_fn)#y作为操作的结果被创建,所以他有grad_fn # 对y操作 z=y*y*3 out=z.mean() print(z,out)
运行结果
# 如果在变量输入过程中没有提供相应参数,输入的标记默认为False,requires_grad_()会改变张量的requires_grad标记 a=torch.randn(2, 2) a=((a*3)/(a-1)) # 前面没有设置requires_grad,固会输出False print(a.requires_grad) a.requires_grad_(True) # 经过上面语句的更改之后,此处应该输出True print(a.requires_grad) b=(a*a).sum() # 输出梯度信息 print(b.grad_fn)
运行结果
现在向后传播,因为输出包含了一个标量,out,backward()等同于out.backward(torch.tensor(1,))
out.backward()#向后传播 print(x.grad)#打印梯度
运行结果
原理
# 雅克比向量积 x=torch.randn(3,requires_grad=True) y=x*2 print(y) while y.data.norm()<1000: y=y*2 print(y)#此时y不是标量,torch.autograd 不能够直接计算整个雅可比,但是如果我们只想要雅可比向量积,只需要简单的传递向量给 backward 作为参数 v=torch.tensor([0.1,1.0,0.0001],dtype=torch.float) y.backward(v) print(x.grad) print(x.requires_grad) print((x**2).requires_grad) # 使用一下语句停止从跟踪历史中.require_gra=True的张量自动求导 with torch.no_grad(): print((x**2).requires_grad)
运行结果
以上是“Python中自动微分的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。