您好,登录后才能下订单哦!
这篇文章主要讲解了“如何解决pytorch损失反向传播后梯度为none的问题”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“如何解决pytorch损失反向传播后梯度为none的问题”吧!
a = torch.ones((2, 2), requires_grad=True).to(device)
b = a.sum()
b.backward()
print(a.grad)
修改后的代码为:
a = torch.ones((2, 2), requires_grad=True)
c = a.to(device)
b = c.sum()
b.backward()
print(a.grad)
类似错误:
self.miu = torch.nn.Parameter(torch.ones(self.dimensional)) * 0.01
应该为
self.miu = torch.nn.Parameter(torch.ones(self.dimensional) * 0.01)
补充:pytorch梯度返回none的bug
tensor即使设置了requires_grad,反向传播之后, x返回没有grad梯度,为none
不知道其他版本有无此bug
补充:PyTorch中梯度反向传播的注意点
optimizer.zero_grad()语句的位置比较随意,只要放在loss.backward()前面即可,它的作用是将梯度归零,否则会在每一个迭代中进行累加,
loss.backward()的作用是反向传播,计算梯度,optimizer.step()的功能是优化器自动完成参数的更新。
optimizer.zero_grad()
loss.backward()
optimizer.step()
感谢各位的阅读,以上就是“如何解决pytorch损失反向传播后梯度为none的问题”的内容了,经过本文的学习后,相信大家对如何解决pytorch损失反向传播后梯度为none的问题这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。