构建神经网络2
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了构建神经网络2,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含848字,纯文字阅读大概需要2分钟。
内容图文
![构建神经网络2](/upload/InfoBanner/zyjiaocheng/1196/383aa001432b424d9b8897f1aac5b26d.jpg)
更新网络参数
- 更新参数最简单的算法就是SGE(随机梯度下降)
- 具体的算法公式表达式为:weight=weight-learning_rate*gradient
import torch.optim as optiom
# 构建优化器
optiomizer=optiom.SGD(net.parameters(),lr=0.01)
# 第二部将优化器梯度清零
optiomizer.zero_grad()
# 第三部执行网络计算并计算损失值
output=net(input)
loss=criterion(output,target)
# 第四步执行反向传播
loss.backward()
# 第五步更新参数
optiomizer.step()
小结:
学习构建一个神经网络的典型流程:
定义一个拥有可学习参数的神经网络;
遍历训练数据集
处理输入数据使其流经神经网络
计算损失值
将网络参数的梯度进行反向传播
以一定的规则更新网络的权重
学习了损失函数的定义:
采用torch.nn.MSELoss()计算均方误差
通过loss.backward()进行反向传播计算时,整张计算图将对loss进行自动求导,所有属性requires_grad=True 都将参与梯度求导的运算,并将梯度累加到Tensors中的.grad属性中。
学习了反向传播的计算方法:
在pytorch中执行反向传播非常简便,全部的操作就是loss.backward()
在执行反向传播之前,要先将梯度清零,否则梯度会在不同的批次数据之间被累加。
net.zero_grad()
loss.backward()
学习了参数的更新方法:
定义优化器来执行参数的优化与更新:
optimizer=optim.SGD(net.parameters(),lr=0.01)
通过优化器来执行具体的参数更新:
optimizer.step()
原文:https://www.cnblogs.com/jacobshuo/p/14783059.html
内容总结
以上是互联网集市为您收集整理的构建神经网络2全部内容,希望文章能够帮你解决构建神经网络2所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。
来源:【匿名】