tensorflow中使用Batch Normalization
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了tensorflow中使用Batch Normalization,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含1040字,纯文字阅读大概需要2分钟。
内容图文
![tensorflow中使用Batch Normalization](/upload/InfoBanner/zyjiaocheng/1320/ad5e788333bf4d5b9d6541e3586e2b9b.jpg)
在深度学习中为了提高训练速度,经常会使用一些正正则化方法,如L2、dropout,后来Sergey Ioffe 等人提出Batch Normalization方法,可以防止数据分布的变化,影响神经网络需要重新学习分布带来的影响,会降低学习速率,训练时间等问题。提出使用batch normalization方法,使输入数据分布规律保持一致。实验证明可以提升训练速度,提高识别精度。下面讲解一下在Tensorflow中如何使用Batch Normalization
有关Batch Normalization详细内容请查看论文:
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
关键函数
tf.layers.batch_normalization、tf.contrib.layers.batch_norm
这两个函数用法一致,以 tf.layers.batch_normalization 为例进行讲解
layer1_conv = tf.layers.batch_normalization(layer1_conv,axis=0,training=in_training)
其中 axis 参数表示沿着哪个轴进行正则化,一般而言Tensor是[batch, width_x, width_y, channel],如果是[width_x, width_y, channel,batch]则axis应该设为3
1 在训练阶段
训练的时候需要注意两点,(1)输入参数training=True,(2)计算loss时,要添加以下代码(即添加
update_ops到最后的train_op中)。这样才能计算μ和σ的滑动平均(测试时会用到)
update_op = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_op):
train_op = optimizer.minimize(loss)
2 在测试阶段
测试时需要注意一点,输入参数training=False,
原文:https://www.cnblogs.com/zhaopengcheng/p/8994375.html
内容总结
以上是互联网集市为您收集整理的tensorflow中使用Batch Normalization全部内容,希望文章能够帮你解决tensorflow中使用Batch Normalization所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。