python – 为什么在卷积神经网络中可能具有低损耗,但也具有非常低的精度?
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了python – 为什么在卷积神经网络中可能具有低损耗,但也具有非常低的精度?,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含994字,纯文字阅读大概需要2分钟。
内容图文
我是机器学习的新手,我正在尝试用3个卷积层和1个完全连接的层来训练卷积神经网络.我使用的辍学概率为25%,学习率为0.0001.我有6000个150×200培训图像和13个输出类.我正在使用tensorflow.我注意到一个趋势,我的损失稳步下降,但我的准确性只是略有增加,然后再次下降.我的训练图像是蓝色线条,我的验证图像是橙色线条. x轴是步骤.
我想知道是否有一些我不理解或可能导致这种现象的原因?从我读过的材料中,我认为低损耗意味着高精度.
这是我的损失功能.
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y))
解决方法:
这是因为损失和准确性是两个完全不同的东西(至少在逻辑上是这样)!
考虑一个将损失定义为:
loss = (1-accuracy)
在这种情况下,当您尝试最小化损失时,准确度会自动增加.
现在考虑另一个将损失定义为:
loss = average(prediction_probabilities)
虽然它没有任何意义,但它在技术上仍然是一个有效的损失功能,你的重量仍然调整,以尽量减少这种损失.
但正如您所看到的,在这种情况下,损失和准确性之间没有关系,因此您不能指望两者同时增加/减少.
注意:损失总是最小化(因此每次迭代后损失会减少)!
PS:请使用您尝试最小化的损失功能更新您的问题.
内容总结
以上是互联网集市为您收集整理的python – 为什么在卷积神经网络中可能具有低损耗,但也具有非常低的精度?全部内容,希望文章能够帮你解决python – 为什么在卷积神经网络中可能具有低损耗,但也具有非常低的精度?所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。