深度学习入门(一)
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了深度学习入门(一),小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含1393字,纯文字阅读大概需要2分钟。
内容图文
![深度学习入门(一)](/upload/InfoBanner/zyjiaocheng/989/891189fef08445cd88e93ec2f36e31a9.jpg)
1. Tensorflow是基于Distbelif进行改进的,Tensor意味着N维数组,Flow意味着基于数据流图的计算,tensorflow为Tensor从流图的一端流动到另一端计算过程。所以也可以把Tensorflow当做将复杂的数据结构传输至人工智能神经网中进行分析和处理的系统。
2. TF Learn是一个模块化和透明的深度学习库,是基于tensorflow之上的。
3. PaddlePaddle是百度开源的深度学习库。
4. Keras是一个高级别的Python神经网络框架。
5. 局部连接不会减少隐藏层的节点数量,减少的是隐藏层和输入层之间的连接数。
6. 本质上隐藏层的一个节点与输入层一个节点的连接,对应的就是一个连接参数,大量的连接也意味着大量的参数需要计算。因此通过参数共享的方法来进一步减少计算量。这种参数共享的机制,也可以理解为针对图像的卷积操作。
7. 卷积处理后的图像的大小和卷积核的大小无关,仅与步长有关,对应的隐藏层的结点个数也仅与步长有关。处理边界的时候会出现数据确实,补全方法有补零,边界复制,镜像,块复制
8. 对不同位置的特征进行聚合统计,这种聚合操作就叫做池化。
10. 卷积层,执行卷积操作提取底层到高层的特征,发掘图片局部关联性质和空间不变性质。
11. 池化层,通过抽取卷积输出特征图中局部区块的最大值或者均值,执行降采样操作。降采样也是图像处理中常见的一种操作,可以过滤掉一些不重要的高频信息。
12. 全连接层,输入层到隐藏层的神经元是全部连接的。
13. 非线性变化,卷积层、全连接层后面一般都会接非线性变化层来增加网络的表达能力,让神经网络具备强大的拟合能力。CNN最常用的是RELU激活函数。
14. Dropout,在模型训练阶段随机让一些隐藏层节点不工作,提高神经网络的泛化能力一定程度上可防止过拟合。
内容总结
以上是互联网集市为您收集整理的深度学习入门(一)全部内容,希望文章能够帮你解决深度学习入门(一)所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。