最近在学习黄文坚的TensorFlow书籍,希望对学习做一个总结。softmax regression算法原理:当我们对一张图片进行预测时,会计算每一个数字的可能性,如3的概率是3%,5的概率是6%,1的概率是80%,则返回1.TensorFlow版本:0.8.0# 导入手写识别数据,TensorFlow提供了手写识别库from tensorflow.examples.tutorials.mnist import input_data# 读取手写识别数据
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)# 训练...
1.获取Fashion MNIST数据集本指南使用Fashion MNIST数据集,该数据集包含10个类别中的70,000个灰度图像。 图像显示了低分辨率(28 x 28像素)的单件服装,如下所示 Fashion MNIST旨在替代经典的MNIST数据集,通常用作计算机视觉机器学习计划的“Hello,World”。我们将使用60,000张图像来训练网络和10,000张图像,以评估网络学习图像分类的准确程度。(train_images,train_labels),(test_images,test_labels)=keras.datasets.fash...
import tensorflow as tf
import numpy as npfrom tensorflow.examples.tutorials.mnist import input_datadef initWeights(shape):return tf.Variable(tf.random_normal(shape, stddev = 0.1))def initBiases(shape):return tf.Variable(tf.random_normal(shape, stddev = 0.1))def model(X, weights, baises):return tf.matmul(X, weights) + baisesmnist = input_data.read_data_sets(‘MNIST_data/‘, one_hot = True)
trX, tr...
深度神经网络可解释性方法汇总,附 Tensorflow 代码实现 知识库 ? 小白学CV ? 于 10个月前 ? 2076 阅读 理解神经网络:人们一直觉得深度学习可解释性较弱。然而,理解神经网络的研究一直也没有停止过,本文就来介绍几种神经网络的可解释性方法,并配有能够在Jupyter下运行的代码链接。 1.Activation Maximization通过激活最化来解释深度神经网络的方法一共有两种,具体如下:1.1 Activation Maximization (AM)相关代码如下:https:...
参考文献:Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systemsl2_reg = keras.regularizers.l2(0.05)
model = keras.models.Sequential([keras.layers.Dense(30, activation="elu", kernel_initializer="he_normal",kernel_regularizer=l2_reg),keras.layers.Dense(1, kernel_regularizer=l2_reg)
])
n_epochs = 5
batch_size = 32
n_steps = le...
import tensorflow as tf# 输入数据from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("E:\\MNIST_data", one_hot=True)# 定义网络的超参数
learning_rate = 0.001
training_iters = 200000
batch_size = 128
display_step = 5# 定义网络的参数
# 输入的维度 (img shape: 28*28)
n_input = 784
# 标记的维度 (0-9 digits)
n_classes = 10
# Dropout的概率,输出的可能性
dropout = ...
使用人工神经网络完成手写数字识别任务。具体要求如下:
(1)batch_size和step_num自定义,把loss值打印出来。
(2)神经网络的层数、节点数目、激活函数自定义。(记录心得)
(3)使用tensorboard把计算图显示出来。一、初始数据如下:batch_size=64lr = 0.01 #学习率step_num = 6000 #计算6000次计算的神经元层数是3层使用的是随机梯度下降算法 tf.train.GradientDescentOptimizer()计算出来的准确度为:0.717 二、参数调优过程...
一.迁移学习的概念什么是迁移学习呢?迁移学习可以由下面的这张图来表示: 这张图最左边表示了迁移学习也就是把已经训练好的模型和权重直接纳入到新的数据集当中进行训练,但是我们只改变之前模型的分类器(全连接层和softmax/sigmoid),这样就可以节省训练的时间的到一个新训练的模型了!但是为什么可以这么做呢?二.为什么可以使用迁移学习?一般在图像分类的问题当中,卷积神经网络最前面的层用于识别图像最基本的特征,比如物...
树莓派实现垃圾分类【深度学习图像识别】:keras+tensorflow
1.配置好ssh和vnc之后,换源:2.python虚拟环境配置3.安装tensorflow1.14.04.安装keras5.开始测试;import keras前面加import os就能忽略提示。
系统环境:2020-08-20-raspios-buster-armhf-full 工程要求:Tensorflow 1.14.0 + Keras 2.2.4 + Python 3.7
1.配置好ssh和vnc之后,换源:
第一步,先备份源文件
sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak
...
基于tensorflow2.x版本python代码实现深度学习回归预测(以lstm为例)
代码实现(能直接跑通本文中的代码)
import os
import tensorflow as tf
import numpy as np
from tensorflow import keras
from general import *#import tensorflow as tf
#from tensorflow import keras
from keras.models import Sequential
from keras.layers import *
#from general import *tf.random.set_seed(22)
np.random.seed(22)
os.environ...
搭建网络八股步骤
Import Train, test Model = tf.keras.models.Sequential 搭建网络结构 Model.compile 配置训练参数,告知优化器、损失函数、评测指标 Model.fit 配置训练过程,告知训练集的输入特征和标签、batch、迭代次数 Model.summary
具体步骤
1.Model = tf.keras.models.Sequential([网络结构]) 描述各层网络 网络结构举例: 拉直层:tf.kears.layers.Flatten() 全连接层:tf.kears.layers.Dense(神经元个数,activation=...
加载cifar10图片集并准备将图片进行灰度化
from keras.datasets import cifar10def rgb2gray(rgb):#把彩色图转化为灰度图,如果当前像素点为[r,g,b],那么对应的灰度点为0.299*r+0.587*g+0.114*breturn np.dot(rgb[...,:3], [0.299, 0.587, 0.114])(x_train, _),(x_test, _) = cifar10.load_data()img_rows = x_train.shape[1]
img_cols = x_train.shape[2]
channels = x_train.shape[3]#将100张彩色原图集合在一起显示
imgs = x_t...
from keras.layers import Dense, Input
from keras.layers import Conv2D, Flatten
from keras.layers import Reshape, Conv2DTranspose
from keras.models import Model
from keras.datasets import mnist
from keras import backend as Kimport numpy as np
import matplotlib.pyplot as plt#加载手写数字图片数据
(x_train, _), (x_test, _) = mnist.load_data()
image_size = x_train.shape[1]#把图片大小统一转换成28*28,并把...
from keras.datasets import imdb
#num_words表示加载影评时,确保影评里面的单词使用频率保持在前1万位,于是有些很少见的生僻词在数据加载时会舍弃掉
(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)print(train_data[0])
print(train_labels[0])#频率与单词的对应关系存储在哈希表word_index中,它的key对应的是单词,value对应的是单词的频率
word_index = imdb.get_word_index()
#我...
!mkdir /content/gdrive/My Drive/conversation
将文本句子分解成单词,并构建词库
path = /content/gdrive/My Drive/conversation/
with open(path + question.txt, r) as fopen:text_question = fopen.read().lower().split(\n)
with open(path + answer.txt, r) as fopen:text_answer = fopen.read().lower().split(\n)concat_question = .join(text_question).split()
vocabulary_size_question = len(list(set(concat_questi...