通过几个例程,我们逐渐对 TensorFlow 建立了感性认识。本文将进一步从内在原理进行深入理解,进而为阅读源码打好基础。1. 图(Graph)TensorFlow 计算被抽象为包括若干节点的有向图。如下图所示例子:对应的 TensorFlow Python 代码如下:import tensorflow as tf b = tf.Variable(tf.zeros([100])) # 100-d vector, init to zeroes W = tf.Variable(tf.random_uniform([784,100],-1,1)) # 784x100 matrix w/rn...
内容简介 TensorFlow是谷歌研发的人工智能学习系统,是一个用于数值计算的开源软件库。《TensorFlow深度学习算法原理与编程实战》以基础 实践相结合的形式,详细介绍了TensorFlow深度学习算法原理及编程技巧。通读全书,读者不仅可以系统了解深度学习的相关知识,还能对使用TensorFlow进行深度学习算法设计的过程有更深入的理解。 《TensorFlow深度学习算法原理与编程实战》共14章,主要内容有:人工智能、大数据、机器学习和深度学...
tensorflow:TensorFlow是一个通过计算图的形式来表述计算的编程系统——TensorFlow中的每一个计算都是计算图上的一个节点,而节点之间的边描述了计算之间的依赖关系。 在TensorFlow中,张量可以被简单理解为多维数组。 Flow:流、飞。直接表达了张量之间通过计算相互转化的过程 张量是TensorFlow管理数据的形式。在TensorFlow中,所有的数据都是通过张量的形式来表示。从功能的角度上看,张量可以简单理解为多维数组。其中 零阶张...
from keras.layers import Dense, Input from keras.layers import Conv2D, Flatten from keras.layers import Reshape, Conv2DTranspose from keras.models import Model from keras.datasets import mnist from keras import backend as Kimport numpy as np import matplotlib.pyplot as plt#加载手写数字图片数据 (x_train, _), (x_test, _) = mnist.load_data() image_size = x_train.shape[1]#把图片大小统一转换成28*28,并把...
def conv_(img, conv_filter):filter_size = conv_filter.shape[1]result = numpy.zeros((img.shape))print(loop r: , numpy.uint16(numpy.arange(filter_size/2.0,img.shape[0]-filter_size/2.0+1)))#Looping through the image to apply the convolution operation.for r in numpy.uint16(numpy.arange(filter_size/2.0,img.shape[0]-filter_size/2.0+1)):for c in numpy.uint16(numpy.arange(filter_size/2.0,img.shape[1]-filt...
!mkdir /content/gdrive/My Drive/conversation 将文本句子分解成单词,并构建词库 path = /content/gdrive/My Drive/conversation/ with open(path + question.txt, r) as fopen:text_question = fopen.read().lower().split(\n) with open(path + answer.txt, r) as fopen:text_answer = fopen.read().lower().split(\n)concat_question = .join(text_question).split() vocabulary_size_question = len(list(set(concat_questi...
DeepCrossing是在AutoRec之后,微软完整的将深度学习应用在推荐系统的模型。其应用场景是搜索推荐广告中,解决了特征工程,稀疏向量稠密化,多层神经网路的优化拟合等问题。所使用的特征在论文中描述为两个大类数值型(文中couting feature)和类别型。如下图对于数值型特征可以直接拼接在Embedding向量之后,类别多的特征需要经过Embedding过程。要多说一句,数值的统计特征包括了过去广告点击率,这个在以后实际应用中设计特征可...
I optimizer.minimize(loss, var_list) 我们都知道,TensorFlow为我们提供了丰富的优化函数,例如GradientDescentOptimizer。这个方法会自动根据loss计算对应variable的导数。示例如下: loss = ... opt = tf.tf.train.GradientDescentOptimizer(learning_rate=0.1) train_op = opt.minimize(loss) init = tf.initialize_all_variables()with tf.Seesion() as sess:sess.run(init)for step in range(10): session.run(train_op)首...
p234页 第七章使用con2v来构造卷积块 import tensorflow as tf import numpy as np #整体架构 #定义M 输入 reshape调整格式 #使用get_variable来定义过滤器权重变量 #参数声明为一个四维矩阵其中前两个维度表示过滤器大小,第三个维度是本层深度,最后一个表示过滤器深度 #使用get_variable来定义过滤器偏置值 [1]表示过滤器深度 #使用con2d构造卷积层前向传播算法 #构造bias_add函数来给不同位置上的神经元加上偏置 #运行 M = np....