【运行tensorflow是出现的问题This TensorFlow binary is optimized with Intel(R) MKL-DNN to use the following CPU】教程文章相关的互联网学习教程文章

python – tensorflow:使用队列运行器有效地提供eval / train数据【代码】

我正在尝试运行张量流图来训练模型,并使用单独的评估数据集定期评估.训练和评估数据都是使用队列运行器实现的. 我目前的解决方案是在同一个图中创建两个输入,并使用依赖于is_training占位符的tf.cond.我的问题由以下代码突出显示:import tensorflow as tf from tensorflow.models.image.cifar10 import cifar10 from time import timedef get_train_inputs(is_training):return cifar10.inputs(False)def get_eval_inputs(is_trai...

python – 使用TensorFlow Dataset API和flat_map的并行线程【代码】

我正在将TensorFlow代码从旧的队列接口更改为新的Dataset API.使用旧接口,我可以为tf.train.shuffle_batch队列指定num_threads参数.但是,控制数据集API中线程数量的唯一方法似乎是使用num_parallel_calls参数在map函数中.但是,我正在使用flat_map函数,它没有这样的参数. 问题:有没有办法控制flat_map函数的线程/进程数?或者是否有方法将map与flat_map结合使用并仍然指定并行调用的数量? 请注意,并行运行多个线程至关重要,因为我...

python – 有没有办法在GPU上使用tensorflow map_fn?【代码】

我有一个形状为[a,n]的张量A,我需要用另一个形状[b,n]的张量B执行一个op my_op,使得得到的张量C具有形状[a,b]. 换句话说:对于A中的每个子指标(A [0],A1,… A [n]),我需要对B中的每个子指标执行元素明智的运算. 因此产生的张量将包含以下内容:[ [ A[0] op B[0] , A[0] op B[1], ... , A[0] op B[b] ],[ A[1] op B[0] , A[1] op B[1], ... , A[1] op B[b] ],[ ... ],[ A[a] op B[0] ,...

python – TensorFlow – tf.data.Dataset读取大型HDF5文件【代码】

我正在设置一个TensorFlow管道,用于读取大型HDF5文件作为我的深度学习模型的输入.每个HDF5文件包含100个可变大小长度的视频,存储为压缩JPG图像的集合(以使磁盘上的大小可管理).使用tf.data.Dataset和tf.py_func的映射,使用自定义Python逻辑从HDF5文件中读取示例非常简单.例如:def read_examples_hdf5(filename, label):with h5py.File(filename, 'r') as hf:# read frames from HDF5 and decode them from JPGreturn frames, labe...

python – 更新TensorFlow【代码】

我正在使用Ubuntu 14.04,我有一个TensorFlow V0.10,但我想更新这个版本.如果我做:$pip install --upgrade $TF_BINARY_URL但它打印:Exception: Traceback (most recent call last):File "/usr/lib/python2.7/dist-packages/pip/basecommand.py", line 122, in mainstatus = self.run(options, args)File "/usr/lib/python2.7/dist-packages/pip/commands/install.py", line 278, in runrequirement_set.prepare_files(finder, for...

python – Tensorflow中tf.contrib模块的用途是什么?

我很好奇tf.contrib是什么,以及为什么代码将包含在TensorFlow中,但不包含在主存储库中. 此外,查看示例here(来自tensorflow主分支),我想找到tf.contrib.layers.sparse_column_with_hash_bucket的源代码. 这似乎是一些很酷的例程,但我想确保他们正确使用队列等来预取/预处理示例以在生产环境中实际使用它们. 它似乎记录在here中,但它来自tflearn项目,但tf.contrib.layers.sparse_column_with_hash_bucket似乎也不在该存储库中.解决方...

python – 在TensorFlow中显示图表的图像?【代码】

我写了一个简单的脚本来计算1,2,5的黄金比例.有没有办法通过实际图形结构实际产生视觉通过张量流(可能借助于matplotlib或networkx)?张量流的文档非常类似于因子图,所以我想知道: 如何通过张量流生成图形结构的图像? 在下面的这个例子中,它将是C_1,C_2,C_3作为单个节点,然后C_1将具有tf.sqrt操作,然后是将它们组合在一起的操作.也许图形结构(节点,边缘)可以导入到networkx中?我看到张量对象有一个图形属性,但我还没有找到如何实...

python – TensorFlow:有没有办法测量模型的FLOPS?【代码】

我能得到的最接近的例子可以在这个问题中找到:https://github.com/tensorflow/tensorflow/issues/899 使用此最小可重现代码:import tensorflow as tf import tensorflow.python.framework.ops as ops g = tf.Graph() with g.as_default():A = tf.Variable(tf.random_normal( [25,16] ))B = tf.Variable(tf.random_normal( [16,9] ))C = tf.matmul(A,B) # shape=[25,9] for op in g.get_operations():flops = ops.get_stats_for_...

python – Tensorflow ValueError:没有要保存的变量【代码】

我写了一个张量流CNN,它已经训练好了.我希望恢复它以便在几个样本上运行它但不幸的是它吐出来:ValueError: No variables to save我的评估代码可以在这里找到:import tensorflow as tfimport main import Process import Inputeval_dir = "/Users/Zanhuang/Desktop/NNP/model.ckpt-30" checkpoint_dir = "/Users/Zanhuang/Desktop/NNP/checkpoint"init_op = tf.initialize_all_variables() saver = tf.train.Saver()def evaluate(...

python – Tensorflow:.ckpt文件和.ckpt.meta和.ckpt.index以及.pb文件之间的关系是什么【代码】

我使用saver = tf.train.Saver()来保存我训练过的模型,并得到三种名为的文件: > .ckpt.meta> .ckpt.index> .ckpt.data 并且文件名为: >检查站 与.ckpt文件的连接是什么? 我看到有人用.ckpt文件保存模型,我不知道怎么做.如何将模型保存为.pb文件?解决方法:> .ckpt文件是saver.save(sess)的旧版本输出,它相当于.ckpt-data(见下文)>“checkpoint”文件仅用于告知某些TF函数,这是最新的检查点文件.> .ckpt-meta包含元图,即计算图的...

python – TensorFlow推断【代码】

我一直在研究这个问题.我发现了很多文章;但是没有一个真正只显示张量流推理作为一个简单的推论.它始终“使用服务引擎”或使用预编码/定义的图形. 问题出在这里:我有一个偶尔检查更新模型的设备.然后,它需要加载该模型并通过模型运行输入预测. 在keras这很简单:建立一个模型;训练模型和调用model.predict().在scikit中学习同样的事情. 我能够抓住一个新模型并加载它;我可以打印出所有的重量;但我怎么在世界上推断它? 加载模型和打...

python – 如何运行定义Tensorflow图是所有变量都在float16而不是float32【代码】

默认情况下,变量Tensorflow在float32中.为了节省内存,我正在尝试在float16中运行.在我的图表中,每个我可以将数据类型定义为float16的地方,我做到了.但是,当我运行代码时出现错误 这是我下面的代码.import math import numpy as np import tensorflow as tfvocabulary_size = 10 batch_size = 64 embedding_size = 100 num_inputs =4 num_sampled = 128 graph = tf.Graph()with graph.as_default(): #took out " , tf.device('/cp...

python – Tensorflow的tensorflow variable_scope值参数含义

我目前正在阅读基于Tensorflow的slim库的源代码,他们使用variable_scope方法的值参数,如here. 从API页面我可以看到:This context manager validates that the (optional) values are from the same graph, ensures that graph is the default graph, and pushes a name scope and a variable scope.我的问题是:如果值来自同一个图表,则只会检查值中的变量吗?有什么用例以及为什么有人会需要它?解决方法:variable_scope参数有助...

python – 安装Tensorflow并提供量化支持【代码】

这是我对另一个问题的跟进:Error with 8-bit Quantization in Tensorflow 基本上,我想安装具有8位量化支持的Tensorflow.目前,我在CentOS 7机器上安装了Tensorflow 0.9和pip安装方法(没有GPU支持). 我可以编译并运行Pete Warden博客文章中给出的代码.但是,我无法导入Pete Warden回复中给出的功能.我想添加量化支持.我在Tensorflow文档中也找不到有关量化部分的任何细节. 有人可以分享一下如何做的细节吗?解决方法:暂时,我可以找到...

python – Tensorflow负抽样【代码】

我正在尝试按照tensorflow上的udacity教程,我遇到了以下两行用于单词嵌入模型:# Look up embeddings for inputs.embed = tf.nn.embedding_lookup(embeddings, train_dataset)# Compute the softmax loss, using a sample of the negative labels each time.loss = tf.reduce_mean(tf.nn.sampled_softmax_loss(softmax_weights, softmax_biases, embed, train_labels, num_sampled, vocabulary_size))现在我明白第二个陈述是对负标...