Questions tagged «tensorflow»

TensorFlow是Google编写和维护的,用于深度学习的开源库和API。将此标记与语言特定的标记([python],[c ++],[javascript],[r]等)结合使用,以解决有关使用API​​解决机器学习问题的问题。TensorFlow API可以使用的编程语言各不相同,因此您必须指定编程语言。还要指定应用领域,例如[对象检测]。

6
在TensorFlow中使用预训练的单词嵌入(word2vec或Glove)
我最近审查了卷积文本分类的一个有趣的实现。但是我检查过的所有TensorFlow代码都使用如下的随机(未经预训练)嵌入向量: with tf.device('/cpu:0'), tf.name_scope("embedding"): W = tf.Variable( tf.random_uniform([vocab_size, embedding_size], -1.0, 1.0), name="W") self.embedded_chars = tf.nn.embedding_lookup(W, self.input_x) self.embedded_chars_expanded = tf.expand_dims(self.embedded_chars, -1) 有谁知道如何使用Word2vec或GloVe预训练词嵌入的结果,而不是随机的结果?

6
加载经过训练的Keras模型并继续训练
我想知道是否有可能保存经过部分训练的Keras模型并在再次加载模型后继续进行训练。 这样做的原因是,将来我将拥有更多的训练数据,并且我不想再次对整个模型进行训练。 我正在使用的功能是: #Partly train model model.fit(first_training, first_classes, batch_size=32, nb_epoch=20) #Save partly trained model model.save('partly_trained.h5') #Load partly trained model from keras.models import load_model model = load_model('partly_trained.h5') #Continue training model.fit(second_training, second_classes, batch_size=32, nb_epoch=20) 编辑1:添加了完全正常的示例 对于第10个时期后的第一个数据集,最后一个时期的损失将为0.0748,精度为0.9863。 保存,删除和重新加载模型后,第二个数据集上训练的模型的损失和准确性分别为0.1711和0.9504。 这是由新的训练数据还是完全重新训练的模型引起的? """ Model by: http://machinelearningmastery.com/ """ # load (downloaded if needed) the MNIST dataset import …

10
如何在TensorFlow中添加正则化?
我在使用TensorFlow实现的许多可用神经网络代码中发现,正则化项通常是通过在损耗值上手动添加一个附加项来实现的。 我的问题是: 是否有比手动进行更优雅或推荐的正规化方法? 我也发现get_variable有一个论点regularizer。应该如何使用?根据我的观察,如果我们向其传递正则化器(例如tf.contrib.layers.l2_regularizer,将计算表示正则化项的张量并将其添加到名为的图集合中tf.GraphKeys.REGULARIZATOIN_LOSSES,该集合是否会被TensorFlow自动使用(例如,训练时由优化器使用)?期望我自己使用该收藏集吗?

5
Dataset.map,Dataset.prefetch和Dataset.shuffle中buffer_size的含义
根据TensorFlow 文档,类的prefetch和map方法tf.contrib.data.Dataset都有一个名为的参数buffer_size。 对于prefetchmethod,该参数称为,buffer_size并且根据文档: buffer_size:一个tf.int64标量tf.Tensor,表示预取时将要缓冲的最大元素数。 对于该map方法,output_buffer_size根据文档,该参数称为和: output_buffer_size:(可选。)tf.int64标量tf.Tensor,表示将要缓冲的最大已处理元素数。 同样,对于shuffle方法,根据文档显示相同的数量: buffer_size:一个tf.int64标量tf.Tensor,表示此数据集中要从中采样新数据集的元素数。 这些参数之间有什么关系? 假设我创建一个Dataset对象,如下所示: tr_data = TFRecordDataset(trainfilenames) tr_data = tr_data.map(providefortraining, output_buffer_size=10 * trainbatchsize, num_parallel_calls\ =5) tr_data = tr_data.shuffle(buffer_size= 100 * trainbatchsize) tr_data = tr_data.prefetch(buffer_size = 10 * trainbatchsize) tr_data = tr_data.batch(trainbatchsize) buffer上面片段中的参数在扮演什么角色?

4
np.mean和tf.reduce_mean有什么区别?
在MNIST初学者教程中,有一条声明 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) tf.cast基本上改变了对象的张量类型,但是tf.reduce_mean和之间有什么区别np.mean? 这是有关的文档tf.reduce_mean: reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None) input_tensor:张量减少。应为数字类型。 reduction_indices:要缩小的尺寸。如果None(默认)减小所有尺寸。 # 'x' is [[1., 1. ]] # [2., 2.]] tf.reduce_mean(x) ==> 1.5 tf.reduce_mean(x, 0) ==> [1.5, 1.5] tf.reduce_mean(x, 1) ==> [1., 2.] 对于一维矢量,它看起来像np.mean == tf.reduce_mean,但我不了解tf.reduce_mean(x, 1) ==> [1., 2.]。tf.reduce_mean(x, 0) ==> [1.5, 1.5]的意思是合理的,因为的意思是[1, 2]和[1, 2]是[1.5, 1.5],但是这是怎么回事tf.reduce_mean(x, 1)?

4
Tensorflow中的global_step是什么意思?
这是TensorFlow网站上的教程代码, 谁能帮忙解释什么global_step意思? 我在Tensorflow网站上发现,全局步骤用于计数训练步骤,但我不太清楚其确切含义。 另外,设置时数字0是什么意思global_step? def training(loss,learning_rate): tf.summary.scalar('loss',loss) optimizer = tf.train.GradientDescentOptimizer(learning_rate) # Why 0 as the first parameter of the global_step tf.Variable? global_step = tf.Variable(0, name='global_step',trainable=False) train_op = optimizer.minimize(loss, global_step=global_step) return train_op 根据Tensorflow doc global_step:在变量已更新后增加1。这是否意味着一次更新global_step变为1?

6
如何获取Tensorflow张量尺寸(形状)作为int值?
假设我有一个Tensorflow张量。如何获取张量的尺寸(形状)作为整数值?我知道有两种方法,tensor.get_shape()和tf.shape(tensor),但是我不能将形状值作为整int32数值。 例如,下面我创建了一个二维张量,我需要获取行数和列数,int32以便可以调用reshape()以创建shape张量(num_rows * num_cols, 1)。但是,该方法tensor.get_shape()返回值作为Dimension类型,而不是类型int32。 import tensorflow as tf import numpy as np sess = tf.Session() tensor = tf.convert_to_tensor(np.array([[1001,1002,1003],[3,4,5]]), dtype=tf.float32) sess.run(tensor) # array([[ 1001., 1002., 1003.], # [ 3., 4., 5.]], dtype=float32) tensor_shape = tensor.get_shape() tensor_shape # TensorShape([Dimension(2), Dimension(3)]) print tensor_shape # (2, 3) num_rows = tensor_shape[0] # ??? num_cols …

26
由于环境错误而无法安装软件包:[WinError 5]访问被拒绝:
我有Windows 10.我已经完成安装Tensorflow。有用。它说“你好Tensorflow!”。但是它具有所有这些: 2018-08-18 18:16:01.500579: I T:\src\github\tensorflow\tensorflow\core\platform\cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2 2018-08-18 18:16:01.769002: I T:\src\github\tensorflow\tensorflow\core\common_runtime\gpu\gpu_device.cc:1405] Found device 0 with properties: name: GeForce GTX 950 major: 5 minor: 2 memoryClockRate(GHz): 1.3545 pciBusID: 0000:01:00.0 totalMemory: 2.00GiB freeMemory: 1.64GiB 2018-08-18 18:16:01.774030: I T:\src\github\tensorflow\tensorflow\core\common_runtime\gpu\gpu_device.cc:1484] Adding …
88 tensorflow 



5
如何*实际*读取TensorFlow中的CSV数据?
我在TensorFlow领域相对较新,对您如何将CSV数据实际读入TensorFlow中可用的示例/标签张量的方式感到困惑。TensorFlow教程中有关读取CSV数据的示例相当分散,仅使您成为能够训练CSV数据的一部分。 这是我根据CSV教程整理而成的代码: from __future__ import print_function import tensorflow as tf def file_len(fname): with open(fname) as f: for i, l in enumerate(f): pass return i + 1 filename = "csv_test_data.csv" # setup text reader file_length = file_len(filename) filename_queue = tf.train.string_input_producer([filename]) reader = tf.TextLineReader(skip_header_lines=1) _, csv_row = reader.read(filename_queue) # setup CSV decoding …
83 python  csv  tensorflow 

2
如何在TensorFlow中选择交叉熵损失?
分类问题(例如逻辑回归或多项式逻辑回归)可优化交叉熵损失。通常,交叉熵层跟随softmax层,从而产生概率分布。 在张量流中,至少有十二种不同的交叉熵损失函数: tf.losses.softmax_cross_entropy tf.losses.sparse_softmax_cross_entropy tf.losses.sigmoid_cross_entropy tf.contrib.losses.softmax_cross_entropy tf.contrib.losses.sigmoid_cross_entropy tf.nn.softmax_cross_entropy_with_logits tf.nn.sigmoid_cross_entropy_with_logits ... 哪一个仅适用于二进制分类,哪些适合于多类问题?什么时候应该sigmoid代替使用softmax?如何在sparse功能与别人不同,为什么仅是它softmax? 相关(更多面向数学的讨论):Keras和TensorFlow中所有这些交叉熵损失之间有什么区别?。

4
使用TensorFlow模型进行预测
我遵循了给定的mnist教程,并且能够训练模型并评估其准确性。但是,这些教程没有显示如何在给定模型的情况下进行预测。我对准确性不感兴趣,我只想使用模型来预测一个新示例,然后在输出中查看所有结果(标签),每个结果都有其分配的分数(排序或不排序)。
81 tensorflow 

2
model.compile()是否初始化Keras(tensorflow后端)中的所有权重和偏差?
当我开始训练模型时,以前没有保存任何模型。我可以model.compile()安全使用。我现在将模型保存在h5文件中,以使用进行进一步的培训checkpoint。 说,我想进一步训练模型。我现在很困惑:我可以model.compile()在这里使用吗?并将其放在model = load_model()声明之前还是之后?如果model.compile()重新初始化所有权重和偏差,则应将其放在model = load_model()语句之前。 在发现一些讨论之后,在我看来,model.compile()仅当我之前没有保存任何模型时才需要。保存模型后,无需使用model.compile()。是真的还是假的?当我想使用训练好的模型进行预测时,应该model.compile()在预测之前使用吗?
81 tensorflow  keras 

18
ImportError:没有名为tensorflow的模块
请帮我解决这个错误 我已经在服务器上安装了tensorflow模块,下面是它的信息 15IT60R19@cpusrv-gpu-109:~$ pip show tensorflow Name: tensorflow Version: 1.0.0 Summary: TensorFlow helps the tensors flow Home-page: http://tensorflow.org/ Author: Google Inc. Author-email: opensource@google.com License: Apache 2.0 Location: /home/other/15IT60R19/anaconda2/lib/python2.7/site-packages Requires: mock, numpy, protobuf, wheel, six 但是当我尝试导入tensorflow时出现以下错误 >>> import tensorflow as tf Traceback (most recent call last): File "<stdin>", line 1, in …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.