Questions tagged «tensorflow»

TensorFlow是Google编写和维护的,用于深度学习的开源库和API。将此标记与语言特定的标记([python],[c ++],[javascript],[r]等)结合使用,以解决有关使用API​​解决机器学习问题的问题。TensorFlow API可以使用的编程语言各不相同,因此您必须指定编程语言。还要指定应用领域,例如[对象检测]。

4
我们应该为亚当优化器做学习率衰减吗
我正在使用Adam优化器训练一个用于图像定位的网络,有人建议我使用指数衰减。我不想尝试,因为Adam优化器本身会降低学习速度。但是那个家伙坚持说,他说他以前做过。所以我应该这样做,您的建议背后是否有任何理论依据?



8
如何在TensorFlow中使用批处理规范化?
我想在TensorFlow中使用批处理规范化。我在中找到了相关的C ++源代码core/ops/nn_ops.cc。但是,我没有在tensorflow.org上找到它的文档。 BN在MLP和CNN中具有不同的语义,因此我不确定此BN的确切作用。 我没有找到任何一种方法MovingMoments。

9
深度学习难的原因
也许这个问题太笼统,但是谁能解释导致卷积神经网络发散的原因是什么? 细节: 我正在使用Tensorflow的iris_training模型处理一些自己的数据,并不断获取 错误:张量流:模型因损失= NaN而发散。 追溯... tensorflow.contrib.learn.python.learn.monitors.NanLossDuringTrainingError:训练期间NaN丢失。 回溯源于以下行: tf.contrib.learn.DNNClassifier(feature_columns=feature_columns, hidden_units=[300, 300, 300], #optimizer=tf.train.ProximalAdagradOptimizer(learning_rate=0.001, l1_regularization_strength=0.00001), n_classes=11, model_dir="/tmp/iris_model") 我尝试过调整优化器,将学习率设置为零,并且不使用优化器。任何对网络层,数据大小等的见解都将受到赞赏。

2
Jupyter中的Tensorflow设置CUDA_VISIBLE_DEVICES
我有两个GPU,想同时通过ipynb运行两个不同的网络,但是第一个笔记本始终分配两个GPU。 使用CUDA_VISIBLE_DEVICES,我可以隐藏python文件的设备,但是我不确定如何在笔记本中这样做。 无论如何,是否会将不同的GPU隐藏在同一服务器上运行的笔记本电脑中?


4
tf.layers.conv2d和tf.layers.dense中的默认内核初始化程序是什么?
Tensorflow API官方文档声称该参数kernel_initializer默认为Nonefortf.layers.conv2d和tf.layers.dense。 但是,在阅读图层教程(https://www.tensorflow.org/tutorials/layers)时,我注意到在代码中未设置此参数。例如: # Convolutional Layer #1 conv1 = tf.layers.conv2d( inputs=input_layer, filters=32, kernel_size=[5, 5], padding="same", activation=tf.nn.relu) 本教程中的示例代码运行无任何错误,因此我认为默认kernel_initializer值为not None。那么,使用哪个初始化器? 在另一个代码中,我没有设置kernel_initializerconv2d和密集层的,一切都很好。然而,当我试图设置kernel_initializer到tf.truncated_normal_initializer(stddev=0.1, dtype=tf.float32),我得到NaN的错误。这里发生了什么?有人可以帮忙吗?
75 tensorflow 

7
如何使用TensorFlow获得稳定的结果,设置随机种子
我正在尝试使用不同的参数多次运行神经网络,以便校准网络参数(辍学概率,学习率ed)。但是我遇到的问题是,当我按如下所示循环运行网络时,在保持参数不变的情况下运行网络仍然为我提供了不同的解决方案: filename = create_results_file() for i in range(3): g = tf.Graph() with g.as_default(): accuracy_result, average_error = network.train_network( parameters, inputHeight, inputWidth, inputChannels, outputClasses) f, w = get_csv_writer(filename) w.writerow([accuracy_result, "did run %d" % i, average_error]) f.close() 在设置网络的层和错误功能之前,我在train_network函数的开头使用了以下代码: np.random.seed(1) tf.set_random_seed(1) 我还尝试在TensorFlow图形创建之前添加此代码,但是在结果输出中我会不断获得不同的解决方案。 我正在使用AdamOptimizer并使用初始化网络权重tf.truncated_normal。另外,我正在使用np.random.permutation随机播放每个时期的传入图像。




4
tensorflow:AttributeError:'模块'对象没有属性'mul'
我已经使用tensorflow了一天,但是会遇到一些麻烦,当我导入tensorflow时会出现AttributeError:'module'对象没有属性'XXXXXX' 环境 我使用ubuntu14.04,python2.7,CUDA工具包8.0和CuDNN v5。我的六个和protobuf的版本分别是:名称:六个版本:1.10.0位置:/usr/local/lib/python2.7/dist-packages要求:名称:protobuf版本:3.2.0位置:/ usr / local / lib / python2.7 / dist-packages要求:六个,setuptools 这是我的测试代码: import tensorflow as tf a = tf.placeholder(tf.int16) b = tf.placeholder(tf.int16) add = tf.add(a, b) mul = tf.mul(a, b) with tf.Session() as sess: # Run every operation with variable input print "Addition with variables: %i" % sess.run(add, …

3
TensorFlow中的梯度下降vs Adagrad vs动量
即使我不是神经网络和深度学习的专家(仅仅是基础知识),我也在研究TensorFlow及其使用方法。 在后续教程中,我不了解这三种损失优化器之间的实际差异和实际差异。我看了一下API并了解了这些原理,但是我的问题是: 1.什么时候最好使用一个而不是另一个? 2.是否有重要的区别要知道?


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.