Questions tagged «tensorflow»

TensorFlow是Google编写和维护的,用于深度学习的开源库和API。将此标记与语言特定的标记([python],[c ++],[javascript],[r]等)结合使用,以解决有关使用API​​解决机器学习问题的问题。TensorFlow API可以使用的编程语言各不相同,因此您必须指定编程语言。还要指定应用领域,例如[对象检测]。


16
找不到满足需求张量流的版本
我安装了最新版本的Python (3.6.4 64-bit)和最新版本的PyCharm (2017.3.3 64-bit)。然后我在PyCharm中安装了一些模块(Numpy,Pandas等),但是当我尝试安装Tensorflow时却没有安装,并且出现了错误消息: 找不到满足TensorFlow要求的版本(来自版本:)找不到与TensorFlow匹配的发行版。 然后我尝试从命令提示符下安装TensorFlow,并得到了相同的错误消息。但是,我确实成功安装了tflearn。 我还安装了Python 2.7,但又收到了相同的错误消息。我搜索了该错误,并尝试了一些建议给其他人的方法,但是没有任何效果(包括安装Flask)。 我该如何安装Tensorflow?谢谢。

12
如何构建和使用Google TensorFlow C ++ API
我真的很想开始在C ++中使用Google的新Tensorflow库。网站和文档在如何构建项目的C ++ API方面还不清楚,我不知道从哪里开始。 有更多经验的人可以通过发现和共享使用tensorflow的C ++ API的指南来提供帮助吗?
168 c++  tensorflow 

10
如何在张量流中获取当前可用的GPU?
我有一个使用分布式TensorFlow的计划,并且看到TensorFlow可以使用GPU进行培训和测试。在集群环境中,每台机器可能具有0个或1个或更多个GPU,我想将TensorFlow图运行到尽可能多的机器上的GPU中。 我发现运行tf.Session()TensorFlow时会在如下所示的日志消息中提供有关GPU的信息: I tensorflow/core/common_runtime/gpu/gpu_init.cc:126] DMA: 0 I tensorflow/core/common_runtime/gpu/gpu_init.cc:136] 0: Y I tensorflow/core/common_runtime/gpu/gpu_device.cc:838] Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX 1080, pci bus id: 0000:01:00.0) 我的问题是如何从TensorFlow获取有关当前可用GPU的信息?我可以从日志中获取已加载的GPU信息,但我想以更复杂的编程方式进行操作。我还可以使用CUDA_VISIBLE_DEVICES环境变量有意地限制GPU,所以我不想知道一种从OS内核获取GPU信息的方法。 简而言之,如果机器中有两个GPU ,我希望这样的函数tf.get_available_gpus()将返回['/gpu:0', '/gpu:1']。我该如何实施?
165 python  gpu  tensorflow 


10
Keras,如何获得每一层的输出?
我已经使用CNN训练了二进制分类模型,这是我的代码 model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = (2048) model.add(Flatten()) model.add(Dense(1024)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(2)) # define a binary classification problem model.add(Activation('softmax')) model.compile(loss='categorical_crossentropy', optimizer='adadelta', metrics=['accuracy']) model.fit(x_train, …




4
TensorFlow,为什么选择python语言?
我最近开始研究深度学习和其他ML技术,并开始寻找简化构建网络并对其进行培训的框架,然后我发现TensorFlow在该领域经验不足,对我来说,速度似乎是如果与深度学习一起工作,那么使大型机器学习系统变得更大的重要因素,那么为什么Google选择python来制造TensorFlow?用一种可以编译且无法解释的语言来编写代码会更好吗? 使用Python而不是像C ++这样的语言进行机器学习有什么优势?

2
为什么TensorFlow 2比TensorFlow 1慢得多?
许多用户都将其作为切换到Pytorch的原因,但是我还没有找到牺牲/最渴望的实用质量,速度和执行力的理由/解释。 以下是代码基准测试性能,即TF1与TF2的对比-TF1的运行速度提高了47%至276%。 我的问题是:在图形或硬件级别上,什么导致如此显着的下降? 寻找详细的答案-已经熟悉广泛的概念。相关的Git 规格:CUDA 10.0.130,cuDNN 7.4.2,Python 3.7.4,Windows 10,GTX 1070 基准测试结果: UPDATE:禁用每下面的代码不会急于执行没有帮助。但是,该行为是不一致的:有时以图形方式运行会有所帮助,而其他时候其运行速度要比 Eager 慢。 由于TF开发人员没有出现在任何地方,因此我将自己进行调查-可以跟踪相关Github问题的进展。 更新2:分享大量实验结果,并附有解释;应该在今天完成。 基准代码: # use tensorflow.keras... to benchmark tf.keras; used GPU for all above benchmarks from keras.layers import Input, Dense, LSTM, Bidirectional, Conv1D from keras.layers import Flatten, Dropout from keras.models import Model from keras.optimizers import Adam …

5
tf.nn.conv2d在tensorflow中做什么?
我在tf.nn.conv2d 这里查看 tensorflow的文档。但是我不明白它的作用或试图达到的目的。它在文档上说, #1:将滤镜展平为具有形状的二维矩阵 [filter_height * filter_width * in_channels, output_channels]。 现在那是做什么的?是逐元素乘法还是仅矩阵乘法?我也无法理解文档中提到的其他两点。我在下面写了它们: #2:从输入张量中提取图像补丁,以形成形状的虚拟张量 [batch, out_height, out_width, filter_height * filter_width * in_channels]。 #3:对于每个色块,将滤波器矩阵和图像色块向量右乘。 如果有人可以举一个例子,也许有一段代码(极其有用)并解释那里发生了什么以及为什么这样的操作,那将真的很有帮助。 我尝试编码一小部分并打印出操作的形状。不过,我还是不明白。 我尝试过这样的事情: op = tf.shape(tf.nn.conv2d(tf.random_normal([1,10,10,10]), tf.random_normal([2,10,10,10]), strides=[1, 2, 2, 1], padding='SAME')) with tf.Session() as sess: result = sess.run(op) print(result) 我了解卷积神经网络的点点滴滴。我在这里学习过。但是在tensorflow上的实现不是我期望的。因此它提出了一个问题。 编辑:所以,我实现了一个简单得多的代码。但是我不知道发生了什么。我的意思是结果是这样的。如果有人能告诉我是什么过程产生此输出的,那将非常有帮助。 input = tf.Variable(tf.random_normal([1,2,2,1])) filter = tf.Variable(tf.random_normal([1,1,1,1])) op …

10
Tensorflow 2.0-AttributeError:模块'tensorflow'没有属性'Session'
sess = tf.Session()在Tensorflow 2.0环境中执行命令时,出现如下错误消息: Traceback (most recent call last): File "<stdin>", line 1, in <module> AttributeError: module 'tensorflow' has no attribute 'Session' 系统信息: 操作系统平台和发行版:Windows 10 python版本:3.7.1 Tensorflow版本:2.0.0-alpha0(随pip一起安装) 重现步骤: 安装: 点安装-升级点 pip install tensorflow == 2.0.0-alpha0 点安装keras 点安装numpy == 1.16.2 执行: 执行命令:将tensorflow导入为tf 执行命令:sess = tf.Session()

8
如何在CPU上运行Tensorflow
我已经在Ubuntu 14.04上安装了GPU版本的tensorflow。 我在GPU服务器上,张量流可以访问可用的GPU。 我想在CPU上运行tensorflow。 通常我可以env CUDA_VISIBLE_DEVICES=0在GPU号上运行。0。 我该如何在CPU之间进行选择? 我不喜欢重新编写我的代码 with tf.device("/cpu:0"):
128 python  tensorflow 

4
TensorFlow中Variable和get_variable之间的区别
据我所知,Variable是变量的默认操作,get_variable主要用于权重分配。 一方面,有人建议在需要变量时使用get_variable而不是原始Variable操作。另一方面,我只get_variable在TensorFlow的官方文档和演示中看到了任何使用。 因此,我想了解有关如何正确使用这两种机制的一些经验法则。是否有任何“标准”原则?
125 python  tensorflow 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.