Questions tagged «gpu»

3
keras中的多GPU
如何在keras库(或tensorflow)中进行编程,以在多个GPU上划分训练?假设您位于具有8个GPU的Amazon ec2实例中,并且希望使用它们全部进行训练,但是您的代码仅适用于单个CPU或GPU。

3
在CPU和GPU之间进行选择以训练神经网络
我已经看到了有关GPU“开销”的讨论,对于“小型”网络,在CPU(或CPU网络)上进行训练实际上可能比GPU更快。 什么是“小”? 例如,具有100个隐藏单元的单层MLP是否会“很小”? 对于循环架构,我们对“小”的定义会改变吗? 在决定在CPU或GPU上进行训练时,还应该考虑其他标准吗? 编辑1: 我刚刚找到了一篇博客文章(可能已过时?它是从2014年开始的): “ ...大多数网卡仅适用于已向CPU注册的内存,因此两个节点之间的GPU到GPU的传输将是这样的:GPU 1到CPU 1到网卡1到网卡2到CPU 2到GPU2。这意味着,如果选择一个速度较慢的网卡,则在一台计算机上可能无法实现加速;即使使用快速网卡,如果群集很大,相比时,甚至连GPU都无法获得加速。对CPU而言,因为GPU的工作速度太快,以至于网卡无法跟上它们的步伐。 这就是为什么许多大公司(例如Google和Microsoft)使用CPU而不是GPU群集来训练其大型神经网络的原因。” 因此,根据本文的观点,使用CPU可能更快。还是这样吗? 编辑2:是的,该博客文章可能非常过时,因为: 现在看来,节点内的GPU是通过PCIe总线连接的,因此通信速度约为6GiB / s。(例如:https : //www.youtube.com/watch?v=el1iSlP1uOs,大约需要35分钟)。发言者暗示这比从GPU1到CPU再到GPU2快。这意味着网卡不再是瓶颈。

4
将TensorFlow与Intel GPU结合使用
我是深度学习的新手。 现在有什么办法可以将TensorFlow与Intel GPU一起使用吗?如果是,请指出正确的方向。 如果没有,请让我知道我的英特尔公司Xeon E3-1200 v3 / 4th Gen Core Processor Integrated Graphics Controller可以使用哪个框架(Keras,Theano等)。
20 tensorflow  keras  theano  gpu 

4
R:GPU上的机器学习
是否有用于R的任何机器学习包都可以利用GPU来提高训练速度(类似于python世界中的theano)? 我看到有一个名为gputools的程序包,它允许在gpu上执行代码,但我正在寻找一个更完整的库用于机器学习。

3
我应该使用GPU还是CPU进行推理?
我正在运行由GPU训练的深度学习神经网络。现在,我想将此部署到多个主机以进行推断。问题是什么条件决定我应该使用GPU还是CPU进行推理? 在下面的评论中添加更多详细信息。 我对此并不陌生,因此非常感谢您的指导。 内存:GPU是K80 框架:Cuda和cuDNN 每个工作负载的数据大小:20G 计算要消耗的节点:每个作业一个,尽管要考虑扩展选项 费用:如果理由合理,我可以负担得起GPU选项 部署:在自己托管的裸机服务器上运行,而不是在云中。 现在,我在CPU上运行只是因为应用程序运行正常。但是出于这个原因,我不确定为什么还要考虑使用GPU。

1
Windows中用于R的GPU加速数据处理
我目前正在撰写有关大数据的论文,该论文使我们大量利用R进行数据分析。出于游戏原因,我的电脑中恰巧装有GTX1070。因此,我认为如果可以使用它来加快我的老师正在做的某些事情的处理速度,那真的很酷,但是这样做似乎并不容易。我已经安装了gpuR,CUDA,Rtools和其他一些东西,例如,我可以从基因组表达数据中创建gpuMatrix对象,但是我还没有找到可以同时使用gpuMatrix对象的函数并且还提供了任何明显的性能差异。也许这只是与gpuR程序包固有的局限性有关-其他一些程序包似乎确实在谈论具有听起来像他们在寻找我想要的东西的功能, 几乎所有这些软件包都是专用于Linux的,在Windows中实现对R的GPU支持是否特别困难?还是有其他原因导致Windows中可用的软件包太少?从某种意义上说,我只是很好奇,但是真正发挥作用也很酷。令我惊讶的是,Windows几乎没有可用的功能,通常情况恰恰相反。
11 r  gpu  parallel 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.