Questions tagged «gpu»

“图形处理单元”的缩写。对于传统图形应用程序的编程,请参见“图形编程”的标签条目。有关使用GPU进行通用编程的信息,请参见“ gpgpu”的标签条目。有关特定的GPU编程技术,请参见流行的标签条目“ opencl”,“ cuda”和“ thrust”。

27
如何判断tensorflow是否在python shell中使用gpu加速?
我已经在ubuntu 16.04中使用第二个答案在 ubuntu的内置apt cuda安装中安装了tensorflow 。 现在我的问题是如何测试tensorflow是否真的在使用gpu?我有一个gtx 960m gpu。当我import tensorflow这是输出 I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally 这个输出足以检查tensorflow是否正在使用gpu吗?
303 python  tensorflow  ubuntu  gpu 

4
从前,当>快于<…时,等等?
我正在阅读一个很棒的OpenGL教程。真的很好,相信我。我当前所在的主题是Z缓冲区。除了解释全部内容之外,作者还提到我们可以执行自定义深度测试,例如GL_LESS,GL_ALWAYS等。他还解释了深度值的实际含义(最高和最低)也可以是定制。到目前为止我还了解。然后作者说了一些难以置信的话: zNear范围可以大于zFar范围;如果是这样,那么就构成距观看者最近或最远的位置而言,窗口空间值将反转。 此前,有人说窗口空间Z值0最接近,而1最远。但是,如果我们的剪辑空间Z值被取反,则深度1将最接近视图,深度0将最远。但是,如果翻转深度测试的方向(GL_LESS到GL_GREATER等),我们将得到完全相同的结果。因此,这实际上只是一个约定。确实,翻转Z的符号和深度测试曾经是许多游戏中至关重要的性能优化。 如果我正确理解,从性能角度来看,翻转Z的符号和深度测试仅是将&lt;比较更改为比较而已&gt;。因此,如果我理解正确,而作者并没有在撒谎或编造东西,那么更改&lt;为&gt;过去对于许多游戏来说都是至关重要的优化。 作者是在编造东西吗,我是在误解某些东西,还是真的曾经比&lt;他慢(如作者所说,生命至关重要)&gt;? 感谢您澄清这个非常奇怪的问题! 免责声明:我完全知道算法复杂性是优化的主要来源。此外,我怀疑现在绝对不会有任何改变,我不是要优化它。我只是极度,痛苦,甚至是好奇。
280 c  optimization  opengl  cpu  gpu 

14
NVIDIA NVML驱动程序/库版本不匹配
运行时,nvidia-smi我收到以下消息: Failed to initialize NVML: Driver/library version mismatch 一个小时前,我收到了同样的消息,并卸载了cuda库,并且能够运行nvidia-smi,得到以下结果: 之后,我cuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.deb从NVIDIA官方页面下载了文件,然后简单地: sudo dpkg -i cuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.deb sudo apt-get update sudo apt-get install cuda export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}} 现在,我已经安装了cuda,但是出现了提到的不匹配错误。 一些可能有用的信息: 运行cat /proc/driver/nvidia/version我得到: NVRM version: NVIDIA UNIX x86_64 Kernel Module 378.13 Tue Feb 7 20:10:06 PST 2017 GCC version: gcc version 5.4.0 20160609 (Ubuntu 5.4.0-6ubuntu1~16.04.4) 我正在运行Ubuntu …
223 cuda  driver  gpu  nvidia 

9
GPU编程简介[关闭]
已关闭。这个问题是基于观点的。它当前不接受答案。 想改善这个问题吗?更新问题,以便通过编辑此帖子以事实和引文回答。 5年前关闭。 改善这个问题 每个人都以图形卡GPU的形式在台式机上拥有这台大型的大规模并行超级计算机。 什么是GPU社区的“ hello world”? 我该怎么做,该去哪里,才能开始为主要的GPU供应商编程GPU? -亚当
176 gpu 

10
如何在张量流中获取当前可用的GPU?
我有一个使用分布式TensorFlow的计划,并且看到TensorFlow可以使用GPU进行培训和测试。在集群环境中,每台机器可能具有0个或1个或更多个GPU,我想将TensorFlow图运行到尽可能多的机器上的GPU中。 我发现运行tf.Session()TensorFlow时会在如下所示的日志消息中提供有关GPU的信息: I tensorflow/core/common_runtime/gpu/gpu_init.cc:126] DMA: 0 I tensorflow/core/common_runtime/gpu/gpu_init.cc:136] 0: Y I tensorflow/core/common_runtime/gpu/gpu_device.cc:838] Creating TensorFlow device (/gpu:0) -&gt; (device: 0, name: GeForce GTX 1080, pci bus id: 0000:01:00.0) 我的问题是如何从TensorFlow获取有关当前可用GPU的信息?我可以从日志中获取已加载的GPU信息,但我想以更复杂的编程方式进行操作。我还可以使用CUDA_VISIBLE_DEVICES环境变量有意地限制GPU,所以我不想知道一种从OS内核获取GPU信息的方法。 简而言之,如果机器中有两个GPU ,我希望这样的函数tf.get_available_gpus()将返回['/gpu:0', '/gpu:1']。我该如何实施?
165 python  gpu  tensorflow 


14
通过c#使用GPU
关闭。此问题不符合堆栈溢出准则。它当前不接受答案。 想改善这个问题吗?更新问题,使其成为Stack Overflow 的主题。 2年前关闭。 改善这个问题 我试图从网格中获取更多处理能力。 我正在使用所有的cpus /核心,是否可以将GPU与C#结合使用。 有人知道任何库或获得任何示例代码吗?
135 c#  gpu  gpgpu 

3
如何为CUDA内核选择网格和块尺寸?
这是关于如何确定CUDA网格,块和线程大小的问题。这是在此处发布的问题的另一个问题。 在此链接之后,来自爪子的答案包含一个代码段(请参见下文)。我不理解“通常是通过调整和硬件限制选择的值”的注释。 我在CUDA文档中找不到很好的解释或说明来解释这一点。总而言之,我的问题是blocksize给定以下代码,如何确定最佳(线程数): const int n = 128 * 1024; int blocksize = 512; // value usually chosen by tuning and hardware constraints int nblocks = n / nthreads; // value determine by block size and total work madd&lt;&lt;&lt;nblocks,blocksize&gt;&gt;&gt;mAdd(A,B,C,n);

7
无需硬件即可进行CUDA编程的GPU仿真器
关闭。此问题不符合堆栈溢出准则。它当前不接受答案。 想改善这个问题吗?更新问题,使其成为Stack Overflow 的主题。 去年关闭。 改善这个问题 问题:是否有用于Geforce卡的仿真器,可让我在没有实际硬件的情况下对CUDA进行编程和测试? 信息: 我希望加快CUDA中我的模拟速度,但是我的问题是,我并不总是在桌面上进行此开发。我想在上网本上做一些工作,但是上网本没有GPU。现在,据我所知,您需要具有CUDA功能的GPU才能运行CUDA。有办法解决这个问题吗?看来唯一的方法就是使用GPU仿真器(显然它会很慢,但可以正常工作)。但是,我想听听用什么方法做到这一点。 我正在Ubuntu 10.04 LTS上编程。
111 cuda  gpu  emulation  cpu 

9
Google合作实验室:有关其GPU的误导性信息(某些用户只能使用5%的RAM)
更新:此问题与Google Colab的“笔记本设置:硬件加速器:GPU”有关。在添加“ TPU”选项之前就写了这个问题。 阅读关于Google Colaboratory提供免费Tesla K80 GPU的多个激动人心的公告,我试图在它上运行fast.ai课程,以使其永远无法完成-很快耗尽内存。我开始调查原因。 最重要的是,“免费的Tesla K80”并不是所有人都“免费”的-因为其中只有一小部分是“免费的”。 我从加拿大西海岸连接到Google Colab,我只能得到0.5GB的24GB GPU RAM。其他用户可以访问11GB的GPU RAM。 显然,对于大多数ML / DL工作而言,0.5GB GPU RAM是不够的。 如果您不确定自己能得到什么,这里是我拼凑的一点调试功能(仅适用于笔记本的GPU设置): # memory footprint support libraries/code !ln -sf /opt/bin/nvidia-smi /usr/bin/nvidia-smi !pip install gputil !pip install psutil !pip install humanize import psutil import humanize import os import GPUtil as GPU GPUs = …

4
我可以在英特尔集成图形处理器上运行CUDA吗?
我有一台非常简单的带有i3处理器的东芝笔记本电脑。另外,我没有任何昂贵的图形卡。在显示设置中,我看到Intel(HD)Graphics作为显示适配器。我打算学习一些cuda编程。但是,我不确定是否可以在笔记本电脑上做到这一点,因为它没有任何支持nvidia的cuda的GPU。 实际上,我怀疑我是否还有GPU o_o 因此,如果有人可以告诉我是否可以使用当前配置进行CUDA编程,并且希望让我知道Intel(HD)Graphics是什么意思,我将不胜感激。

4
OpenGL如何在最低级别工作?[关闭]
在这里很难说出要问什么。这个问题是模棱两可,含糊,不完整,过于宽泛或夸张的,不能以目前的形式合理地回答。如需帮助澄清此问题以便可以重新打开, 请访问帮助中心。 9年前关闭。 我了解如何编写OpenGL / DirectX程序,并且了解其背后的数学知识和概念性知识,但是我很好奇GPU-CPU的通信在低级如何工作。 假设我有一个用C编写的OpenGL程序,该程序显示一个三角形并将相机旋转45度。当我编译该程序时,它将变成一系列的ioctl调用,然后gpu驱动程序将适当的命令发送到gpu,在那里旋转三角形并以适当的颜色设置适当的像素的所有逻辑都被连接了在?还是将程序编译成一个“ gpu程序”,然后将其加载到gpu上并计算旋转等?还是完全不同的东西? 编辑:几天后,我发现了该文章系列,基本上可以回答这个问题:http : //fgiesen.wordpress.com/2011/07/01/a-trip-through-the-graphics-pipeline-2011-part- 1 /
84 opengl  gpu 

6
是否可以在AMD GPU上运行CUDA?
我想将自己的技能扩展到GPU计算中。我熟悉光线跟踪和实时图形(OpenGL),但是下一代图形和高性能计算似乎是在GPU计算或类似的技术中。 我目前在家用计算机上使用AMD HD 7870显卡。我可以为此编写CUDA代码吗?(我的直觉不是,但是自从Nvidia发布编译器二进制文件以来,我可能是错的)。 第二个更普遍的问题是,我从哪里开始进行GPU计算?我敢肯定这是一个经常被问到的问题,但是我所看到的最好的是从08'开始的,我认为从那以后该领域已经发生了很大变化。
76 cuda  gpu  gpgpu  nvidia  amd 

2
GPU编程,CUDA还是OpenCL?[关闭]
已关闭。这个问题需要更加集中。它当前不接受答案。 想改善这个问题吗?更新问题,使其仅通过编辑此帖子来关注一个问题。 5年前关闭。 改善这个问题 我是GPU编程的新手。我有一台装有NVIDIA GeForce GT 640卡的笔记本电脑。我面临两个难题,非常欢迎提出建议。 如果我选择CUDA-显然,Ubuntu或Windows CUDA更适合Windows,而在Ubuntu上安装可能是一个严重的问题。我看到一些博客文章声称在Ubuntu 11.10和Ubuntu 12.04上安装了CUDA 5 。但是,我无法让他们工作。同样,标准的CUDA教科书更喜欢在Windows域中工作,并且对于Unix / Ubuntu的安装和工作或多或少保持沉默。 CUDA或OpenCL-现在,这可能比我的第一个问题更棘手!我主要遇到使用CUDA / Nvidia的GPGPU项目,但是OpenCL可能是开源中的次佳选择,在Ubuntu中安装可能不会成为问题,尽管此处的一些建议将非常有用。如果我选择OpenCL而不选择CUDA,是否会牺牲任何功能? 有什么帮助或建议吗?

1
Haskell Array.Accelerate-forkOS错误
我试图绘制一些Data.Array.Accelerate计算的输出时gnuplot遇到一个奇怪的问题。通过解释器运行时,一切都很好,就像绘制直接的Haskell数据或仅打印Accelerate值一样,但是尝试绘制Accelerate数据会失败。给出的错误是forkOS_entry: interrupted。 从那以后,我意识到我应该变得更加UNIXy,并且在每个程序中都做一件事。但是我有兴趣找出失败的原因。我在下面包括一个最小代码示例。 import Prelude hiding (zip,zipWith) import Graphics.Gnuplot.Simple import Data.Array.Accelerate -- import Data.Array.Accelerate.Interpreter import Data.Array.Accelerate.CUDA f :: Vector Float -&gt; Vector Float -&gt; Acc (Vector Float) f xs ys = let xs' = use xs ys' = use ys in (zipWith (*) xs' ys') n=10::Int points = toList.run $ …
71 haskell  plot  gnuplot  gpu 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.