Questions tagged «gpu»

“图形处理单元”的缩写。对于传统图形应用程序的编程,请参见“图形编程”的标签条目。有关使用GPU进行通用编程的信息,请参见“ gpgpu”的标签条目。有关特定的GPU编程技术,请参见流行的标签条目“ opencl”,“ cuda”和“ thrust”。

1
nvidia-smi易失性GPU使用说明?
我知道这nvidia-smi -l 1将使GPU每秒使用一次(类似于以下内容)。但是,我希望您能解释一下Volatile GPU-Util真正的含义。那是使用的SM数量超过SM总数,占用率还是其他? +-----------------------------------------------------------------------------+ | NVIDIA-SMI 367.48 Driver Version: 367.48 | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | |===============================+======================+======================| | 0 Tesla K20c Off | 0000:03:00.0 Off | 0 | | 30% 41C …

3
何时调用cudaDeviceSynchronize?
何时cudaDeviceSynchronize真正需要调用该函数? 据我从CUDA文档中了解,CUDA内核是异步的,因此似乎我们应该cudaDeviceSynchronize在每次内核启动后调用。但是,我尝试了相同的代码(训练神经网络),无论有无cudaDeviceSynchronize,除了时间测量之前的代码。我发现我得到了相同的结果,但是速度提高了7-12倍(取决于矩阵大小)。 因此,问题是是否有任何理由需要使用cudaDeviceSynchronize时间测量。 例如: 在将数据从GPU复制回主机之前是否需要cudaMemcpy? 如果我做矩阵乘法 C = A * B D = C * F 我应该cudaDeviceSynchronize介于两者之间吗? 从我的实验看来,我没有。 为什么cudaDeviceSynchronize程序会这么慢?
69 cuda  gpu  gpgpu 

2
为什么GPU比CPU更强大[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使其成为Stack Overflow的主题。 8年前关闭。 改善这个问题 GPU如何比CPU更快?我读过一些文章,讨论GPU破解密码的速度比CPU快得多。如果是这种情况,那么为什么不能以与GPU相同的方式来设计CPU甚至达到速度?
68 cpu  gpu 

1
RuntimeError:输入类型(torch.FloatTensor)和权重类型(torch.cuda.FloatTensor)应该相同
我正在尝试按照以下方法训练以下CNN,但关于.cuda(),我一直遇到相同的错误,并且不确定如何解决它。到目前为止,这是我的大部分代码。 import matplotlib.pyplot as plt import numpy as np import torch from torch import nn from torch import optim import torch.nn.functional as F import torchvision from torchvision import datasets, transforms, models from torch.utils.data.sampler import SubsetRandomSampler data_dir = "/home/ubuntu/ML2/ExamII/train2/" valid_size = .2 # Normalize the test and train sets with torchvision …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.