Questions tagged «gpu»

GPU(图形处理单元)是一种专用处理器,旨在加速构建图像的过程。

10
使用CPU代替GPU有什么好处?
我一直在研究处理器和图形卡,但我发现GPU比CPU快得多。我在这篇文章中读到,在某些情况下,使用2年的Nvidia GPU优于3.2GHz Core I7 Intel处理器14倍。如果GPU这么快,为什么开发人员不将它们用于游戏中的每个功能?GPU是否可以做图形以外的任何事情?
63 gpu  process  gpgpu 


2
GPU如何处理纹理和VRAM?
实际上,这是一系列相互关联的问题: 经过渲染管道时,压缩纹理(dxt5 / dxt1等)是否已完全解压缩? 如果第一个问题的答案是正确的,那么如何管理几个未压缩的大型纹理? 帧缓冲与现代GPU中的VRAM有什么不同吗?
18 textures  gpu  memory 

3
CPU-GPU内存数据流
已关闭。这个问题需要更加集中。它当前不接受答案。 想改善这个问题吗?更新问题,使其仅通过编辑此帖子来关注一个问题。 6年前关闭。 我是一名新手图形程序员,最近我一直在想-模型数据(网格和材质)如何从应用程序(CPU内存)流到图形卡(GPU内存?)?假设我有一个静态模型(例如建筑物),该模型一次加载和设置一次,并且在整个应用程序生命周期中都没有改变。 它的数据是否仅发送到GPU内存一次并永久存在? 当实际渲染模型的每个帧时,GPU处理器是否每次都必须从GPU内存中获取其数据?我的意思是-如果我有2个模型分别渲染多次,那么,如果我先多次渲染第一个模型,然后又多次渲染第二个模型,或者如果我仅一次渲染第一个模型,第二个就渲染一次,那将很重要一直像那样交织在一起?从这个意义上讲,我可以将此问题称为“内部GPU数据流”。 显然显卡的内存有限-当无法容纳渲染1帧所需的所有模型数据时,我猜想它一直在每帧从CPU RAM提取(部分)数据,对吗? 我知道互联网上有很多关于这方面的书籍和内容,但是也许您有一些关于如何管理此数据流的快速通用指南(何时发送什么和多少,何时以及如何呈现)? 编辑: 我忘了一个区别:将数据发送到GPU,并且将缓冲区设置/绑定为当前。后者会导致任何数据流吗? Edit2: 阅读Raxvan的文章后,我想提出一些动作: 通过初始化创建缓冲区(正如他所说,我可以将数据存储在CPU ram或GPU之一中) 缓冲数据更新(当数据保存在CPU内存中时,我认为这很简单;当数据保存在GPU内存中时,需要从GPU提取到CPU内存(然后取回)) 将缓冲区绑定为活动状态(这是一种告诉API我希望此缓冲区在下一次绘制调用中呈现的方式,并且它本身不会执行任何操作吗?) API绘图调用(在这里我想听听您在那里实际发生的事情)

12
应用程序可以破坏显卡吗?
快速说明:我知道这是一个游戏开发问答网站,但我想你们中的大多数人都知道并具有图形卡的经验,因此我向您解决了这个问题。如果您认为这完全是题外话,请引导我访问适当的网站/论坛。编辑:实际上,这是与gamedev有关的:如果错误的代码可能导致卡过热或损坏,那么游戏开发人员应意识到这一点,并确保其应用程序不这样做。 这似乎是一个怪异或愚蠢的问题,但实际上是否有可能编写这样的图形渲染应用程序以任何方式破坏图形卡? 让我问这个问题的直接原因是(我不足为奇)我自己的破损显卡。维修完后,军人说他们测试了各种应用程序(游戏),并且运行良好。但是,当我启动自己的应用程序(延迟阴影演示)时,它将其加热到100摄氏度以上。因此,我的卡终究没有被修复,但重要的是,问题似乎仅在运行自己的应用程序时发生。 我在上面玩过各种需要GPU的游戏(例如《孤岛危机》),并且经常将其推到极限甚至更高(设置太高以至于游戏以5 FPS的速度运行),还有一些基准测试...所以我给出了我的卡很多次都无法承受(因此FPS低),但工作量却很大,但从未达到危险的温度。但是我自己的应用程序设法实现了这一点(至少在关闭v-sync时)。:P因为这只是我自己的应用程序,所以我认为不是冷却系统不好的原因。 因此,我想问-您是否认为(或也许知道)是否可以通过某些恶意代码破坏显卡(以任何方式,而不仅仅是过热)? 更新: 乔·斯温德尔说,过热可能是问题所在(嗯,它肯定会损坏卡)。但是(在任何情况下)适当的冷却系统是否不应阻止这种情况的发生? 北方公司指出了另一个问题。如果我理解正确,FPS受CPU和GPU约束(是吗?)。因此,低FPS可能表示较高的CPU负载或较高的GPU负载。但是,再次重申-即使显卡“一直以100%的速度使用”,合适的散热系统也不能防止GPU过热吗?
15 gpu  hardware 


2
随机数hlsl
您如何在HLSL中生成一个随机数? 我问是因为我想尝试gpu射线跟踪。您需要在像素着色器中生成随机方向。所以我想要randFloat(),结果是-1和+1之间的随机数。 另外,hlsl 噪声指令有何处理?文档说它已从HLSL 2.0及更高版本中删除。为什么呢 我读到一种方法,其中用随机值填充纹理,然后在每个具有该纹理索引的顶点中都有一个纹理坐标。但这是每个顶点,我需要一条可以在像素着色器中调用的指令。另外,如果您希望每个帧使用不同的值,则此方法需要“重新播种”每个顶点的texcoord,并且需要每个帧都更新一个顶点缓冲区(这可能很昂贵!) 详细介绍一下,如何便宜地在GPU上生成随机数?
13 hlsl  random  gpu 

1
nVidia的CUDA是否适合执行寻路计算?
我想知道在某些情况下是否值得在GPU上执行寻路(使用nVidia的CUDA或同等产品),或者这是否会浪费精力。我想这种情况将是一个无头的多人服务器,负责为机器人寻找路径。 我对使用导航网格物体进行A *寻路特别感兴趣,但是如果有另一种寻路算法可以从GPU执行中受益更多,我很想听听它。


3
默认情况下,如何设置应用程序在高性能GPU上运行?
如今,许多笔记本电脑都配备2个GPU-高性能的GPU和省电的GPU(功能不那么强大)。我在笔记本电脑上使用的大多数应用程序都与集成的(省电)GPU一起运行,但其中一些应用程序仍将通过高性能卡打开。我试图将要构建的应用程序默认配置为在高性能GPU上运行,但是我在任何地方都找不到有关该主题的任何信息。我希望有人能对此有所启发。我将使用NSIS安装程序分发应用程序,我想我必须将应用程序的路径添加到NVidia / ATI卡的应用程序列表中。该应用程序使用C#编程。另外,有人知道台式机的状况如何吗?如果一台PC有2个GPU,而我必须选择功能更强大的GPU,会发生什么? 米尔乔
12 c#  gpu 

1
有关渲染,批处理,图形卡,性能等的信息+ XNA?
我知道标题有点模糊,但是很难描述我真正想要的东西,但是这里有。 当涉及到CPU渲染时,性能通常很容易估计和直接,但是当涉及到GPU时,由于缺乏技术背景信息,我一无所知。我正在使用XNA,所以如果理论可以与之相关将非常好。 所以我真正想知道的是,当您执行特定的绘制动作时,何时何地(CPU / GPU)会发生什么?什么是批次?效果,预测等有什么影响?数据是否保留在图形卡上或是否在每个步骤中传输?当谈论带宽时,您是在谈论图形卡的内部带宽,还是从CPU到GPU的管道? 注意:我实际上并不是在寻找有关绘制过程如何进行的信息,这是GPU的业务,我对在此之前的所有开销都感兴趣。 我想了解执行动作X时发生了什么,以适应我的体系结构和实践。 非常感谢任何文章(可能带有代码示例),信息,链接,教程,它们提供了有关如何编写更好的游戏的更多见解。谢谢 :)

2
GPU的参考位置值得担心吗?
是否引用的局部性化妆一样多GPU性能差异,因为它确实CPU的性能? 例如,如果我向GPU发送200条绘制命令,如果每个命令的数据在内存中是连续的,而不是在缓冲区/纹理贴图上跳转,我是否会(可能)看到明显的不同? 附带问题:我假设GPU通过使大多数资源保持不变来确保避免错误共享问题。但是,如果不是这样,为什么线程总是执行四个片段的工作呢?

2
我是否需要担心现实场景中基于四边形的渲染?
大多数时候,在有关光栅化和渲染技术的随机书籍的第一章中,我会找到一些有关基于三角形的渲染系统和基于四边形的渲染系统的短语。 我从未遇到过基于四核的GPU或管线。在处理OpenGL 3.0+时,我是否需要担心这一点,还是仅仅是传统的东西?
9 opengl  gpu 

4
纹理在GPU上占用多少内存?
磁盘上的大png可能只占用几兆字节,但我想在gpu上,同一png以未压缩的格式存储,这会占用更多空间。这是真的?如果是真的,有多少空间?
9 xna  textures  gpu 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.