当我使用固定内存进行CUDA数据传输时,我观察到数据传输速度大大提高。在linux上,实现此目标的底层系统调用是mlock。从mlock的手册页中可以看出,锁定该页可防止将其换出:
mlock()将页面锁定在地址范围内,该地址范围从addr开始并持续len个字节。当调用成功返回时,保证所有包含指定地址范围一部分的页面都驻留在RAM中;
在测试中,我的系统上有几千个可用内存,因此从没有任何风险可以换出内存页面,但我仍然观察到加速。任何人都可以解释这里到底发生了什么吗?任何见解或信息都将不胜感激。
当我使用固定内存进行CUDA数据传输时,我观察到数据传输速度大大提高。在linux上,实现此目标的底层系统调用是mlock。从mlock的手册页中可以看出,锁定该页可防止将其换出:
mlock()将页面锁定在地址范围内,该地址范围从addr开始并持续len个字节。当调用成功返回时,保证所有包含指定地址范围一部分的页面都驻留在RAM中;
在测试中,我的系统上有几千个可用内存,因此从没有任何风险可以换出内存页面,但我仍然观察到加速。任何人都可以解释这里到底发生了什么吗?任何见解或信息都将不胜感激。
mlock()。
Answers:
CUDA驱动程序检查内存范围是否被锁定,然后它将使用其他代码路径。锁定的内存存储在物理内存(RAM)中,因此设备可以不需CPU的帮助即可获取它(DMA,又名异步复制;设备仅需要物理页面列表)。非锁定内存可能会在访问时产生页面错误,并且不仅存储在内存中(例如可以交换),因此驱动程序需要访问非锁定内存的每一页,将其复制到固定缓冲区中并传递给它。到DMA(同步,逐页复制)。
如此处所述http://forums.nvidia.com/index.php?showtopic=164661
异步mem复制调用使用的主机内存需要通过cudaMallocHost或cudaHostAlloc进行页面锁定。
我也建议您在developer.download.nvidia.com上查看cudaMemcpyAsync和cudaHostAlloc手册。HostAlloc说,CUDA驱动程序可以检测固定内存:
驱动程序跟踪使用this(cudaHostAlloc)函数分配的虚拟内存范围,并自动加速对诸如cudaMemcpy()之类的函数的调用。
cudaHostRegister指向内存映射文件的指针吗?
如果尚未访问内存页面,则可能永远不会将它们交换进来。特别是,新分配的页面将是通用“零页面”的虚拟副本,并且在写入之前没有物理实例。磁盘上的新文件映射将同样仅保留在磁盘上,直到被读取或写入为止。
mlock()很快(请查看问题2中的Q)。