似乎将极大的帮助将尽可能多的图像存储在GPU上进行平移和缩放等。
我们处理很多非常大的图像。大小从8 GB到数百GB不等。在家里,我有一个40英寸的4k显示器和一个具有12 GB视频内存的GTX Titan,对于我扔给它的一切,它的表现都非常好。查看图像时看起来也很棒。工作?
将QGIS,ArcMap中和PCI Geomatica中能够多千兆字节的图像和图像拼接在数百GB的范围打交道时,充分利用丰富的显存?
处理大量图像时,哪些GIS应用程序将从大量的GPU内存中获得最大的收益?
似乎将极大的帮助将尽可能多的图像存储在GPU上进行平移和缩放等。
我们处理很多非常大的图像。大小从8 GB到数百GB不等。在家里,我有一个40英寸的4k显示器和一个具有12 GB视频内存的GTX Titan,对于我扔给它的一切,它的表现都非常好。查看图像时看起来也很棒。工作?
将QGIS,ArcMap中和PCI Geomatica中能够多千兆字节的图像和图像拼接在数百GB的范围打交道时,充分利用丰富的显存?
处理大量图像时,哪些GIS应用程序将从大量的GPU内存中获得最大的收益?
Answers:
Esri发布了ArcGIS Pro,它利用GPU进行渲染和一些处理:
在ArcGIS Pro中,图形引擎会根据图形处理单元(GPU)的功能来限制绘图。
现在,通过对某些工具使用图形处理单元(GPU)处理,Spatial Analyst可以提供增强的性能。这项技术利用了现代计算机中图形卡的计算能力来提高某些操作的性能。
唯一利用GPU功能处理数据的GIS称为MapD。哈佛Tweetmap数据通过此软件进行处理。
另一种方法是为64位处理器安装ArcGIS后台处理。
这将绝对减少光栅图像的计算时间,因为它们全都在后台处理中。
对于图像处理,当前有两个项目处理此问题:
这些项目直接处理并行系统(例如GPU处理和高性能计算),但不限于此,并且能够在分布式系统上实现。面向Hadoop的GIS工具最初设计为可在Hadoop环境中工作,但现在已被Spark取代。Geotrellis直接参与了Spark。
在图像处理/远程传感上进行并行/分布式计算时要考虑的一个问题是,大多数算法都具有在处理过程中对数据进行序列化的实现,因此,如今在项目上的巨大努力正在将那些传统算法转移到分布式数据上结构,这非常具有挑战性。
在谈论ArcMap时,我不会过于笼统地说“ GIS软件不使用GPU进行处理”。任何将OpenGL或DirectX与着色器一起使用的东西都将利用GPU内存:Google Earth,ArcScene / ArcGlobe,ENVI,OpenSceneGraph,AmigoCloud,CesiumJS等。