2
简化大数据的Python代码
我有Python代码,旨在通过以下工作流程获取点shapefile: 合并点 积分点,使彼此之间1 m之内的任何点成为一个点 创建要素图层,在其中选择z <10的点 缓冲点 多边形到栅格的1m分辨率 重新分类,其中1-9 = 1;NoData = 0 每个shapefile大约有250,000至350,000个点,覆盖〜5x7 km。用作输入的点数据表示树的位置。每个点(即树)都有一个关联的“ z”值,该值代表冠半径,并在缓冲过程中使用。我的目的是在单独的过程中使用最终的二进制输出来生成描述遮篷的栅格。 我对四个shapefile进行了测试,生成了700MB的栅格,耗时35分钟(i5处理器和8GB RAM)。鉴于我将需要在3500个shapefile上运行此过程,因此,我希望获得有关简化该过程的任何建议(请参阅随附的代码)。一般来说,处理地理数据的最佳方法是什么?更具体地说,对代码或工作流程是否有任何有助于提高效率的调整? 编辑: 地理处理任务的时间(占总数的百分比): 合并= 7.6% 积分= 7.1% Lyr = 0的特征 缓冲= 8.8% 多边形转栅格= 74.8% 重新分类= 1.6% # Import arcpy module import arcpy # Check out any necessary licenses arcpy.CheckOutExtension("spatial") # Script arguments temp4 …