Questions tagged «raster-calculator»

2
使用QGIS裁剪栅格图层?
如何在QGIS中裁剪栅格图层? 我想从图层的一部分制作轮廓,包括整个图层将创建比我需要的数据更多的数据,并且减慢了渲染速度。 我发现可以通过使用栅格计算器并指定新的图层范围来做到这一点,但是我如何知道要为行和列输入哪些值? 我也尝试在Photoshop中裁剪该geotiff,但似乎丢失了坐标数据。 有什么方法可以从栅格图层的一部分创建轮廓而不必先裁剪吗?

1
计算特殊邻域的焦点统计?
我正在寻找在指定条件附近的栅格中每个像元的焦点统计信息。 背景-我有三个二进制栅格,每个栅格代表一种感兴趣的植被类型。我想计算研究区域内任何单元格(例如,总和/总单元格)在20 km ^ 2之内每种植被类型的覆盖率。问题是我不能在每个像元周围使用简单的圆形或正方形邻域,因为如果这样做,用于计算总和的搜索区域将包含我研究区域之外的区域。此例外非常重要,因为统计数据将用作栖息地模型的输入,并且不能将我研究区域之外的区域视为可能的栖息地-它们已被城市化。包括它们会给我错误的统计数据。所以,我n由覆盖符合我的标准的区域所需的像元数确定)。标准是它们不属于市区范围内。我在想应该使用某种形式的细胞自动机。我从来没有在CA工作过。 我想我想要的是入门代码,或指向正确方向的东西。 回复以下评论: 假设我正在为研究站点边界上的一个单元格计算此统计信息。如果我将研究区域以外的所有区域都分配为零(或忽略NoData),那么我将获得一个统计数据,该统计数据大约代表了我感兴趣的区域覆盖范围的一半。因此,在约10 km ^ 2的区域中,覆盖范围百分比,而不是20 km ^ 2的区域。由于我正在研究家庭范围的尺寸,因此这一点很重要。邻居必须改变形状,因为那是动物观看/使用景观的方式。如果他们需要20 km ^ 2,他们会改变形状或家园。如果我不检查忽略NoData,则单元格输出将为NoData-NoData没有帮助。 截至2014年10月24日的“进度” 这是到目前为止我使用Shapely和Fiona提出的代码: import numpy as np import pprint import shapely from shapely.geometry import* import fiona from fiona import collection import math traps = fiona.open('C:/Users/Curtis/Documents/ArcGIS/GIS_Data/occurrence/ss_occ.shp', 'r') study_area = fiona.open('C:/Users/Curtis/Documents/ArcGIS/GIS_Data/Study_Area.shp', 'r') for i in study_area: …

1
r.mapcalc在QGIS中不提供输出
一段时间以来,我一直在尝试使用QGIS处理工具箱中的r.mapcalc。但是,该算法没有任何输出。我已经尝试了几个栅格图层和不同的表达式,但是该算法从不向“结果目录”输出任何内容。下面的图像显示了一个简单的算法设置示例。也许我错过了一些东西,但是我没有在网上找到任何类似的东西。



1
使用ArcGIS Spatial Analyst计算点到栅格中不同类的距离?
我正在寻找有关如何计算从点到栅格的不同类别的距离的一些建议。 具体而言,我在土地覆盖数据上覆盖了动物利用的观察点(点)。 对于每个点,我想计算到不同封面类型的最近像元的距离。 例如,如果某个点位于草地上,那么到最近的非草地单元的距离是多少。 我正在使用ArcGIS 10并具有Spatial Analyst许可证。 我认为栅格计算器可能是最好的方法,但是有人可以提供一个方程式来完成此任务吗?

2
在ArcGIS栅格计算器中使用多波段图像中的单个波段?
我正在尝试在ArcGIS 10(SP2 / 3)的栅格计算器中使用来自多波段TM图像(IMG文件)的各个波段。 我可以向我的MXD中添加单个波段,但是无论我如何引用MXD中的图层,栅格计算器都只会使用波段1。 "TM_Image.img - Layer_3" - 0在栅格计算器中使用类似的东西将运行,但将使用波段1。 使用图像的完整路径可以正常工作,但是对于较长的表达式/路径来说不方便。喜欢"X:\TM_Image.img\Layer_3" - 0 我认为这适用于早期版本的Arc 10,但不再适用于SP 2或3。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.