全色卫星图像如何以及为什么与高空间分辨率相关联?我搜索了一下,发现它是一个单波段图像,但是为什么它称为全色(全色)。这是否意味着它覆盖了整个可见区域?
全色卫星图像如何以及为什么与高空间分辨率相关联?我搜索了一下,发现它是一个单波段图像,但是为什么它称为全色(全色)。这是否意味着它覆盖了整个可见区域?
Answers:
当成像传感器对宽范围的光波长敏感时会产生全色图像,通常是光谱可见部分的很大一部分。这就是事实,所有成像传感器在检测到亮度差异之前都需要一定数量的最小光能。如果传感器仅对光谱中非常特定的部分(例如蓝色波长)的光敏感(或仅定向),那么与在整个范围内采样的传感器相比,传感器可用的能量有限较宽的波长范围。为了弥补这种有限的能源供应,多光谱传感器(产生红色,绿色,蓝色,近红外图像的那种)通常会在较大的空间范围内采样,以获取“填充”所需的必要能量。成像探测器。因此,多光谱带图像通常将具有比全色图像更粗糙的空间分辨率。在光谱分辨率(即由成像检测器采样的波长范围)和空间分辨率之间需要权衡。这就是为什么像Ikonos和Geoeye这样的商业卫星通常会提供三个或更多个相对较粗糙分辨率的多光谱波段以及更精细的空间分辨率全色波段的原因。重要的是,这里存在一种折衷,可以将平移图像的精细空间分辨率与多光谱带的高光谱分辨率结合起来。这就是所谓的全色锐化,通常用于补偿卫星成像中的光谱/空间折衷。多光谱带图像通常将具有比全色图像更粗糙的空间分辨率。在光谱分辨率(即由成像检测器采样的波长范围)和空间分辨率之间需要权衡。这就是为什么像Ikonos和Geoeye这样的商业卫星通常会提供三个或更多个相对较粗糙分辨率的多光谱波段以及更精细的空间分辨率全色波段的原因。重要的是,这里存在一种折衷,可以将平移图像的精细空间分辨率与多光谱带的高光谱分辨率结合起来。这就是所谓的全色锐化,通常用于补偿卫星成像中的光谱/空间折衷。多光谱带图像通常将具有比全色图像更粗糙的空间分辨率。在光谱分辨率(即由成像检测器采样的波长范围)和空间分辨率之间需要权衡。这就是为什么像Ikonos和Geoeye这样的商业卫星通常会提供三个或更多个相对较粗糙分辨率的多光谱波段以及更精细的空间分辨率全色波段的原因。重要的是,这里存在一种折衷,可以将平移图像的精细空间分辨率与多光谱带的高光谱分辨率结合起来。这就是所谓的全色锐化,通常用于补偿卫星成像中的光谱/空间折衷。
顺便提及,这也是为什么在更长的波长(例如短波红外)中拍摄的多光谱图像的波段与可见波段相比倾向于在更宽的波长范围内采样的原因。在该处反弹的反射和发射电磁能的数量不均匀,并且太阳在可见部分周围发出一个峰值。一旦进入短波红外,与短波可见光相比,样品周围的能量要少得多,因此检测器必须对更大的范围敏感。如果以Landsat 8为例,SWIR2波段7实际上比其全色波段采样的波长范围更广。