基于像素的分类与基于对象的分类之间的区别?
我正在努力清楚地了解遥感领域中基于像素的分类与基于对象的分类之间的区别,并希望该社区中的某人能够提供见识。 根据到目前为止的信息,我目前的理解是: 基于像素的分类: 仅使用可用于单个像素的光谱信息在每个像素级别进行分类(即忽略局部区域内的像素值)。在这种意义上,每个像素将代表一个分类算法的训练示例,并且该训练示例将采用n维矢量的形式,其中n是图像数据中光谱带的数量。因此,训练后的分类算法将输出图像中每个像素的分类预测。 基于对象的分类: 分类是在局部像素组上进行的,同时考虑到每个像素彼此相关的空间特性。在这种意义上,用于分类算法的训练示例将由一组像素组成,并且经过训练的分类算法将相应地基于组输出针对像素的类别预测。举一个粗略的例子,一个图像可能被划分为n个大小相等的片段,然后每个片段都被赋予一个类(即包含对象/不包含对象)。 对于这些术语的含义,这种想法是否正确?还是我错过了某些事情?