为什么有效像素大于实际分辨率?


16

本页比较佳能EOS 550D和佳能EOS 500D相机并提及

1870万有效像素

550D。但是,使用此相机可能的最佳分辨率是

5184 * 3456 = 17915904 ~ 17.9 million pixels

什么是有效像素?为什么在这种情况下该数字大于1790万?


1
还应注意,“分辨率”具有两个含义。在计算机中,我们用它来表示屏幕或图像的像素尺寸。在计算机绘图或生成的图像中,通常确实对应于“真实”分辨率- 图像中实际解析的细节量。但是在照片中,不一定是这种情况。
mattdm 2011年

1
这不是这里发生的事情,只是造成混乱的另一个原因。
mattdm 2011年

Answers:


9

我们在这里看到的部分内容(我可以肯定地确定)不过是DPReview.com上的一个简单的错字(或类似命令)。根据佳能 [PDF,第225页],传感器上的孔数为“约18.00兆像素”。

然后,当拜耳模式输入变成我们大多数人认为的像素时,这些像素就减少到大约17.9兆像素。区别非常简单:传感器上的每个孔只能感应一种颜色的光,但是通常在输出中期望的像素(例如JPEG或TIFF文件)每个像素都有三种颜色。乍一看,这似乎意味着文件的像素数只有输入中传感器孔的三分之一。显然,事实并非如此。这是(工作方式的)简化视图:

简化的拜耳模式

每个字母代表传感器上的一个孔。每个框代表一个三色像素,它将出现在输出文件中。

在传感器的“内部”部分,每个输出像素取决于四个传感器孔的输入,但是每个传感器孔都用作四个不同输出像素的输入,因此输入数量和输出数量保持不变。

但是,在边缘附近,我们的传感器孔仅占两个像素而不是四个像素。在拐角处,每个传感器孔仅贡献一个输出像素。

这意味着输出像素的总数小于传感器阱的数量。具体来说,与输入相比,结果要小一行一行一列(例如,在示例中,我们有一个8x3的传感器,但有7x2的输出像素)。


+1,尤其是图表。但是我仍然感到困惑,因为这将解释缺少2(5184-1 + 3456-1)=约17,000个像素的情况,在计算18.0-17.9 = 0.1M像素时,舍入会丢失这些像素。似乎必须从边界剥离至少三倍的像素(因为任何小于50K的像素都应舍入到0.0M)。也许去马赛克使用的邻居比此处显示的2 x 2更大:也许使用的是7 x 7邻居?
2011年

1
@whuber:暂时,我不确定我是否可以直接考虑其余部分。当然,可以使用更多的传感器来产生单个输出像素,但是我没有任何真正的方式知道佳能在这种情况下正在做的事情。从相机RAW文件将使传感器井的确切数字,但仍不会告诉究竟如何佳能从输入X开始输出Y.
杰里科芬

3
在良好的去马赛克算法中(例如,自适应均质定向),每个传感器对四个以上输出像素的贡献很大,因此丢失的不仅仅是一行或一列。可以很容易地从dcraw中获取未去马赛克的输出,并将图像尺寸与佳能DPP的输出进行比较以获得明确的答案,如果有时间,我会尝试一下。
Matt Grum

@马特·格鲁姆(Matt Grum):对-回望一下,我以前的评论措辞很差。我试图得出的结论是,有几种算法可能(并且将)丢失/丢弃约3行/列的像素,但是仅凭像素数并不能告诉您使用的是哪种算法。不过,实际上可以使用更复杂的算法,即每个输出像素使用更多传感器。
杰里·科芬

5

我不知道DPReview为什么使用“有效”一词,但是芯片上的感光部位(像素)数量与所生成图像的像素大小之间存在差异的原因有两个。

某些相机传感器的每侧下方都有一条遮盖的像素带。这些像素与传感器上的大部分像素相同,只是它们不接收光。它们用于检测干扰并从光敏像素产生的信号中减去干扰。

其次,[好的]去马赛克算法使用大量的“邻居操作”,这意味着像素的值在某种程度上取决于其相邻像素的值。图像最边缘上的像素没有邻居,因此会贡献其他像素,但不会增加图像尺寸。

尽管我怀疑550D就是这种情况,但相机也有可能出于其他原因裁切传感器(例如,镜头像圈未完全覆盖传感器)。


边框像素是用于消除干扰还是仅用于设置黑点?
mattdm 2011年


DPReview的描述。在我看来,它似乎是在两个相反的概念之间来回走动的,我看不到它实际上定义了该术语,除非是隐式的。我认为您的回答会有所帮助,但仍然让我感到奇怪,尽管dpreview页面确实提供了一些可能性,但为什么“有效”像素会比真实照片站点更多。有效:用于效果图像数据吗?还是图像日期最终如此影响?(注意:带e的效果动词:创建存在。)我仍然想知道它们的意思。
林德斯2011年

5

有效像素为两个原因少于传感器像素(感测元件或感测器)的实际数量的。首先,拜耳传感器由感测单色光的“像素”组成。通常,有红色,绿色和蓝色感知器,以行对形式组织,形式为:

RGRGRGRG
GBGBGBGB

我们大多数人都熟悉的单个“像素”,即计算机屏幕的RGB样式像素,是通过结合四个RGBG四重感测器从拜耳传感器生成的:

          R G 
(sensor)       -->  RGB (computer)
          G B

由于使用四个RGBG感测器的2x2网格生成一个RGB计算机像素,因此沿传感器的边缘并不总是有足够的像素来创建完整像素。像素的“额外”边界通常出现在拜耳传感器上以适应这一情况。可能还存在一个附加的像素边界,以简单地补偿传感器的整个设计,用作校准像素并容纳额外的传感器组件,这些组件通常包括可能会阻碍传感器工作的IR和UV滤镜,抗混叠滤镜等。光线到达传感器的外围。

最后,必须“去马赛克” Bayer传感器以产生计算机像素的正常RGB图像。可以采用多种不同的方式对Bayer传感器进行去马赛克,但是大多数算法都试图通过混合每个2x2 RGBG四重像的可能重叠集合中的RGB像素来最大化RGB像素的数量:

拜耳去马赛克

对于总共有36个单色感测器的传感器,可以提取总共24个RGB像素。通过观看上面的动画GIF,注意去马赛克算法的重叠性质。还要注意在第三和第四遍期间,如何不使用顶行和底行。这说明了在对Bayer传感阵列进行去马赛克时,可能不会总是利用传感器的边界像素。

至于DPReview页面,我相信他们的信息可能有误。我相信佳能550D拜耳传感器上的传感器总数(像素)为18.0mp,而有效像素或可以从该基础18mp生成的RGB计算机像素数量为5184x3456或17,915,904(17.9mp)。差异将归结为那些不能完全构成四重奏的边界像素,可能还包括一些额外的边界像素,以补偿传感器前面的滤波器和安装硬件的设计。


我只是注意到我在动画图像中错误地估计了感官。在前两个步骤中,它没有合并8个传感模块,而是将28个传感模块合并为8个像素。在最后两个步骤中,它将14个感测器组合成4个像素。对不起,不一致。我会尽快修复。
jrista

-3

很抱歉让您失望,但是这些解释都不是正确的。在每个传感器上,成像区域之外都有一个区域也包含光点。其中一些已关闭,一些已完全打开,还有一些用于其他监视目的。这些用于设置安培和白平衡级别,作为进行实际成像的“控制集”。

如果您从任何兼容CHDK的Powershot相机中获取RAW传感器数据,并使用dcraw进行转换,则可以获得包括这些100%黑色和100%白色区域的完整传感器图像。

不过,有趣的是,相机内RAW图像尺寸分辨率始终大于相机内JPG结果。原因是,在相机中使用的从RAW到JPG的更简单,更快速的插值方法需要周围的RGB照片站点来确定每个像素的最终颜色。边缘和角落的photosite并非在所有侧面都具有这些周围的颜色参考。尽管稍后在具有更好RAW插值软件的计算机上进行该处理,将使您能够比从相机内JPG获得的图像大小分辨率多一些。

ps DPReview审稿人和文章作者永远不应被任何人视为福音。我在他们的测试和公然的示例中发现了很多漏洞,这些问题甚至使测试人员甚至不知道如何使用相机,因此我在很多年前不赞成他们的建议。


5
尽管您说“这些解释中没有一个是正确的”,但其他答案实际上已经涵盖了这一点。
mattdm 2011年
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.