是什么让数码相机比胶片相机更容易遭受色差?
我在许多网站上都读过此书,但其解释却有所不同,从我认为不太可信的植入物(如“数码相机的高分辨率使其更加突出”)到听起来更可信的植入物,其中涉及传感器前的彩色滤光片,从而产生了另一种来源。另外,镜头已经产生了像差。
声明中首先有什么道理,如果是的话,为什么会这样呢?
是什么让数码相机比胶片相机更容易遭受色差?
我在许多网站上都读过此书,但其解释却有所不同,从我认为不太可信的植入物(如“数码相机的高分辨率使其更加突出”)到听起来更可信的植入物,其中涉及传感器前的彩色滤光片,从而产生了另一种来源。另外,镜头已经产生了像差。
声明中首先有什么道理,如果是的话,为什么会这样呢?
Answers:
显然,透镜会产生色差,并且CA的数量相同。
但是,作为介质的胶卷和传感器的响应有所不同。两种方法都以相似的方式处理真正的垂直光,但是在使用胶片和使用CMOS传感器时,成角度的光会遇到不同的表面。
CMOS传感器在滤色镜上有微小的透镜(请参见此处),并且很难在小透镜内部为所有类型的光波长提供均匀的群速度,因此这些传感器会产生与入射角有关且与波长有关的响应光。(考虑白光通过棱镜-效果相同)。
薄膜对入射角的敏感度要低得多。因此,您只需拍摄CA。
另一方面,与某个垂直于传感器的RGB相比,从某个角度进入的R,G和B将看到不同的传感器灵敏度(每个传感器都不同)。这样一来,随着色移或颜色变化,就会显示出来,使CA变得更糟。
好吧,这就是我能想到的关于您问题的解释。
(一个好的测试是在CMOS传感器上使用定向白光,并使照片从垂直方向开始,然后越来越倾斜。我希望会有一些色偏。但是不要在家中尝试:-) )。
数码相机比胶片更能量化光线。考虑透镜是否具有3微米的色差。在胶片图像上,由于胶片的卤化银晶体,您会得到一些比3微米稍大的东西(也许是3.1微米)。在数码相机上,一面的像素为6微米。3微米足以显着溢出到相邻像素中,因此与胶片相比,色差量似乎增加了一倍。
他们也看到不同的颜色。考虑有人进行的这项测试。考虑示例6。曝光过度的汽车后面的蓝色车辆在胶片图像中几乎是黑色的,而在数字摄像机中则是相当明亮的。红色大灯的曝光也非常不同,即使相对于周围的东西也是如此。
这意味着该膜对红光较不敏感,并且对蓝光也不较敏感。您看到的所有边缘都是洋红色,不是颜色,而是红色和蓝色的组合。如果胶片对这些颜色不太敏感,则与场景中的白色或绿色元素相比,色差的强度会降低,因此可见度也会降低。
我认为您阅读的任何可能原因都不对。当然,您提供的链接中的大多数原因似乎足以引起少量色差。
除了像不稳定的透镜元件和其他制造问题之类的东西之外,与胶片时代相比,现代透镜的绝对复杂性以及传感器上增加的微透镜都将导致您看到的彩色条纹。分辨率提高了,听起来像是愚蠢的,但它确实突出了许多镜头的瑕疵,而且坦率地说,我认为不可能在大屏幕上以100%的缩放率在尽可能近的地方研究印刷品。
可以说电影在这方面比数字电影更好是有特定原因的,这似乎是许多较小因素的组合。
这是因为从传感器中提取了颜色。只有很少的数码相机能真正看到彩色(旧的sigma foveon是大型“公共”单反相机中的其中一种)。传感器只能看到光的强度,因此“黑白”,并使用带有彩色滤光片的前网格来尝试定义原始颜色。(请参阅拜耳的网格及其演化)(拜耳应用程序的示例)由于这种解释,某些情况给出了错误的颜色作为推论。这通常发生在尖锐表面的边缘。