为什么相机传感器无法像人眼那样起作用?我的意思是,如果在拍摄照片并确定光圈和快门速度设置时分别补偿暗区和亮区,为什么图像的特定部分必须曝光过度/曝光不足。
我知道,进入的光线取决于光圈和快门速度,但是由于数码单反相机是数字的,所以没有一种技术可以使每个传感器单元都使用自己的测光,因此它们不会受到相同的照射量的光,但根据测光,相机的CPU会关闭某些单元,以免曝光过度。
我希望我不是在胡说八道。在我看来,这确实是一个合理的想法。
为什么相机传感器无法像人眼那样起作用?我的意思是,如果在拍摄照片并确定光圈和快门速度设置时分别补偿暗区和亮区,为什么图像的特定部分必须曝光过度/曝光不足。
我知道,进入的光线取决于光圈和快门速度,但是由于数码单反相机是数字的,所以没有一种技术可以使每个传感器单元都使用自己的测光,因此它们不会受到相同的照射量的光,但根据测光,相机的CPU会关闭某些单元,以免曝光过度。
我希望我不是在胡说八道。在我看来,这确实是一个合理的想法。
Answers:
谁决定哪个像素获得多少增益?人类视觉系统中发生的大部分事情都发生在皮层中,而不是眼睛中,并且取决于我们认为基于智力决策和(有些可重写的)本能驱动力进行自我保存的重要内容。从某种意义上说我们看到了那里是正确的,在另一种意义上说我们看到了我们想要(或需要)看到的东西也同样如此。
这将是几乎创建具有较大光点的相对低像素密度的传感器很简单,该传感器具有巨大的动态范围,并且(假设采用CCD类型的技术,因为当前的CMOS传感器技术无法以这种方式工作)还具有每个像素的电子快门机械快门。那么,那会给你带来什么呢?具有很多位深度和非常低的局部对比度(如果整个位深度都按原样转换以进行显示或打印的话)的平面图像,以及几乎但不完全受传感器饱和度限制的许多像素(尽管它们实际上在饱和点之前受到电子快门的限制作用的限制)。为了便于讨论,我们假设该传感器及其关联的计算机可以记录剪辑数据(它在该感应器处停止记录的原因,就像记录该站点的实际暴露时间一样简单)。这将使相机的电子设备能够重新构造如果照相场地可以一直待在游戏中直到最后的哨声的数字。因此,现在我们获得了具有更大位深度的更平坦的图像。您在哪里划界线?32位?64吗?
现在来了困难的部分-将这种平坦的,高动态范围的图像数据转换为引人注目的照片。最简单的方法是取代表主要测光图像的八位(或输出位深的大小),然后丢弃其余的。将数据拟合为S曲线,压缩极端的阴影和/或高光可能并不难,这几乎是较新相机的扩展动态范围设置所能做的。但是每个像素只有那么多输出位可用,并且大多数扩展的高光值将舍入为白色(或至少254和255混合)。因此,通过极大地简化系统,您几乎没有获得任何收益。
但是仍然存在一个选择-选择性区域映射。为什么不降低天空的价值,或者只是降低天空中的云彩的价值,以便保留细节,同时在前景中保持理想的对比度呢?这就是难题所在。重要的是什么?相机应该为您决定吗?如果相机决定了,那么我们可以在机器视觉和人工智能方面取得重大进步,从而首先实现。如果不是,那么您真的要为拍摄的每张照片做出这种级别的拍摄后决定吗?是的,我知道会有一些照相技术的专家真的想亲身体验,但是我们可以接受这是一种病理状况吗?专业人士对周转时间和绝大多数消费者都感兴趣不是那样吗?
因此,您需要一个新的传感器,传感器周围更复杂的电子设备,一个用于投影原始数据的巨大图像文件(这需要更大的卡和更长的写入时间/更低的帧频),所有这些都将收集将被丢弃的大部分数据时间,这样您就可以偶尔拍摄需要大量人工干预的单张HDR图像(或MV / AI的巨大飞跃)。您可能可以出售其中一些,但我希望与现有的35mm / APS-C市场相比,中型市场看起来更像是中型市场。也就是说,您将出售给一群经验丰富的摄影师,这些摄影师实际上出于专业原因需要功能或实现他们的美术愿景,而少数人则可以从后期处理中获得足够的回报来支付技术税。
只有少数几个人提到一件事,那就是如果不同的区域对其他区域的暴露程度不同,那么场景看起来就不会相同。场景看起来像它所做的那样,因为存在变化。是的,它可能是保存高光和增强阴影的一种方法,但是最后,您真正想要的是更大的动态范围,可以使用一个曝光设置捕获场景中的动态范围。
我们的眼睛非常擅长为我们提供比当前消费相机技术更大的动态范围。我可以快速环顾四周,并同时在阴影区域和阳光直射的区域感知准确的细节。
相机制造商解决此问题的方法之一是在一个传感器中同时使用高灵敏度和低灵敏度像素,然后组合每个像素的结果。RED的新型数字电影摄影机具有正常和低灵敏度传感器像素矩阵,称为HDRx。较小的低灵敏度传感器像素被组合为亮像素的高光,以增加动态范围。
首先,人眼的动态范围不是很大。它似乎只比我们当前的高端相机好,因为我们的大脑不断合并使用不同曝光设置拍摄的“快照”。我们的眼睛无法同时记录极亮和极暗的物体(即使大脑可以看到)。图像处理的真正奇迹,但仅是普通的光学/成像设备。
有一些建议/原型显示如何可以大大改善图像传感器的动态范围:
每个光电二极管在达到最大电荷时都会重置其状态,并记住它发生了多少次
使用更小,更快的光子计数像素,而不是“模拟”电荷容器+ A / D转换器
您在这里缺少一些基本的物理知识。主要问题是真实场景的对比度很高。通过对数而不是线性地感知光水平,我们的眼睛已经进化为应对这种情况。不幸的是,当前的传感器技术固有地线性地测量光。或更准确地说,噪声固定在线性光标度上。
在当前技术下,最大对比度极限基本上是噪声水平的函数。为了争辩,让我们使用0-1000的光标,这意味着传感器可以告诉您0到1000的光水平。因此,它可以测量的最高比例是多少?这取决于噪声水平。噪声级别基本上是您得到的,而不是纯黑,在本示例中为0。大致来说,如果噪声级别为2,则您将获得大约1000:2 = 500:1的亮度比。只要场景不超过该范围(尽管实际上几乎所有场景都不是500:1),您以后就可以进行任何对数映射。
因此,考虑到电流传感器固有地是线性的,当前的策略是设法提高信噪比,并提供足够的比特,以使量化噪声低于固有的随机噪声。传感器的噪声越低,您可以捕获的动态范围越广,而无需剪切高光或使阴影模糊。
完全不同的传感器技术可以固有地测量亮度的对数。有时将它们称为“ CMOS”传感器,因为它们很像CMOS动态RAM,但盖子被取下(我简化了,但是实验室中的第一个测试实际上是用这种方法完成的)。您会得到与光的对数成正比的电压,但目前这些信号的信噪比要低得多。三菱是第一个将这些传感器商业化的公司,但是对于高端相机而言,它们还远远不够。
毫无疑问,这将在多个方面取得进展,而且我相信我们将在未来几年中看到稳定的进展。但是,有很多理由可以说明现在的状况,不仅仅是因为没有人能想象得到更好的东西。如果某人拥有一种可以准确测量宽动态范围并且以人们愿意为此付出代价的技术,那么他们就会变得富有。
我相信这太复杂了。
基本上有两种可能的方法:每个光电传感器可以跟踪时间并自行关闭,或者CPU可以跟踪光电传感器的数据并关闭它们。
对于第一种方法,这意味着每个光电传感器都需要一个时钟信号和一个计数器,以便可以跟踪关闭电源之前需要花费多长时间。芯片上需要安装更多的电路,运行它需要更多的电力,这会增加信号噪声。可能如此之大,以至于动态范围的增加将毫无意义。
对于第二种方法,CPU将需要大约1/10000秒一次从传感器读取所有数据。这比当前技术的完成速度快约1000倍,因此,即使有可能,也要几十年。
而且,这种解决方案还存在其他并发症,例如每个像素将获得不同的曝光时间。如果您拍摄任何移动的东西,您会得到非常奇怪的文物。
虽然数码单反相机是数字的,但镜头并非如此。数码单镜反光相机机身变得多么聪明,所有光圈传感器都将具有相同的光圈,因为光圈设置在镜头上。因此,我认为至少通过当前的镜头技术,可以改变每个传感器单元的光圈。
至于快门速度,这是由相机控制的,但是如果我们想象一个相机可以改变图片不同部分的快门速度以控制曝光过度/曝光不足,则会导致运动模糊不均。场景中较暗的部分将必须比较亮的部分暴露更长的时间,并且更加模糊。我认为由于这个原因,改变快门速度的解决方案将行不通。
因此,唯一剩下的就是ISO。改变ISO意味着图片不同部分的噪声水平不同。考虑到您将获得更大的动态范围作为回报,这听起来还不错。我对传感器的工作原理了解不多,但是我可以想象在传感器中实现ISO设置是对亮度标度的特定子集的一种“调整”。在我看来,在每个传感器单元都具有独立的测光和ISO控制的成本实在是太高了,但也许可以将图像划分为多个区域,并分别对每个区域进行测光。然后,相机将必须具有某种算法来混合不同曝光的区域,即在组装每张图片具有不同曝光的全景图时“融合”的功能。这对我来说听起来可行。
另一个选择是使摄像机具有多个传感器,每个传感器配置为不同的ISO。在视频技术中,有3个CCD摄像机,每个CCD记录红色,绿色和蓝色之一。我不明白为什么对于数码单反相机不可能有类似的概念,在这种情况下,多个传感器以不同的ISO级别拍摄图像,从而生成HDR图像。
目前我找不到这些信息,但我似乎想起曾阅读过类似技术的说明。这个想法大致是这样的:唯一需要注意的是过高的亮点。如果可以防止这些情况,可以通过增加对整个图片的曝光来保护黑暗区域。因此,为了防止突出显示高光,每个传感器都将跟踪其累积的光,如果该光接近最大值,则传感器将关闭。那本身不会改善任何东西,实际上会使情况变得更糟,而不是只有很少的明亮的白色夸张高光,而最终会出现稍微更暗的高光。因此,该单元不仅可以关闭,还可以关闭某些邻域中的单元,这将保留明亮区域中的某些细节。
如我所写,我现在找不到文字,但是在某种程度上,它与HP数码相机有关。