背景模糊(散景)与传感器尺寸有何关系?


20

这是一个理论上的问题。

假设我首先使用全帧传感器DSLR和给定的镜头(例如在f / 3.5时为50mm的定焦镜头)拍照。

现在,假设我将相机换成APS-C传感器DSLR(裁剪系数为1.6倍)。我保持相同的镜头(相同的焦距,相同的光圈),并向后退几米以保持视野(至少保持相同的被摄对象放大率)。我现在拍第二张照片。

显然,两张照片之间的景深将会增加。但是背景模糊(例如,无限远处的树木)呢?我会有相同数量的背景模糊,还是会改变?

我读过某个地方,背景模糊取决于物理孔径的大小。在这种情况下,物理光圈(物理焦距除以f /光圈)保持不变。但是是否应该根据传感器的尺寸来选择这个数字?在较小的APS-C传感器的情况下,物理孔径将相对较大,这意味着更多的背景模糊。这将是非常违反直觉的,因为我们通常认为在APS-C相机上获得背景模糊更加困难。

请给出答案背后的理由。我会使用此背景模糊计算器自己回答问题,但无法设法使其在计算机上运行。


1
我觉得这quesiton真的覆盖在这一个: photo.stackexchange.com/questions/3986/...
rfusca

2
@rfusca:我不确定我是否同意。这是一个关于通用概念的特定问题,我认为权证与其他概念应分开对待,这在概念上更为通用,但对相机型号却更为具体。顺便说一句有趣的问题-在较小的传感器上相同大小的混乱圈会产生更多的帧,而您所采取的后退步骤可能会也可能不会(我确实不知道,并希望阅读答案)特别是在产生近乎无限的焦点时。好奇!
林德斯2011年

3
您后退并重新聚焦,这意味着更长的聚焦距离,增加了自由度。如果您向后退了几步,但确实没有再对焦,自由度将是相同的,但是的过程中,你的主题将是重点了。想想看,如果你的镜头做什么,移动整个镜头来回永远不变的自由度。镜头重新对焦后,对焦距离会有所不同。
加普顿2011年

“我保持相同的镜头(相同的焦距,相同的光圈),并且我退后几米以保持视场...”当您在不同尺寸的传感器上使用相同的焦距时,将改变视图。然后,当您退后一步以使对象的大小大致相同时,就不会将视场变回以前的样子,而只是改变到背景的距离。
Michael C

1
@lindes如果要以相同的显示尺寸查看两个图像,则来自较小传感器的图像必须比来自较大传感器的图像放大更大,因此对于来自较小传感器的图像,CoC也将需要较小。最终,CoC基于帧大小的百分比-通常是对角线的度量。如果传感器的高度是高度的一半,宽度是其一半,那么在将其放大两倍以在相同的特定显示尺寸下观看时,所使用的CoC必须也必须是较大传感器所使用的CoC的一半。
Michael C

Answers:


4

这取决于您的“无限”距离到底有多大。当您从拍摄对象向后移动以保持相同的放大倍率时,与背景对象的相对距离会变小,因此模糊程度会降低。

举例来说,假设您从10英尺远的物体开始,而“无限”距离背景实际上是100英尺远。当您切换到APS-C相机时,您会后退15英尺或16英尺(取决于相机品牌)。在第一种情况下,树木的距离是被摄对象(和焦点)的10倍。在第二种情况下,主体在15英尺处,背景在115英尺处,因此背景距离对焦点的距离不到8倍。

如果您的“无限”距离确实大得多,那么这种影响可能会变得太小而无济于事。如果开始时的背景比被摄对象更远10000倍,然后再移动使其仅相距9999倍,则差异可能会很小,您将无法看到甚至无法测量。


4

背景模糊取决于您的景深。景深(DOF)是场景中最近的对象与最远的对象之间的距离,这些对象在图像中显得清晰可见(维基百科)。较弱的景深可让您隔离主体:主体清晰,背景模糊。景深取决于几个因素:

  1. 镜头焦距(35mm,200mm,50mm)
  2. 镜头光圈(f1.8,f5.6,f8)
  3. 传感器尺寸(APS-C,35mm,中画幅,大画幅)
  4. 主体距离以及主体距离与背景距离的比率

使用(1),焦距越长,景深越薄。使用(2)时,光圈越大(数值越小),DOF越薄。使用(3),传感器越大,DOF越薄。***使用(4),对象越近,DOF越薄。

例如:如果在35mm全画幅传感器上有一个200mm镜头(例如f2.8),而被摄对象离您很近(2-3m),则可以使背景模糊很多。
相反,如果在裁切的单反(APS-C)上在f8处有一个35mm镜头,并且被摄对象距离您6m,则背景不会真正被模糊掉。

***我不确定在理论上是否正确,但在实践中,如果在APS-C传感器和全画幅上设置相同,则FF图像的景深较浅。

阅读更多:http : //en.wikipedia.org/wiki/Depth_of_field


我忘记了:如果背景离主题更远,它将变得更加模糊,反之亦然。
JoséNunoFerreira


4
每当您谈论影响景深的因素时,必须说明比较中要保持的相同和允许不同的内容。对我来说,保持视角和被摄体距离相同是很有意义的(这样,在每种情况下您都可以尽可能接近同一张照片)。如果您要比较数码单反相机和袖珍相机,则不会在数码单反相机上使用10mm镜头,因为袖珍相机具有10mm镜头。您将使用提供相同视角的镜头。因此,当您更改焦距以保持视角时,DOF随传感器尺寸而变化。
Matt Grum

2
我倾向于不同意最初的陈述“背景模糊取决于景深”。仅凭自由度并不能确定背景模糊,正如可以在此处的照片上看到的(相同的自由度,但具有不同的背景模糊):bobatkins.com/photography/technical/bokeh_background_blur.html
Laurent

1
实际上,如果您在此处查看:bobatkins.com/photography/technical/bokeh.html并向下滚动到表格,对于前三种情况,景深会增加,同时背景模糊也会增加。因此,这2个确实非常独立。
洛朗

4

从理论上讲,在两种情况下,您将具有完全相同的背景模糊。在实践中,只有杰里·科芬(Jerry Coffin)指出背景非常远(比您的主题远得多),这才有效。如果不满足此条件,则APS-C机身将为您提供较少的背景模糊。

理解这一点的最简单方法是将背景光建模为无限远处的点光源,该点光源将在图像上呈现为“散景光盘”。可以通过该光盘的直径与总帧大小之比来测量背景模糊程度。该比率恰好与在镜头聚焦的距离处的入射光瞳直径和视场大小之间的比率相同。

下面是我简陋的示意图。希望这可以使事情变得更清楚。 光线追踪示意图 考虑到您获得的图像只是焦平面中图像的缩小版本。红色光束是来自点光源并穿过入射光瞳的光束。我标记为“散景盘”的东西是光束与聚焦平面相交的地方。如果光源足够远,它的直径与入射光瞳的直径完全相同,并且它是散景盘的物体侧对应物。实际的bokeh光盘位于图像空间中,并且是此处绘制的光盘的图像。


编辑:我在这里使用的方法仅依赖于对象侧参数:视野和入射光瞳的直径。与包含传感器格式,焦距和f值的常规方法相比,此选择通常使模糊(包括景深)的计算方法更简单:一旦已知物方参数,就不需要这些“暗面”参数。

对于那些不熟悉这种“框外”思维方式的人,我强烈推荐Richard F. Lyon 撰写的文章《框外景深》。即使该文章主要涉及景深问题,该方法还是非常通用的,可以很容易地应用于计算背景模糊。


换句话说,“散景”盘的直径为pupil_diameter × magnification
埃德加·波内(Edgar Bonet)

当以相同的显示器尺寸观看来自两个传感器的图像时,改变传感器尺寸(以及随之而来的视角变化)是否不会改变放大倍率?如果入射光瞳大小相同,但视角较窄,那么“散景”光碟是否会占整个帧的更大百分比(以及这种模糊)?最终,放大率包括胶片/传感器尺寸和显示器尺寸之间的放大率。因此,如果瞳孔大小保持不变(相同的焦距和f值),但放大倍率增加了(将图像从较小的传感器放大到相同的大小)
Michael C

(续),然后“散景”光盘的直径增大,并且使用较小的传感器拍摄的图像会模糊(如果点光源确实是无限远的,但通常不是这样)。
Michael C

@MichaelClark:1.在问题的条件下(聚焦平面上的FoV相同),它将改变对象到传感器的图像放大倍率,但不会改变对象到显示的图像放大倍率。2.号
Edgar Bonet

当它断言人们可以在不同尺寸的传感器上使用相同的焦距镜头并获得相同的视角时,这个问题是不正确的。您必须更改其中一个(焦距或AoV)。
Michael C

2

是的,散景实际上与镜头开口的物理宽度成正比。

假设您聚焦在有限距离= Z的近场对象上,并拥有一个摄像头/镜头组合,可以为您提供半角宽度= Q度的视场(FOV)。如果将散景定义为模糊圆B的直径(无限远处的背景点的模糊图像)与图像框W的宽度之比,则

                     bokeh   =   B / W    ~    R / ( Z  * tanQ )

其中R是镜头开口的半径-即直径的一半(注意:在上式中,Z在技术上应为Z-F,其中F是镜头焦距,但通常在远处观看时可以忽略F -客体)。

因此,如果您有两个相机,一个大的数码单反相机和一个小的傻瓜相机,并且都具有相同的视角FOV(即,镜头等效于35mm,那么),那么带有较大直径镜头的相机将为您带来更多的散景。这与相机传感器的尺寸无关。


上面的问题假设两个相机在相同的镜头上以不同的被摄体距离使用,以使附近的被摄体具有相同的尺寸。您可以修改答案以适应问题中的假设吗?
Michael C

1

景深取决于两个因素:到拍摄对象的距离和物理光圈大小(由焦距除以f值计算)。 景深随着您远离被摄对象而增加,而随着您增加物理光圈大小而减小。传感器的尺寸不会直接影响散景,因为在不同的传感器格式上使用镜头投射的图像不会改变。不同的传感器格式仅使用图像圆的不同部分。较大的传感器可以实现较浅的景深,因为需要更长的焦距才能获得相同的视场,而较长的焦距会导致更大的物理孔径,因此景深也更浅。

因此,在两种不同传感器格式下,在相同的光圈下,相同的焦距下,相同的聚焦距离下的相同镜头不会影响背景模糊的程度。正是由于不同的传感器格式(与主体之间的距离减小或相对于APS-C的全画幅焦距增加)而需要进行调整,才能产生景深差异。


1
以与来自较大传感器的图像相同的显示尺寸观看来自较小传感器的图像所需的放大也越来越大。因此,用于计算来自较小传感器的图像的DoF的混乱圈必须更小,以便在两者放大不同的量以在同一位置查看时,其具有与来自较大传感器的图像的CoC相同的角度大小尺寸。
Michael C

1

在前面的答案中已经说了很多,我只想对您在问题中谈论的特定镜头设置进行视觉比较。如前所述,背景模糊的数量也取决于拍摄对象的大小。该图用于头和肩肖像。

比较图http://files.johannesvanginkel.nl/se_plot.JPG

可以看出,FF相机将具有更多的背景模糊,但是它们的值最终会收敛。

图片来源:http : //howmuchblur.com/#compare-1x-50mm-f3.5-and-1.6x-50mm-f3.5-on-a-0.9m-wide-subject

如果需要,您还可以在此处设置其他主题尺寸。


1

“背景模糊(散景)与传感器尺寸有何关系?”

简短的答案:较大的传感器具有较大的混乱圈,这是计算景深(DOF)的重要考虑因素,因此会导致较大的光圈(较大的开口)具有足够浅的DOF,从而使点模糊背景中的光源(小灯);产生通常(错误地)称为散景的效果。

进行了适当的调整以保持相似的构架,几乎没有什么不同,我将在后面详细介绍。

散景是一种模糊现象,也可能出现在前景中,并且不必局限于远处的灯泡,尽管有些限制将该术语的使用仅限于那些条件。通过查看背景中的光点并查看它们是否看起来像圆形光滑的圆盘,可以更轻松地判断散景的质量,背景并不是散景发生的唯一位置。

散景一词来自日语单词boke(晕け或ケ),意思是“模糊”或“阴霾”,或“ boke-aji”(boケ味),即“模糊质量”。[注意:与微小的灯光或背景与前景无关,这是景深之外的模糊质量。相反,焦点是景深锐度,特别是在焦点处。

现在您不高兴那是短版。

在Nikon D700上使用Nikon 200.0 mm f / 2.0拍摄的图像,可以说是更好的散景摄影镜头之一。图片来源:Dustin Diaz

鲍威尔圣巴特车站的Rohe家人

许可证:Attribution-NonCommercial-NoDerivs 2.0 Generic(CC BY-NC-ND 2.0)

寻找便宜的镜头很容易,并且像这些镜头一样很多:Hexanon AR 135 / 3.2,Pentacon 135 / 2.8,Rokkor 135 / 2.8,Trioplan 100 / 2.8,Vivitar 135 / 2.8,事实是这些镜头所产生的散景相对于质量而言,它更具创意(礼貌),如果使用大型传感器,您将需要一个适配器以及裁剪功能。小型传感器和廉价镜头可以为某些人带来令人愉悦的效果(很多?)。

所谓“完美散景”的标志是,点源将产生圆形碟,碟上没有任何环或像差,并且边缘处逐渐掉落。圆盘应在球面镜的镜框边缘处呈圆形。

蔡司Master Prime

变形镜片会产生特征性的椭圆形散景。

库克变形


在进一步解释之前,让我们先定义一些事情。

  • 背景:图像主题后面的区域。

  • 前景:图像主题前面的区域。

  • 模糊:造成视力缺陷,模糊不清或模糊不清。Sharpen的反义词。

  • 散景:当镜头正确聚焦在被摄物体上时,超出景深的图像对焦区域模糊的质量。

  • 混乱圈:在理想的射线光学中,假设光线在完全聚焦时会聚到一个点,具有圆形光圈的透镜散焦模糊点的形状就是一个硬边的光圈。一个更普通的模糊点由于衍射和像差而具有柔软的边缘(Stokseth 1969,paywallMerklinger 1992,可访问),并且由于光圈形状而可能是非圆形的。

    认识到真实的镜头即使在最佳条件下也无法完美地聚焦所有光线,因此术语“最小混乱度”通常用于指使镜片产生的最小模糊点(Ray 2002,89),例如通过选择最佳聚焦位置由于球差或其他像差,在不同镜头区域的不同有效焦距之间做出了很好的折衷。

    术语“混乱圈”更普遍地应用于镜头成像对象点的失焦点的大小。它涉及1.视敏度,2.观看条件和3.从原始图像到最终图像的放大。在摄影中,混淆圆(CoC)用于数学确定景深,即图像可接受的清晰部分。

  • 景深:场景中最近的和最远的对象之间的距离,这些对象在图像中看起来可以清晰地看到。尽管镜头一次只能精确地聚焦一个距离,但是在聚焦距离的每一侧,清晰度都会逐渐降低,因此在自由度范围内,在正常观察条件下不会感觉到不清晰。

  • 传感器尺寸

    • 摄影:在摄影中,传感器的尺寸是根据胶片的宽度或数字传感器的有效区域来测量的。35毫米的名称始于135胶卷的总宽度,该胶卷是穿孔的暗盒胶卷,是全幅数码单反相机发明之前格式的主要介质。术语135格式仍在使用。在数码摄影中,这种格式已被称为全画幅。35毫米胶片的可用区域的实际大小为24w×36h毫米,而35毫米是指尺寸24毫米加上链轮孔(用于推进胶片)。

    • 视频:传感器的尺寸以英寸表示,因为在数字图像传感器普及时,它们被用来代替摄像机的显像管。普通的1“圆形视频摄象管具有一个矩形的感光区域,对角线约为16 mm,因此,对角线大小为16 mm的数字传感器相当于1”的视频管。1英寸数字传感器的名称应更准确地理解为“一英寸视频摄象管等效物”传感器。当前数字图像传感器的大小描述符是视频摄象管等效物的大小,而不是传感器的实际大小。例如, 1英寸传感器的对角线尺寸为16毫米。

  • 主题:您要捕获图像的对象,不一定是框架中出现的所有图像,当然不是照片轰炸机,而且通常不是在极端的前景色和背景中出现的对象;因此使用散景或景深散焦不是对象的物体。

  • 调制传递函数(MTF)或空间频率响应(SFR):成像系统相对于输入空间频率的相对幅度响应。ISO 12233:2017指定了用于测量电子静态图片相机的分辨率和SFR的方法。每毫米线对(lp / mm)是胶片最常见的空间频率单位,但对于数字传感器而言,周期/像素(C / P)和线宽/图片高度(LW / PH)更方便。


现在我们有了我们的定义...

从维基百科:

CoC(mm)=观看距离(cm)/ 25厘米观看距离时所需的最终图像分辨率(lp / mm)/放大/ 25

例如,当预期的观看距离为50厘米且预期的放大率为8时,为了在25厘米的观看距离下支持等于5 lp / mm的最终图像分辨率:

CoC = 50/5/8/25 = 0.05毫米

由于在拍摄照片时通常不知道最终图像的尺寸,因此通常采用标准尺寸(例如25厘米宽)以及0.2毫米的常规最终图像CoC(即1/250)图像宽度。通常也使用关于对角线度量的约定。如果在放大到最终图像尺寸之前裁剪了原始图像,或者更改了尺寸和观看假设,则需要调整使用这些约定计算的DoF。

使用“蔡司公式”,有时将混淆圈计算为d / 1730,其中d是原始图像(相机格式)的对角线尺寸。对于35毫米全画幅格式(24毫米×36毫米,对角线为43毫米),结果为0.025毫米。更为广泛使用的CoC为d / 1500,对于35mm全画幅格式为0.029 mm,这对应于在30 cm对角线上的打印分辨率为每毫米5行。对于全画幅35 mm格式,0.030 mm和0.033 mm的值也很常见。出于实际目的,d / 1730(最终图像CoC为0.2 mm)和d / 1500给出了非常相似的结果。

还使用了将CoC与镜头焦距相关的标准。Kodak(1972),5)建议使用2分钟的弧度(正常视力的Snellen标准为30个周期/度)进行关键观察,得出CoC≈f / 1720,其中f是镜头焦距。对于全画幅35毫米格式的50毫米镜头,CoC≈0.0291毫米。该标准显然假定最终图像将以“透视正确”的距离观看(即,视角将与原始图像的视角相同):

观看距离=拍摄镜头的焦距×放大

但是,很少会在“正确”距离观看图像。观看者通常不知道摄影镜头的焦距,“正确”的距离可能太短或太长。因此,基于镜头焦距的标准通常已让给与相机格式有关的标准(例如d / 1500)。

此COC值表示在图像平面上测量的最大模糊斑点直径,该直径看起来像是聚焦的。直径小于此COC值的点将显示为光点,因此会聚焦在图像中。直径较大的斑点对观察者而言将变得模糊。

  • 自由度的非对称性:

自由度不对称。这意味着可接受焦点的区域在焦平面前后没有相同的线性距离。这是因为来自较近物体的光在像平面的后方会聚的距离大于来自较远物体的光在像平面之前会聚的距离。

在相对较近的距离处,自由度几乎是对称的,聚焦区域的大约一半位于聚焦平面之前,而另一半则位于聚焦平面之后。焦平面离像平面越远,对称偏移越大,有利于焦平面以外的区域。最终,镜头聚焦在无穷远点,自由度达到最大不对称,大部分聚焦区域超出了焦平面到无穷远。该距离称为“ 超焦距 ”,将我们引向下一部分。

超焦距定义为镜头聚焦在无限远处时的距离,其中从该距离的一半到无限远的物体将在特定镜头中聚焦。替代地,超焦距可以指的是在给定的光圈下透镜可以聚焦的最接近的距离,而距离(无限远)处的物体将保持清晰。

超焦距是可变的,并且是光圈,焦距和上述COC的函数。镜头光圈越小,超焦距就越接近镜头。超焦距用于计算自由度。

从维基百科:

该SE网站似乎不支持Mathjax

决定自由度的因素有四个:

  1. 混乱圈(COC)
  2. 镜头光圈
  3. 镜头焦距
  4. 对焦距离(镜头与被摄物体之间的距离)

DOF =远点–近点

自由度,近点和远点

DOF只是简单地告诉摄影师,在对焦距离之前和之后的什么距离会出现模糊。它没有指定这些区域的模糊程度或“质量”。镜头的设计,光圈的设计以及背景决定了模糊的特征-强度,纹理和质量。

镜头的焦距越短,景深越长。

镜头的焦距越长,景深越短。

如果这些公式中的任何位置都没有显示传感器大小,它将如何改变自由度?

有几种偷偷摸摸的格式大小潜入DOF数学中的方法:

Enlargement factor

Focal Length

Subject-to-camera / focal distance

这是因为裁切系数和所产生的焦距以及传感器光收集能力所必需的光圈,从而对您的计算影响最大。

分辨率更高的传感器和质量更好的镜头会产生更好的散景,但是即使手机大小的传感器和镜头也能产生合理的散景。

使用上的APS-C相同的焦距透镜和全帧照相机在相同的对象到照相机的距离产生两个不同的图像构架并且使DOF距离和厚度(深度,该字段的)不同。

在APS-C和全画幅相机之间切换以保持相同的取景时,根据裁切因子切换镜头或在主体之间切换相机会导致相似的景深。移动您的位置以保持相同的构架会稍微有利于全帧传感器(以获得更大的景深),仅当更换镜头以匹配裁切因子并保持构架时,较大的传感器才会获得较窄的景深(并不是很多)。

光圈的优势使全画幅传感器成为相机和镜头以及功能(FPS既不是其中之一,也不是尺寸和重量)方面更好,更昂贵的选择。

使用中型传感器而不是微型传感器进一步有利于较大的传感器,但是散景可能不是证明价格相差20倍以上的最佳用例。

每个光点更多的像素数量当然会产生更平滑的散景,但是如果使用小型传感器摄像头,则散景会更接近。如果您从照片或视频中获利,则可以为使用更昂贵的设备收取更多的比例费用,否则,花一些功夫或其他成本更低的镜头,相比于购买更大尺寸的系统,您可以节省很多钱。


维基百科部分:前景和背景模糊

请查看RJ Kern 撰写的有关前景模糊的文章“ 暂存前景 ”,其中包括许多具有背景和前景模糊的照片。

B&H在“自由度:景深”,“ 第一部分:基础知识”,“ 第二部分:数学”和“ 第三部分:神话”三篇文章中进行介绍

最重要的是,“散景”不仅是“背景模糊”,还包括景深之外的所有模糊。即使在前台。远处的小灯更容易判断散景质量。

前景散景


这是对景深主题的非常全面的介绍。它也很好地说明了。但是,作为答案,它完全错过了问题的重点,特别是与景深无关。问题是远距离背景的模糊程度,尽管与景深成正比关系,但这是一个非常不同的问题。
埃德加·波内(Edgar Bonet)'18年

是。这是一个非常简单的问题,对于无限远的背景(如问题中所假设的),答案很简单:“ 是的,您将有相同数量的背景模糊 ”。
埃德加·波内(Edgar Bonet)'18年

混乱圈的定义内:“ ...由于不完美的镜片导致的误差”是不正确的。这是由于光的性质和物理性质。完美的镜头(而不是完美的针孔)始终只有一个焦点。与聚焦点之间的距离成比例地变得更近或更远。镜头瑕疵仅会导致在准确对焦点模糊。其余部分是由光锥引起的,即使完全投射,也不会在其锥顶与成像平面相交。
Michael C

我建议您将其发布为以下问题的答案:究竟由什么决定景深?
Michael C

评论随时会被删除。然后是关于将答案作为评论发布的元讨论,这实际上是您所做的。
Michael C
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.