这里有几个关于景深的定义,焦距和被摄体距离的问题。当然,还有光圈如何影响我的照片的基本原理。还有很多如何获得超浅自由度的问题。还有像相关的问题这一个。但是,没有一个万事通的问题:
是什么决定了照片的景深?
这只是镜头的特性吗?可以将镜头设计为在相同的光圈和焦距下提供更大的景深吗?它会随着相机传感器的尺寸而变化吗?它会随着打印尺寸而变化吗?最后两个如何关联?
这里有几个关于景深的定义,焦距和被摄体距离的问题。当然,还有光圈如何影响我的照片的基本原理。还有很多如何获得超浅自由度的问题。还有像相关的问题这一个。但是,没有一个万事通的问题:
是什么决定了照片的景深?
这只是镜头的特性吗?可以将镜头设计为在相同的光圈和焦距下提供更大的景深吗?它会随着相机传感器的尺寸而变化吗?它会随着打印尺寸而变化吗?最后两个如何关联?
Answers:
好了,我将不需要公式,标尺的照片和“放大率”的定义,而要根据您在实践中实际遇到的情况进行更改。实际影响拍摄的主要因素是:
光圈。大光圈镜头使您的景深更浅。这可能是争议最小的因素!这很重要,因为某些镜头的光圈要大得多,例如18-55 f / 3.5-5.6与50 f / 1.8
主体距离。这是一个非常重要的考虑因素。当您开始真正靠近时,景深会大大变浅。这一点很重要,因为在微距对焦时,DoF是一个主要问题。这也意味着,如果距离足够近,则无论光圈大小如何,您都可以获得较浅的DoF,并且如果要在光线不足的情况下获得较深的DoF,则可以使焦点进一步聚焦。
焦距。保持被摄体尺寸时,这确实会影响景深,但仅在特定范围内。宽镜头在大多数被摄物体距离上都具有很深的景深。一旦超过某个点,景深随焦距的变化就很小。这又很重要,因为如果您想增加/减少景深,可以使用焦距来做到这一点,同时仍然用被摄体填充画面。
传感器尺寸。当您在两个传感器尺寸之间保持相同的被摄体距离和视野时,这会影响景深。传感器越大,景深越浅。DSLR的传感器比紧凑型的传感器大得多,因此对于相同的FoV和f比率,它们的DoF较浅。这很重要,因为通过相同的令牌裁剪图像可以在保持相同的最终输出大小时增加DoF,这类似于使用较小的传感器。
这是一个很好的问题,并且根据上下文有不同的答案。您提到了几个特定的问题,每个问题可能都有自己的答案。我将在这里尝试将它们作为一个整体来解决。
问:这仅仅是镜头的特性吗?
答:简而言之,没有,尽管如果您忽略CoC,则可以(根据数学计算)作出这样的论点。景深是“模糊”的事情,并且在很大程度上取决于查看上下文。我的意思是,这取决于所查看的最终图像相对于传感器的原始分辨率有多大。观看者的视力;拍摄时使用的光圈;拍摄时到拍摄对象的距离。
问:是否可以将镜头设计为在相同的光圈和焦距下提供更大的景深? 答:考虑到数学,我不得不说不。我不是光学工程师,所以请按此处所说的补充必要的盐。不过,我倾向于遵循数学原理,这在景深方面非常清楚。
问:它会随着相机传感器尺寸的变化而变化吗?
答:最终,这取决于这里。比传感器的尺寸更重要的是成像介质的最小混淆圆(CoC)。奇怪的是,成像介质的混乱圈不一定是固有特征,因为可接受的最小CoC通常由您打算打印的最大尺寸决定。数字传感器确实具有CoC的固定最小尺寸,因为单个感应器的尺寸要与任何单个光点都能获得的尺寸一样小(在拜耳传感器中,四重感应器的尺寸实际上是最小的分辨率。)
问:它会随着打印尺寸而变化吗?
答:可能会回答上一个问题。将图像缩放到其“原始”打印尺寸之上或之下,可能会影响您为最低可接受CoC使用的值。因此,是的,您打算打印的尺寸确实起作用,但是我要说的是,除非您使用非常大的尺寸打印,否则该角色通常是次要的。
从数学上讲,很明显为什么DoF不仅仅是透镜的功能,而且从CoS角度来看涉及成像介质或打印尺寸。要明确指定自由度的因素,请执行以下操作:
景深是焦距,有效光圈,与被摄体的距离以及最小混乱度的函数。最小混乱圈是使事物变得模糊的地方,因为可以将其视为成像介质的功能或打印尺寸的功能。
有几个数学公式可用于计算景深。令人遗憾的是,似乎没有一个公式能够精确地产生与被摄物体任何距离的景深。Hyperfocal Distance
,或有效获得最大自由度的距离,可以这样计算:
H = f 2 /(N * c)
哪里:
H =超
焦距f =焦距
N = f值(相对光圈)
c =混淆圈
混乱的圈子在这里是一个古怪的价值,因此我们将在后面讨论。可以将有用的数字传感器平均CoC假定为0.021mm。该公式为您提供了超焦距,它并不能完全告诉您景深是多少,而是可以告诉您应获得最大景深的目标距离。要计算实际值Depth of Field
,您需要进行其他计算。下面的公式将为中等到较大的被摄体距离提供景深,更具体地说,是指到被摄体的距离大于焦距时(即非微距拍摄):
Dn =(H * s)/(H + s)
Df =(H * s)/(H-s){对于s <H自由度= Df-Dn
自由度=(2 * H * s)/(H 2 -s 2){对于s <H
哪里:
Dn = DoF的近极限
Df = DoF的远极限
H =超
焦距(以前的公式)s =被摄体距离(镜头聚焦的距离,实际上可能不是“被摄体”)
当被摄体距离是超焦距时:
Df ='无穷大'Dn = H / 2
当被摄体距离大于超焦距时:
Df =无限Dn ='无限'
这里的术语“无限远”在其经典意义上并没有使用,而是更多地是光学工程术语,意味着焦点超出了超焦距。无需先计算超焦距即可直接计算自由度的完整公式,如下所示(用H代替):
自由度= 2Ncf 2 s 2 /(f 4 -N 2 c 2 s 2)
如果忽略打印尺寸和胶片,对于具有特定像素密度的给定数字传感器,DoF是焦距,相对光圈和被摄体距离的函数。由此可以得出一个论点,DoF纯粹是透镜的功能,因为“物体距离”指的是透镜聚焦的距离,这也是透镜的功能。
在一般情况下,可以假设CoC始终是使用数字传感器可实现的最小值,尽管现实范围涵盖了APS-C,APS-H和全画幅传感器,但如今这些传感器平均可滚动进入0.021mm。从0.015mm-0.029mm的任何地方。对于大多数常见的打印尺寸(大约13x19英寸或更小),可接受的CoC约为0.05毫米,约为数字传感器平均值的两倍。如果您是喜欢以超大尺寸打印的类型,则CoC可能是一个因素(要求小于0.01毫米),那么您在放大时的明显DoF将小于数学计算的结果。
以上公式仅在距离s
明显大于透镜的焦距时适用。这样,它就无法进行微距摄影。在微距摄影方面,用焦距,相对光圈和被摄对象放大倍数(即1.0倍)来表达景深要容易得多:
自由度= 2Nc *((((m / P)+1)/ m 2)
哪里:
N = f值(相对孔径)
c =最小CoC
m =放大倍率
P =瞳孔放大倍率
该公式非常简单,不在瞳孔放大方面。正确构建的真实微距镜头将具有与入射光瞳相当的入射光瞳(从镜头前部观看的光圈大小(入口)和从镜头后部观看的光圈大小(出口)) ,尽管它们可能并不完全相同。在这种情况下,除非您有合理的疑问,否则可以假设P的值为1。
与使用中距到大被摄体距离的DoF(使用1:1(或更佳)的微距摄影)不同,即使您以2x3“的分辨率进行打印,也总是会放大打印。在8x10、13x19等常见打印尺寸下,应该假设CoC在成像介质中的最小分辨率是可分辨的,但成像介质的CoC仍可能不足以弥补由于扩大而引起的明显DoF收缩。
除了复杂的数学之外,DoF可以通过对光的基本了解,光学器件如何弯曲光以及孔径对光有什么影响而直观地可视化。
光圈如何影响景深?最终归结为实际到达图像平面的光线的角度。在更大的孔径下,所有光线(包括来自镜头外边缘的光线)都到达像平面。膜片不会阻挡任何入射光线,因此可以到达传感器的最大光角很高(更倾斜)。这允许最大CoC很大,并且从光的焦点到最大CoC的发展很快:
在更窄的孔径下,光阑确实会阻挡来自光锥外围的一些光,而允许来自中心的光通过。光线到达传感器的最大角度很小(斜度较小)。这导致最大CoC变小,并且从光的焦点到最大CoC的进程变慢。(为了使该图尽可能简单,忽略了球差的影响,因此该图并非100%准确,但仍应证明这一点):
光圈会改变CoC的增长率。较宽的光圈会增加离焦模糊圈增长的速度,因此DoF较浅。较窄的光圈会降低离焦模糊圈增长的速度,因此景深会更深。
证明
与所有内容一样,应该始终通过实际运行数学来证明这一概念。在F#Interactive命令行实用工具中使用F#代码运行上述公式时,这是一些有趣的结果(任何人都可以轻松下载并仔细检查):
(* The basic formula for depth of field *)
let dof (N:float) (f:float) (c:float) (s:float) = (2.0 * N * c * f**2. * s**2.)/(f**4. - N**2. * c**2. * s**2.);;
(* The distance to subject. 20 feet / 12 inches / 2.54 cm per in / 10 mm per cm *)
let distance = 20. / 12. / 2.54 / 10.;;
(* A decent average minimum CoC for modern digital sensors *)
let coc = 0.021;;
(* DoF formula that returns depth in feet rather than millimeters *)
let dof_feet (N:float) (f:float) (c:float) (s:float) =
let dof_mm = dof N f c s
let dof_f = dof_mm / 10. / 2.54 / 12.
dof_f;;
dof_feet 1.4 50. coc distance
> val it : float = 2.882371793
dof_feet 2.8 100. coc distance
> val it : float = 1.435623728
上面程序的输出很吸引人,因为它表明景深确实受焦距的直接影响,而焦距是相对光圈的一个独立因素,假设只有焦距发生变化,而其他条件不变。如上面的程序所示,两个DoF收敛于f / 1.4和f / 5.6:
dof_feet 1.4 50. coc distance
> val it : float = 2.882371793
dof_feet 5.6 100. coc distance
> val it : float = 2.882371793
有趣的结果,如果有点不直观。调整距离后会发生另一种收敛,这提供了更直观的相关性:
let d1 = 20. * 12. * 2.54 * 10.;;
let d2 = 40. * 12. * 2.54 * 10.;;
dof_feet 2.8 50. coc d1;;
> val it : float = 5.855489431
dof_feed 2.8 100. coc d2;;
> val it : float = 5.764743587
@Matt Grum的评论非常好:您必须非常小心地指定条件,否则您最终可能会得到三个人说的东西似乎有冲突,但实际上只是在谈论不同的条件。
首先,要有意义地定义DoF,您需要将您愿意接受的“模糊”量指定为足够清晰。景深基本上只是在测量何时以原始点为起点的物体变得足够模糊以变得大于您选取的任何尺寸。
这通常会随着打印图片的尺寸而改变-通常从更远的距离观看更大的图片,因此可以接受更多的模糊效果。大多数镜头标记等是根据大约8x10的打印(在大约手臂的距离(几英尺左右)观看)来定义的。这样的数学运算非常简单:首先从视力的估算开始,将视力作为角度进行测量。然后,您只需找出该角度在指定距离处的大小即可。
假设我们为此选择一个数字并坚持下去,景深仅取决于两个因素:光圈和再现率。再现率越大(即,与现实生活中的尺寸相比,传感器/胶片上出现的项目越大),获得的景深就越小。同样,光圈越大(开口直径越大-f /光圈数值越小),景深就越小。
所有其他因素(传感器尺寸和焦距是最明显的两个因素)仅在影响复制率或光圈的范围内影响景深。
例如,即使是焦距很短的非常快的(大光圈)镜头,也很难实现高再现率。例如,如果您使用20mm f / 2镜头拍摄人物照片,则在获得非常高的再现率之前,镜头必须实际触摸它们。相反,较长的镜头通常看起来景深较小,因为它们相对容易实现大的复制率。
但是,如果确实将再现比保持恒定,则景深确实是恒定的。例如,如果您有一个20mm镜头和一个200mm镜头,并分别以(例如)f / 4拍摄照片,但从10倍远处以200mm的镜头拍摄,则被摄对象的尺寸实际上是相同的,两者在理论上具有相同的景深。然而,这种情况很少发生,以至于大部分都是理论上的。
传感器尺寸也是如此:理论上,如果复制率保持恒定,则传感器尺寸完全无关紧要。从实际的角度来看,传感器的大小很重要,原因很简单:无论传感器的大小如何,我们通常都希望使用相同的框架。这意味着随着传感器尺寸的增加,我们几乎总是使用较大的再现比例。例如,典型的一个人的头和肩膀拍摄可能会覆盖50厘米的高度(我将使用公制来匹配通常引用的传感器尺寸)。在8x10全景相机上,可以达到大约1:2的再现比例,几乎没有景深。在完整的35mm尺寸传感器上,再现比约为1:14,从而提供了很多景深更大。在带有6.6x8.8 mm传感器的紧凑型相机上,它的分辨率约为1:57。
如果我们以与8x10相同的1:2再现率使用紧凑型相机,我们将获得相同的景深-但我们将拍摄一只眼球的一部分,而不是头和肩膀。
但是,还有一个要考虑的因素:与较短的镜头相比,使用较短的镜头,背景中的对象“更快”地变小了很多。例如,考虑一个在篱笆后面20英尺的人。如果使用50毫米镜头从5英尺远处拍摄照片,则防护栏是人的5倍,因此看起来相对较小。如果您改用200毫米镜头,则您必须向后退20英尺才能使人具有相同的尺寸-但是现在,围栏的距离仅为原来的两倍,而不是原来的5倍,因此看起来比较大,使栅栏(以及模糊程度)在图片中更加明显。
Edit2:由于我(某种程度上)说服了@jrista删除了他的焦距和景深的关系图,我可能应该尝试解释为什么焦距和景深之间没有关系-至少当您看事物时它们通常在摄影中的测量方式。
具体来说,当今通常将照相光圈作为焦距的一小部分进行测量,因为它就是焦距,所以它被写成小数(f /数)。
例如,众所周知,在f / 1.4时,您获得的景深要比在f / 2.8时小。可能不会立即变得如此明显的是(例如)一个50 mm f / 1.4镜头和一个100 mm f / 2.8镜头具有相同的有效直径。尽管两者的物理直径完全相同,但光线进入50毫米透镜的角度更大,因此景深小于100毫米透镜。
另一方面,如果您更改焦距但保持相同的摄影光圈(f /光圈),景深也将保持恒定,因为随着焦距的增加,直径会成比例地增加,从而使光线聚焦在相同角度的胶片/传感器。
值得一提的是(无论如何,我相信这就是为什么折反射镜头缺乏景深的原因)。在普通镜头中,即使您使用较大的光圈,某些光线仍会从镜头的中央部分进入,因此,即使是在较小的光圈下拍摄,也会有少量的光线聚焦。但是,对于折反射镜头,您会遇到一个中心障碍物,该障碍物会阻止光线进入中心,因此所有光线都将从镜头的外部进入。这意味着所有光线都必须以相对浅的角度聚焦,因此当图像失焦时,基本上所有 其中的所有内容都失去了焦点(或者总的来说是更高的百分比),而不是至少有一点仍然在焦点上。
顺便说一句,我认为值得考虑的是,开始测量作为焦距的一小部分的镜头直径是多么令人难以置信的光彩。一次天才,就产生了两个独立的(看似无关)的问题:曝光度和景深可控且可预测。相比之下,试图预测(少得多的控制)曝光或景深(更不用说两者)之前,创新肯定非常困难...
实际上只有两个因素会影响自由度-光圈和放大倍率-是的,切换距离,传感器尺寸,焦距,显示尺寸和观看距离似乎有影响,但它们只是图像尺寸的变化(对象/ part-you-re-looking)(放大倍数)。克里斯托夫·克莱斯(Kristof Claes)早些时候对其进行了总结。
如果您不相信的话,请参阅《聚焦指南》的“镜头”作为参考。
每本业余杂志(和现在的电子杂志)都喜欢说“切换到广角镜以获得更大的景深”……但是,如果您将拍摄对象保持在镜框相同的大小(通过近距离移动),那么锐利的片段就会相同的限制。使用安装的镜头向后走也将提供更多的景深,但是也许您喜欢已经设置好的镜头?
您会看到的是锐度的渐进截止点,因此背景和前景显得更锐利(好像在DOF中不那么锐利!),因此,可爱的散焦背景(带有长镜头)和近乎清晰的广角背景。
是什么决定了照片的景深?
这只是镜头的特性吗?
可以将镜头设计为在相同的光圈和焦距下提供更大的景深吗?
它会随着相机传感器的尺寸而变化吗?它会随着打印尺寸而变化吗?最后两个如何关联?
另请参见以下问题:“ 如何确定特定照片可接受的混乱圈? ”。
以下答案最初是(由我本人)发布的,它是关于背景虚化的答案,但它必然解释了景深,并倾向于解释前景色和背景模糊。
原始的(较长的)答案是在这里:https : //photo.stackexchange.com/a/96261/37074-这是简化的版本。只需用链接给出一个句子的答案,该答案就会被转换为对上述问题的评论,因为这是评论,因此有被删除的风险。
在进一步解释之前,让我们先定义一些事情。
景深:场景中最近的和最远的对象之间的距离,这些对象在图像中看起来可以清晰地看到。尽管镜头一次只能精确地聚焦一个距离,但是在聚焦距离的每一侧,清晰度都会逐渐降低,因此在自由度范围内,在正常观察条件下不会感觉到不清晰。
背景:图像主题后面的区域。
前景:图像主题前面的区域。
模糊:造成视力缺陷,模糊不清或模糊不清。Sharpen的反义词。
散景:当镜头正确聚焦在被摄物体上时,超出景深的图像对焦区域模糊的质量。
混乱圈:在理想的射线光学中,假设光线在完全聚焦时会聚到一个点,具有圆形光圈的透镜散焦模糊点的形状就是一个硬边的光圈。一个更普通的模糊点由于衍射和像差而具有柔软的边缘(Stokseth 1969,paywall;Merklinger 1992,可访问),并且由于光圈形状而可能是非圆形的。
认识到真实的镜头即使在最佳条件下也无法完美地聚焦所有光线,因此术语“最小混乱度”通常用于指使镜片产生的最小模糊点(Ray 2002,89),例如通过选择最佳聚焦位置由于球差或其他像差,在不同镜头区域的不同有效焦距之间做出了很好的折衷。
术语“混乱圈”更普遍地应用于镜头成像对象点的失焦点的大小。它涉及1.视敏度,2.观看条件和3.从原始图像到最终图像的放大。在摄影中,混淆圆(CoC)用于数学确定景深,即图像可接受的清晰部分。
摄影:在摄影中,传感器的尺寸是根据胶片的宽度或数字传感器的有效区域来测量的。35毫米的名称始于135胶卷的总宽度,该胶卷是穿孔的暗盒胶卷,是全幅数码单反相机发明之前格式的主要介质。术语135格式仍在使用。在数码摄影中,这种格式已被称为全画幅。35毫米胶片的可用区域的实际大小为24w×36h毫米,而35毫米是指尺寸24毫米加上链轮孔(用于推进胶片)。
视频:传感器的尺寸以英寸表示,因为在数字图像传感器普及时,它们被用来代替摄像机的显像管。普通的1“圆形视频摄象管具有一个矩形的感光区域,对角线约为16 mm,因此,对角线大小为16 mm的数字传感器相当于1”的视频管。1“数字传感器的名称应更准确地读作”一英寸视频摄象管等效物“传感器。当前数字图像传感器的大小描述符是视频摄象管等效物的大小,而不是传感器的实际大小。 1英寸传感器的对角线尺寸为16毫米。
主题:您要捕获图像的对象,不一定是框架中出现的所有图像,当然不是照片轰炸机,而且通常不是在极端的前景色和背景中出现的对象;因此使用散景或景深散焦不是对象的物体。
调制传递函数(MTF)或空间频率响应(SFR):成像系统相对于输入空间频率的相对幅度响应。ISO 12233:2017指定了测量电子静态图片相机的分辨率和SFR的方法。每毫米线对(lp / mm)是胶片最常见的空间频率单位,但对于数字传感器而言,周期/像素(C / P)和线宽/图片高度(LW / PH)更方便。
现在我们有了我们的定义...
从维基百科:
CoC(mm)=观看距离(cm)/ 25厘米观看距离时所需的最终图像分辨率(lp / mm)/放大/ 25
例如,当预期的观看距离为50厘米且预期的放大率为8时,为了在25厘米的观看距离下支持等于5 lp / mm的最终图像分辨率:
CoC = 50/5/8/25 = 0.05毫米
由于在拍摄照片时通常不知道最终图像的尺寸,因此通常采用标准尺寸(例如25厘米宽)以及0.2毫米的常规最终图像CoC(即1/250)图像宽度。通常也使用关于对角线度量的约定。如果在放大到最终图像尺寸之前裁剪了原始图像,或者更改了尺寸和观看假设,则需要调整使用这些约定计算的DoF。
使用“蔡司公式”,有时将混淆圈计算为d / 1730,其中d是原始图像(相机格式)的对角线尺寸。对于35毫米全画幅格式(24毫米×36毫米,对角线为43毫米),结果为0.025毫米。更为广泛使用的CoC为d / 1500,对于35mm全画幅格式为0.029 mm,这对应于在30 cm对角线上的打印分辨率为每毫米5行。对于全画幅35 mm格式,0.030 mm和0.033 mm的值也很常见。出于实际目的,d / 1730(最终图像CoC为0.2 mm)和d / 1500给出了非常相似的结果。
还使用了将CoC与镜头焦距相关的标准。Kodak(1972),5)建议使用2分钟的弧度(正常视力的Snellen标准为30个周期/度)进行临界观察,得出CoC≈f / 1720,其中f是镜头焦距。对于全画幅35毫米格式的50毫米镜头,CoC≈0.0291毫米。该标准显然假定最终图像将以“透视正确”的距离观看(即,视角将与原始图像的视角相同):
观看距离=拍摄镜头的焦距×放大
但是,很少会在“正确”距离观看图像。观看者通常不知道摄影镜头的焦距,“正确”的距离可能太短或太长。因此,基于镜头焦距的标准通常已让给与相机格式有关的标准(例如d / 1500)。
此COC值表示在图像平面上测得的最大模糊斑点直径,该直径看起来很清晰。直径小于此COC值的点将显示为光点,因此会聚焦在图像中。直径较大的斑点对观察者而言将变得模糊。
自由度不对称。这意味着可接受焦点的区域在焦平面前后没有相同的线性距离。这是因为来自较近物体的光在像平面的后方会聚的距离大于来自较远物体的光在像平面之前会聚的距离。
在相对较近的距离处,自由度几乎是对称的,聚焦区域的大约一半位于聚焦平面之前,而另一半则位于聚焦平面之后。焦平面离像平面越远,对称偏移越大,有利于焦平面以外的区域。最终,镜头聚焦在无限远点,自由度达到最大不对称性,大部分聚焦区域超出了焦平面到无限远的范围。该距离称为“ 超焦距 ”,将我们引向下一部分。
超焦距定义为镜头聚焦在无限远处时的距离,其中从该距离的一半到无限远的物体将在特定镜头中聚焦。替代地,超焦距可以指的是在给定的光圈下透镜可以聚焦的最接近的距离,而距离(无限远)处的物体将保持清晰。
超焦距是可变的,并且是光圈,焦距和上述COC的函数。镜头光圈越小,超焦距就越接近镜头。超焦距用于计算自由度。
从维基百科:
决定自由度的因素有四个:
DOF =远点–近点
DOF只是简单地告诉摄影师,在对焦距离之前和之后的什么距离会出现模糊。它没有指定这些区域的模糊程度或“质量”。镜头的设计,光圈的设计以及背景决定了模糊的特征-强度,纹理和质量。
镜头的焦距越短,景深越长。
镜头的焦距越长,景深越短。
如果这些公式中的任何位置都没有显示传感器大小,它将如何改变自由度?
有几种偷偷摸摸的格式大小潜入DOF数学中的方法:
Enlargement factor
Focal Length
Subject-to-camera / focal distance
这是因为裁切系数和所产生的焦距以及传感器光收集能力所必需的光圈,从而对您的计算影响最大。
分辨率更高的传感器和质量更好的镜头会产生更好的散景,但是即使手机大小的传感器和镜头也能产生合理的散景。
使用上的APS-C相同的焦距透镜和全帧照相机在相同的对象到照相机的距离产生两个不同的图像构架并且使DOF距离和厚度(深度,该字段的)不同。
在APS-C和全画幅相机之间切换以保持相同的取景时,根据裁切因子切换镜头或在主体之间切换相机会导致相似的景深。移动位置以保持相同的构架会稍微有利于全画幅传感器(以获得更大的景深),仅当更换镜头以匹配裁切因子并保持构架时,较大的传感器才会获得较窄的景深(而不是很多)。
光圈的优势使全画幅传感器成为相机和镜头以及功能(FPS既不是其中之一,也不是尺寸和重量)方面更好,更昂贵的选择。
使用中型传感器而不是微型传感器进一步有利于较大的传感器,但是散景可能不是证明价格相差20倍以上的最佳用例。
每个光点更多的像素数量当然会产生更平滑的散景,但是如果使用小型传感器摄像头,则散景会更接近。如果您从照片或视频中赚钱,则可以为使用更昂贵的设备收取更多的比例费用,否则,花一些功夫或其他成本更低的镜头,便可以比购买更大尺寸的系统节省很多钱。
以散景为中心的链接,并提供有关景深的说明:
B&H在“自由度:景深”,“ 第一部分:基础知识”,“ 第二部分:数学”和“ 第三部分:神话”三篇文章中进行介绍。
维基百科部分:前景和背景模糊。
请查看RJ Kern 撰写的有关前景模糊的文章“ 暂存前景 ”,其中包括许多具有背景和前景模糊的照片。
最重要的是,“散景”不仅是“背景模糊”,还包括景深之外的所有模糊。即使在前台。远处的小灯更容易判断散景质量。