为什么xvYCC色彩空间没有被静态摄影吸收?


23

在过去的十五年中,sRGB一直是计算机显示器(以及消费者级打印)的主要标准。随着宽色域LED背光显示器的普及,这种情况现在正在改变。通常,摄影师将其与像aRGB这样的半标准色彩空间一起使用-例如,我的相机可以本地将JPEG保存在该空间中。

但是,在视音频行业中有一项新标准被广泛推广以取代sRGB。这是IEC 61966-2-4-xvYCC(或“ xvColor”,用于营销目的)。该色彩空间的色域比sRGB大1.8倍,覆盖了人类视觉色彩范围的90%(而不是我们当前的常用分母覆盖的平淡的50%)。在xvYCC的索尼网站上了解更多信息。

但重要的一点是,这不是理论上的。它是HDMI 1.3标准的一部分,还具有每种颜色10至16位的色深规范(称为“深色”)。与aRGB基本上是专业的利基产品不同,它在消费者级别的齿轮中得到了广泛的支持。

那就是背景。问题是:考虑到这一点正在广泛流行,并且我们都可能在未来几年内拥有能够支持它的计算机(和电视!)硬件,为什么将其基本上出售为视频呢?相机行业似乎很乐意加入。

索尼大力支持这一想法,并于四年前推出了支持它的摄像机。看在眼前,Playstation 3支持它!为什么不也将它放在Sony Alpha dSLR中呢?索尼并不孤单,佳能也支持它。

当然,如果您要拍摄RAW,则相机内支持并不重要。转换器软件人员将必须加入其中—为什么不为此而努力?据我了解,xvYCC是YCbCr的扩展,已经在JPEG文件中使用。但是,当我阅读文献时,发现有很多关于更新的MPEG标准的提及,但对于静止图像却一无所获。

为什么我们不能拥有美好的事物?

Answers:


11

xvYCC是编码颜色数据的一种特别聪明的方法:它使用先前禁止的值组合来表示YCC方案中使用的RGB空间色域之外的颜色,从而滥用了YCC表示。也就是说,某些YCC元组会解码为RG或B值为负的颜色。以前,这些只是非法的;在xvYCC中,这些是允许的,并且欢迎使用色域大于RGB系统的显示,以使其尽可能达到最佳效果。因此,在不做很多改变格式的情况下,获得一些额外的色域是一个聪明的,几乎兼容的技巧。

在静态摄影中使用它是否有意义?我真的不这么认为。确实不需要与YCC兼容,那么为什么不使用ProPhoto RGB等广色域空间呢?还是更好,或者因为使用额外的位深度对于静止图像而言并不昂贵,所以为什么不使用像CIELAB这样可以覆盖整个人类感知色域的图像呢?您有足够的位数,可以对所有这些虚构的颜色进行编码,而不会花费任何可观的颜色分辨率。

当然,相机支持的问题有点无关紧要-如果您真的很在意色彩,则应该从相机中提取原始检测器值,然后从这些值开始。即使执行此操作,也仍然会卡在相机可感知的色域中。而且,颜色表示的准确性还取决于相机的滤镜对人体视锥的光谱响应的近似程度-弄错了,看起来与眼睛相同的颜色与您的相机看起来会有所不同。没有编码将解决此问题。实际上,这是用我拥有的一台廉价数码相机发生的,在这种情况下,其红外灵敏度使余烬看起来呈紫色。即使您滤除红外光,当连续光谱看起来还不错时,诸如彩虹,荧光灯或矿物质(也许还有一些染料)之类尖峰光谱的东西也会显示出这种效果。


20

首先,答案是“它用于静态摄影!” 我将稍作解释,目前它的使用还算合适。

xvYCC的根源

据我所知,xvYCC编码是对YCC编码的现代增强,或者说是长形式的Y'CbCr(或略有不同的YCbCr)。YCC编码是亮度/色度系列的一部分色彩空间,这些色彩空间大部分都源于1930年代CIE制定的L a b *(简称“实验室”)色彩空间。Lab颜色空间还是Luminance / Chrominance颜色空间,其中颜色的亮度以L *值编码,而颜色的两个色度轴以a *b *值编码。a *值编码沿绿色/品红色轴的色度的一半,而b *值编码沿蓝色/黄色的色度的另一半轴。选择这两个色轴来模拟并代表人眼的四种颜色原色敏感度,它们也沿红色/绿色和蓝色/黄色对轴分布(尽管真实的人眼视力涉及双峰红色曲线,较小的峰值出现在蓝色曲线的中间,这实际上意味着人眼对品红色(而不是红色)直接敏感...因此在实验室中为绿色/品红色轴。)

YUV编码

Y'CbCr可能以YUV视频编码的形式最为突出。YUV编码经过专门设计,以减少编码颜色以进行视频传输所需的空间量,当时带宽是一种相当稀缺的商品。将颜色信息作为RGB三元组发送是浪费的,因为R,G,B三元组对颜色进行编码时具有相当多的冗余度:所有三个分量都包括亮度信息和色度信息,并且亮度在所有三个分量上加权。YUV是Y'CbCr亮度/色度彩色编码的低带宽形式,没有RGB编码的浪费冗余。YUV可能会消耗整个RGB信号带宽的2/3至1/4的带宽,具体取决于子采样格式(此外,YUV将完整的细节图像存储在不同的亮度通道Y中,这也方便地支持B&W例如使用单一编码格式的彩色电视信号。)应该清楚地注意到,YCC并不是真正的色彩空间,而是一种编码RGB颜色信息的方法。我认为更准确的说法是颜色模型而不是颜色空间,并且术语颜色模型可以同时应用于RGB和YUV。

从原始问题中链接的参考文献来看,似乎xvYCC是Y'CbCr编码的增强形式,它以比YUV更多的位存储编码的亮度/色度颜色信息。xvYCC不会以2-4位的交错集编码亮度和色度,而是以现代的10位值编码颜色。

用于静态摄影

有趣的是,有一个DSLR相机品牌确实使用了非常相似的功能。佳能近年来在其相机中添加了一种新的RAW格式,称为sRAW。虽然正常的RAW图像包含完整传感器数据的直接拜耳转储,但sRAW实际上不是真正的RAW图像格式。sRAW格式不包含拜耳数据,它包含从基础拜耳RGBG像素数据插入的已处理Y'CbCr内容。与电视时代类似,sRAW旨在使用更多原始信号信息来以高精度(14-bpc)但节省空间的图像格式对亮度和色度数据进行编码。sRAW图像的大小可以是RAW图像大小的40-60%,

sRAW的优势在于,您可以以紧凑的文件格式保持较高的人类感知色彩精度,并更好地利用拜耳传感器上的RGBG像素(而不是重叠采样会产生令人讨厌的色彩莫尔条纹,sRAW会执行不重叠的色度采样缺点是它不是真正的RAW格式,并且从完整的拜耳传感器对颜色信息进行插值和降采样。如果您不需要相机的完整RAW分辨率(即,您只打算以8x10或11x16进行打印),那么sRAW会是真正的好处,因为它可以节省很多空间(比RAW节省多达60%) ),与原始图像相比,保存速度更快,提供了更高的帧速率,并且比全分辨率RAW更好地利用了传感器捕获的色彩信息。


非常有趣且内容丰富-谢谢!但是我仍然感到惊讶的是,到目前为止,唯一的用途就是这种利基用途。
mattdm 2011年

1
从技术上讲,我想您可能会认为JPEG是另一种以YCC兼容方式编码数据的图像格式。JPEG节省空间的部分原因是因为它以亮度/色度格式对RGB数据进行编码,然后通过有损块压缩对数据进行进一步压缩。尽管特定的xvYCC编码在静态摄影中并不常见,但是当您考虑它时,亮度/色度编码实际上是最流行的格式。
jrista

7

你的事情几乎完全落后了。在这种情况下,静态摄影不能/应该“赶上”视频-恰恰相反,这是一个视频问题,终于可以(大致)赶上TIFF(例如)提供的功能了几十年前(左右)。

尽管20年前您肯定没有看到太多的16位/通道TIFF,但是已经具备了这种功能,现在16位/通道(采用TIFF和其他格式)非常普遍。同时,我不得不指出大多数人似乎发现8位/通道完全足够。仅举一个明显的例子,JPEG2000支持16位/通道和比原始JPEG更好的压缩率-但距离原始JPEG规范的使用还差得远。

大约在同一时间(实际上是之前),xvYCC正在(大致)赶上TIFF的功能,正在开发openEXR文件格式。它最多支持32位/通道。尽管还没有广泛使用,但我希望它会有点像TIFF,并且最终会广泛使用。

就色彩空间而言,如果xvYCC支持的色域大于sRGB,则确实存在更多的位数/像素。再次,但是,ProPhotoRGB(例如)提供了更宽的色域-并且(老实说),是否存在一个比ProPhotoRGB已经提供的更大的色彩空间(是否可以提供大约13%的色彩)存在疑问在ProPhotoRGB中表示基本上是虚构的-它们超出了大多数人的感知范围。

xvYCC的优点在于减少了代表给定质量级别所需/使用的数据量。对于高清视频(尤其是高清视频),最小化带宽至关重要。但是,对于数码相机而言,带宽问题要小得多-虽然(例如)我可以在特定大小的CF卡上放两倍的照片就可以了,但这不是一个特别严重的问题。相对而言,很少有人会使用可用的最大容量的CF卡,CF卡的成本也不是典型摄影师预算的很大一部分。

底线:就技术能力而言,xvYCC提供的功能很少。

编辑:我可能应该再增加一点。在数码相机广泛使用之时,LCD开始取代大多数显示器的CRT,但是消费级LCD显示器才刚刚开始超过(或什至接近)8位/通道色彩分辨率。当典型的监视器只能显示6左右时,不必担心每个通道具有10或12位。

还有一些细微的细节,很多人根本不在乎。对于他们来说,摄影质量属于通过/不通过标准。大多数人真正要求的是一张图片应能被合理识别。我怀疑人们正在慢慢开始期望更好,但是在Walgreens(或其他任何人)将他们的红发女儿变成金发女郎(等等)多年之后,要花一点时间才能习惯颜色完全准确的想法。

编辑:实际上,除了JPEG 2000之外,还有另一步:JPEG XR。这最多支持32位/通道(浮点)HDR。它还指定了一种文件格式,该格式可以包括所有常用的EXIF / IPTC类型数据,嵌入式颜色配置文件等。与此处的问题相关,该格式包括一个值,该值指定文件应使用xvYCC颜色空间(11TRANSFER_CHARACTERISTICS如果有人在意,请参见语法元素表A.9)。这似乎并未得到广泛使用(至少尚未),但它确实支持静态图像的xvYCC颜色空间。


谢谢; 那绝对是一种看待它的方式。我知道这些文件格式和较宽的色彩空间存在。我想我真正感兴趣的是,为什么有一个在A / V世界更大的色深,但不是在消费级摄影。
mattdm 2011年

1
@mattdm:我认为之所以有推动力的原因是它以前不存在。宽色域/高色深可用于静止图像摄影至少十年了,据我所知,数码相机已支持Adobe RGB(其色域比sRGB广,尽管它不能完全支持98%的RGB)。实验室色域)。佳能的sRAW已在其入门级和中级数码单反相机中使用了至少两年。我同意杰里...视频是正在“追赶”的领域。
jrista

4

因此,经过一些研究后可以回答我自己的问题:

尽管它不是xvYCC,但是由于我仍然无法理解的原因(因为JPEG编码使用类似的较旧方案),“我们可以拥有美好的事物” 似乎确实令人鼓舞。前面,因为看起来至少Microsoft关心更宽的色域和更好的静态照片深度-至少有点。

他们一直在缓慢而肯定地推动一种新的文件格式标准,称为JPEG XR(以前称为Windows Media Photo,然后称为HD Photo)。这是从“传统” JPEG向前迈出的有趣一步,它在相同图像质量下提供了更好的压缩,并且(在本次讨论中)达到了更高的位深度支持。

JPEG 2000也是这样做的,但是很大程度上是失败的,可能是因为涉及它所使用的小波压缩的专利问题,或者是其他原因。重要的一点是:Microsoft现在正在推广JPEG XR,并将其包含在许多软件中,包括Internet Explorer 9。截至2009年,它是一个正式的真正的国际标准,并且在Microsoft的“ Community Promise”中受保护,不会以不利于实施的恶意方式实施其专利。因此,这对于将来的使用非常有利。

并且,与此同时,他们正在将每通道更多位的想法称为“ 高色彩 ”,(这对我很有趣,因为在我看来,这仍然是旧的16位所有通道显卡模式)。作为此过程的一部分,他们有一个称为scRGB的可能非常大的“中间”色彩空间,请在此处详细了解它 -如果需要,可以使用JPEG XR支持。它作为最终的色彩空间可能不是特别有用,因为它的大多数色彩都位于人类感知范围之外的“虚构”区域中。但是无论如何,关键是,微软正在将更高位深度的标准集成到Windows操作系统中,而摄影仍然部分。来自CNET的一次较早的采访:“我绝对希望相机的scRGB支持与JPEG XR一起出现。”

但这是在2007年。四年半之后,我们仍然没有看到支持JPEG XR的相机,更不用说看中了宽色域的深度色彩空间。但是,也许我只是不耐烦。正如这里的其他答案所指出的,支持广色域的显示硬件才刚刚可用,最近在世界上最受欢迎的OS中提供了支持,并且第一个支持它的Web浏览器已于本月发布。随着这种情况的流行,并有望最终被ChromeFirefox所采用,图像处理程序(包括RAW转换器)将获得支持,并且相机的实际直接输出也将随之而来。

否则整个事情都会失败。时间会证明一切。:)


2
JPEG XR的一个好特征是它在计算上便宜,因此例如实现相机内编码将是可行的。JPEG 2000成本很高。这当然是一个因素,尽管也许随着计算能力的不断进步并不是那么重要。
PeterT 2011年

3

我将在乔恩(Jon)的周围添加一些笔记。

  1. 仅在谈论JPEG时,颜色空间才在相机环境中有意义,因为对于Raw图像,颜色空间是“开发”阶段的选择。一些相机(某些相机为准Pentax半专业相机)允许为JPEG开发选择sRGB或aRGB,因此也许它们可以添加第三个(对于ProPhoto,则为第四个)。然后,对于大多数专业人士而言,他们将以所需的色彩空间为所需的输出介质提取图像。

  2. 观看者(和/或设备)还必须意识到色彩空间并能够处理它。尽管广色域监视器变得越来越普遍,但它们仍可能是少数,并且要赶上一段时间。哎呀,我知道很多人仍然将旧的CRT显示器连接到其他不错的计算机上。


我要再次强调一点,xvYCC并不是“色彩空间”,它最多是RGB颜色信息的编码格式。它支持更广的色域,这不是因为它具有色彩空间,而是因为它使用更多的信息位来存储颜色信息,并以更接近人类感知亮度和颜色的方式存储它们。
jrista

IEC标准@jrista专门将其称为“视频应用的扩展色域YCC色彩空间-xvYCC”,强烈暗示它实际上是色彩空间。阅读了YCC之后,我看到了您来自哪里,不想花100美元来阅读我不确定的标准,但是我目前的假设是,它指定一种扩展的指定方式YCC中的颜色信息以及实际更宽的RGB颜色空间。
mattdm

1
我将不得不更深入地阅读规范。我不确定xv代表什么,所以也许实际上是指某种广色域色彩空间。尽管YCC即使使用更多的位,也可以肯定不是一个“色域”,而只是一个encoding。这就像说RGB是一个色彩空间...不是,它只是一种编码色彩数据的方式。A color space通过一组原色映射,伽玛键,白点和黑点以及一些曲线来定义每种颜色的亮度和色度值。
jrista

1
我猜“ xv”是“扩展值”,但可能仅表示“ soudns cool”。
mattdm

1

xvYCC色彩空间可能不会被静态摄影吸收,因为已经开发了新标准,这是对旧标准的改进,并且没有制造商愿意投资在其被“下一件最伟大的事物”取代之前可能会贬值的标准。 '。他们从VHS vs. Beta中学习。

高效图像格式(HEIF),MPEG-H第12部分,是一种文件格式,指定了一种结构格式,可以从该格式导出编解码器特定的图像格式。

HEIF还包括用于封装符合高效视频编码的图像和图像序列的规范(HEVC,ISO / IEC 23008-2 | ITU-T H.265建议书或MPEG-H第2部分)。

苹果的WWDC 2017主题视频中提到了此问题:https ://youtu.be/oaqHdULqet0?t =58m49s

Apple的iPhone 7及更高版本拍摄的照片会保存为JPEG或HEIF格式。使用HEIF可以提供原始的摄像机到存储到显示的解决方案-完整的基础架构,而不会丢失或从输入到输出的转换(使用未压缩的HEIF时)。

这并不是说他们完全支持所有功能(因为很少很少“完全支持MPEG”),也不是说其他​​任何人都做起来并不容易,仅仅是因为它们似乎是第一个提供完整图像解决方案(用于视频)的公司。多年来,我们拥有HEVC H.264,H.265和最近的HikVision的H.265 +子集。

如果您知道其他支持HEIF的摄像机,请发表评论或编辑,谢谢。

以极高的动态范围(传感器的每种颜色超过16位)记录图像和视频的摄像机通常不处理数据(制作压缩文件),而是直接输出原始数据,例如:http:// www .jai.com / en / products / at-200ge-相机每像素输出24到30位,或者http://www.jai.com/en/products/at-140cl-相机每像素输出24到36位。

如果您无休止地搜索或愿意付钱给专业相机供应商来制作您想要的东西,则有可能获得CIE 1931色彩空间相机(可能还有其他色彩空间),您可能会自己编写软件来从您的色彩空间转换为其他程序使用的色彩空间。

这是Quest Innovations的Condor3 CIE 1931摄像机的链接:http ://www.quest-innovations.com/cameras/C3-CIE-285-USB 。

带有3、4、5或6个传感器的摄像机可以将频谱分成较小的部分,并在每个通道上提供更多的比特,从而更精确地解析出准确的颜色和强度:http : //www.optec.eu/en/telecamere_multicanale/telecamere_multicanale.asp


三通道相机的棱镜 3CCD或3MOS

四通道相机的棱镜 4CCD或4MOS

5通道相机的棱镜 5CCD或5MOS


参考文献:

https://developer.apple.com/videos/play/wwdc2017/503/

https://nokiatech.github.io/heif/technical.html

https://zh.wikipedia.org/wiki/High_Efficiency_Image_File_Format

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.