过去十年来,我们看到了成像显示技术的一丝复兴。从标清到高清的飞跃是图像质量的一次巨大升级。从高清到4K则是制作更优图像的另一次引人瞩目的进步,但其影响力不及之前从标清到高清的飞跃。如今,我们开始看到8K显示设备和工作流。虽然这对超大尺寸屏幕而言是一大喜讯,但这样的飞跃对较小型观看环境带来的益处却没那么大。在我看来,我们正处于不需要更多像素,而需要更优像素的阶段。HDR或高动态范围图像,与广色域一道,可以让我们实现下一次巨大的图像质量升级。HDR带来更优像素!
当我们谈到特定采集系统的动态范围时,我们指的是所采集到的最黑的阴影与最明亮的高光之间的变量。通常会使用测光表以档数(Stop)来测量它。一档就是通光量翻倍或减半。这种以2的次方来测量光线的方法完美适配它与人眼对数特性的相关性。人的眼球绝不会“裁切”亮度,而一套完美的HDR系统也不应该如此。亮度越高,图像的差异就越难看出来,但我们从未到达上限。遗憾的是,数字摄影机传感器的工作原理跟人眼不同。数字传感器是线性响应,gamma为1.0,会进行裁切。大部分高端摄影机会将这种线性信号转换为对数信号,以便进行后期操控。我从来就不是一个很擅长演算的人,但多年来这个思维实验对我很有帮助。假设你处于某空间中的一端。如果你每次迈一步,而每一步迈出的距离都是上一步的一半,那么你要走多少步才能走到另一端的墙?这就是对数曲线背后的逻辑。终有一天我们能数清楚一个场景里的所有光子,但在那样的传感器被造出来之前,我们需要在所采集到的范围限制内工作。比如,若一个样图最暗的部分是阴影,而最亮的部分比暗处亮8档,那意味着对于那个图像,我们拥有8档的范围。我们给传感器或一片胶片曝光的方式,会基于不同因素的组合而改变。这些因素包括光圈、曝光时间和成像系统的总感光度。根据你设置这些变量的情况,你可以在场景中上调或下调总动态范围。比如,你有一个范围是16档的场景。画面包含从最暗的阴影到直射的烈日。本例中,我们的成像设备只能处理16档范围中的8档。我们既可以把曝光移动到偏向阴影的部分,也可以偏向高光,还可以偏向恰到好处的中间范围。设置这个范围的方式没有所谓的对或错。它只需要产出有助于推动你在镜头中所讲故事的图像。一个16bit EXR文件可以处理32档的范围,远超当前任何采集系统可达到的范围。宽容度(Latitude)是你可以修复一个过曝或欠曝图像的程度。宽容度和动态范围常被混淆起来。只在极少数情况下两者是相同的,但通常,宽容度是小于可用的动态范围的。
胶片从被创造出来开始,所采集的信息始终比洗印出来的多。当代胶片的动态范围是12档。当你洗印胶片时,必须选择最佳的8档,以更多或更少的光进行洗印显像。额外的动态范围存在于负片上,但受限于显示技术(无法完全显示出来)。快进到我们如今的数字摄影机。Arri、Red、Blackmagic、Sony的摄影机统统宣扬自己有超过13档的动态范围。而挑战始终在于显示环境。因此我们需要开始不把摄影机想成是图像的创造器,而是把它想成一个场景在采集时的光子收集器。图像随后被创意性地“映射到”你的显示设备上。
我们面对的问题始终都是:如何把10磅的鸡肉装到8磅的袋子里?过去,当处理这些HDR摄影机负片时,我们受限于所使用的显示技术的范围。在HDR显示设备出现之前的监视器和投影仪无法“显示”片场采集到的一切,尽管我们采集到了可以用于显示的更多信息。我们可以为图像调色,使其在目标母版设备上看起来不错。所谓的“参照显示设备的调色”会限制你的动态范围,置入你调色所使用的显示设备的伽玛。在只有SDR电视和影院数字放映设备这两种媒介时,这样没问题。2.4视频伽玛和2.6影院伽玛之间的差异小到,只需一些简单的伽玛运算,就能让为其中一种媒介制作的母版在另一种媒介上也很好看。如今有一大堆交付文件和母版,它们所要求的显示伽玛多种多样。所以在我们还没开始谈论HDR前,我们的调色空间就需要是“参照场景”的了。这意味着,一旦我们在片场采集了信息,我们就能以非破坏性的方式,将其传输给制作管线的其余环节,维持跟原始场景光线条件的关系。“制作此片时没有像素受伤”是我个人的口头禅。
参考场景来工作有多种不同方式。视效行业已经这样工作几十年了。关键点在于,我们需要有一个处理空间,这个空间要大到足以处理摄影机数据而不会超出界限范围,也就是发生任何通道的裁切或压黑。这个“桶”还必须有足够的采样(位深)才能经受住大幅度的色彩转换。10-bit不足以支持HDR调色。我们需要以全精度16-bit浮点工作。这个图的效果夸张了一点,但它展示出了重点。很多人相信,一个10-bit信号就足以用于HDR。我认为对于调色,16-bit是必要的。这能确保我们拥有足够的灰阶来充分描述图像的主要部分,此外码值的上半部分还有额外的高光数据。位深就像是面包上的黄油。位深不足的话,你的色调渐变就会出现缺口。我们想要我们的波形图上有渐变流畅的波形显示。现在我们有了非破坏性的工作空间,我们就可以使用色彩转换或LUT来映射我们的显示设备进行母版制作。ACES是工作空间以及一系列标准化转换不错的起点,因为它可以参考场景工作,并且如果应用得当,它始终是非破坏性的。这种工作流的要点在于,原始摄影机数据的传感器线性被保留了下来。我们只是为我们各种不同的母版添加我们的显示曲线。
要测量片场的光线亮度,我们用的是档数。对于显示设备,我们使用的测量单位叫做尼特(nit)。尼特所测量的是峰值亮度,而不是动态范围。1尼特 = 1 cd/㎡。我不明白为什么对于同样的测量会有两组不同命名法的单位,但对于显示设备,我们用的是尼特。可能坎德拉/平方米不太顺口(译者注:除了监视器,其他常见显示设备还有投影仪,其常用亮度单位是流明)。典型的SDR监视器的亮度为100尼特。典型的影院放映机的亮度为48尼特。至于何谓HDR亮度,没有固定的标准(译者注:杜比的解释中,HDR最低标准为400尼特)。超过600尼特我就认为是HDR。大部分HDR项目的母版制作为1000尼特,或传统SDR显示设备亮度的10倍。杜比Pulsar监视器能显示4000尼特,这是迄今能实现的最高亮度。PQ信号可容纳的亮度值高达10000尼特。尊正 XM310K 一度成为市面上唯一在售的
可达到 4K HDR 3000 尼特的主控级监视器
荣获 Cine Gear、HPA 和 SID 多项显示技术大奖的
尊正新品XMP550峰值亮度达2000尼特
杜比Pulsar监视器峰值亮度可达4000尼特
最常用来存储HDR数据的标准是PQ电光转换函数。PQ代表感知量化(perceptual quantizer)。SMPTE将PQ EOTF转换函数标准化为SMPTE ST 2084标准发布出来。常跟PQ联系到一起的色彩原色是Rec. 2020。当PQ转换函数搭配Rec. 2020原色和D65白点时,会使用BT.2100标准。这就类似于BT.1886的定义就是,Rec. 709原色搭配的是不用说就知道的2.4伽玛和D65白点。PQ文件可以有非Rec.2020的原色。最常见的变体就是P3原色搭D65白点。不好意思讲了那么多术语,但讲完之后大家的理解就能一致了。
当前使用的主要的HDR格式有4种。它们全都以对数的方式来保持高光信息最大化。杜比视界(Dolby Vision)是如今业内最常用的一种HDR格式。这套系统由3个部分组成。第一,你的母版使用PQ EOTF调色。第二,你“分析”你项目中的镜头,以确定图像阴影、高光和主体部分相对应的元数据。这被视为第1层元数据(L1)。第三,此元数据用来告知内容映射单元(Content Mapping Unit,或CMU)如何以最佳方式将你的图像“转换”为SDR和更低尼特的格式。调色师可以使用微调(Trim)来“推翻”这个自动转换,这个微调随后被存储到通常被称为L2的第2层元数据中。你可以做的微调包括暗部、中间调、亮部和饱和度。在最新推出的4.0版本中(本文原文发布于2024年1月),杜比给予用户工具,还可以进行6矢量色相和饱和度二级控制。当所有这些设置都编写好后,它们会被导出到一个XML sidecar文件中,跟原始母版一起传输。使用这个元数据,具备杜比视界性能的显示设备就可以使用这个微调信息来定制图像呈现,逐帧地适配自己所能显示的最高尼特。❑ HDR 10
HDR 10是最简单的PQ格式。调色使用PQ EOTF完成。然后分析整个节目。计算出平均亮度和峰值亮度。这两个元数据点被称为MaxCLL——内容最高亮度(Maximum Content Light Level)和MaxFALL——帧内最高平均亮度(Maximum Frame Average Light Level)。使用这些元数据,下游的显示设备就可以调节一个节目的整体亮度,以适配显示设备的最高亮度。❑ HDR 10+
HDR 10+类似杜比视界,因为用户可以分析自己的镜头,并且可以设置一个以每个镜头元数据来传输的微调。区别在于,你没有任何色彩控制。你可以调节曲线上的点来获得更好的色调映射。这些微调会从你的调色软件导出为一个XML文件。❑ HLG
混合对数伽玛是传统监看设备标准2.4伽玛曲线的对数扩展。码值较低的那一半使用2.4伽玛,较高的另一半使用对数曲线。将传统伽玛与对数曲线相结合用于HDR高光成就了这套混合系统。这个HDR版本向下兼容现有的显示设备和地面广播分发。没有对信号进行动态量化。显示设备只是尽可能多地显示出信号图像。
每个制片厂要求的交付文件各不相同。我在此列出几乎每一个交付指南文档都写有的最常见的几种。根据不同的制片厂,这些交付文件的命名有所不同,但其效用不变。❑ PQ 16-bit Tiff
这是一种主要的HDR交付文件,它衍生出了本文所列的其他一些母版格式。这些文件通常有D65白点,并且要么是Rec.2020,要么是Rec.2020封装格式内有限的P3。❑ GAM
已调色存档母版(Graded Archival Master)包含所有的调色处理,但没有进行任何输出转换。这种母版可以有3种色彩空间,全都是参照场景的:ACES AP0——线性伽玛1.0搭配ACES原色,有时被称为ACES初始源(ACES prime)。
摄影机 Log——以摄影机原生原色进行的原始摄影机log编码。比如,对于Alexa摄影机,这就是LogC Arri Wide Gamut。
摄影机线性——此格式拥有采用线性伽玛1.0的摄影机原始原色。
❑ NAM
未调色存档母版(Non-Graded Archival Master)相当于过去的VAM(Video Advance Master-视频预先母版。它只是一份没有调色的剪辑。此母版需要以跟你GAM相同的格式进行交付。❑ ProRes XQ
这是最高质量的ProRes。它每图像通道可容纳12-bit,并且是考虑HDR而创建的。❑ Dolby XML
此XML文件包含了所有的分析和微调决策。出于质控目的,它需要能够从杜比自己的质控工具Metafier通过检查。❑ IMF
互操作母版格式(Inter-operable Master Format )文件功能很多。由于本文篇幅有限,我们仅简介HDR交付相关功能。IMF是通过由JPEG 2000制作的MXF创建的。JPEG 2000文件通常来自PQ tiff母版。到了这个阶段,XML文件会结合图像创建一个质量上乘的分发包。
目前,对于长片电影,我们会先制作院线母版。在不远的将来,我们会看到“大反转”发生。我宁愿把大量的调色时间花在最高品质的母版上,也不愿意花在48尼特动态范围有限的院线调色版上。我感觉,先调HDR能得到更好的SDR版本,因为你已经纠正了极端阴影或高光中可能出现的任何污染。然后你就可以花几天时间来“微调”影院使用的院线SDR版。DCP标准亟需更新。250Mbps对于HDR或高分辨率模板而言并不够。电影史上将首次出现,观众在自己卧室里得到的图像,比大部分影院更好。当然,这是正在发生并且快速发生的变化。索尼和三星都具备旨在革新观众观影方式的HDR电影解决方案。三星拥有自己的34英尺的(约10米)Onyx系统,可进行400尼特影院放映。如果你在洛杉矶,就可以看到一个落地的概念设计模型。可以去查茨沃斯的太平洋影院温内特卡一探究竟。索尼在我看来拥有当前更优的解决方案。他们拥有自己的黑彩晶墙,可在影院环境中实现800尼特图像。这些类型的显示设备打开了更多可能性,让电影人可以使用全新类型的电影语言,同时不会牺牲我们过去使用的任何传统叙事手段。比如,这会是电影史上第一次创作者可以引起观众的生理变化。我时常想到我为《盒子怪》(The Boxtrolls)调色的一个镜头。在那个镜头中,主角蛋生从生活了一辈子的下水道走出来。我营造了一种假象,让观众的眼睛适应一个过亮的世界。为了实现这一点,我调高了亮度,并让画面稍微模糊了一点。我通过好多个镜头来让这种适应平复下去,直至你的眼睛“适应”下来,回归正常。院线调色是按48尼特来做的。在这个亮度水平上,甚至就算是在最高亮度,人眼也完全不会收缩瞳孔,但如果我可以处理更大的亮度范围呢?如今,我可以把镜头调亮至观众的瞳孔完全收缩。然后接下来几个镜头,观众会适应“新的更明亮的场景,那种场景似乎变正常了”。那种最初的震惊感类似现实世界中从昏暗环境来到明亮环境时收到的冲击。我想回顾的另一个这样的例子是《火车进站》(L’arrivée d’un train à La Ciotat)带来的迷思。在这个卢米埃尔兄弟早期拍摄的影片中,一辆火车驶进站。有一个都市传说是,随着画面中火车猛然驶来,这支影片让观众们纷纷跳离座位,缩起脑袋找掩护。想象一下,如果我们现在把同个镜头设置在一个漆黑的隧道里。我们可以在HDR中把头灯调得极亮,搭配火车呼啸的声音,这么一来,当火车驶来时,大部分观众至少会不敢看地撇开脸。当人眼适应了黑暗环境,一下子来个1000尼特的峰值亮度就会看起来亮得骇人。想到这些例子,以及探索HDR这种新媒介的电影人以后可能创造出来的其他例子,我倍感兴奋。对更优像素致敬!对不断进步的电影艺术与科学致敬!