中兴远航20 Pro图片欣赏:让大电池和66W超级闪充成为新一代中端机的标配
06-21
Jon McCormack 担任苹果公司的软件副总裁。
他的重要工作是:进一步改进 iPhone 的成像系统。
在测试了 iPhone 12 和 12 Pro 后,我对成像系统的改进感到兴奋,计算摄影的加入是一个巨大的成功。
同时,我也有很多疑问。
在与乔恩·麦科马克的跨洋通话中,他尽可能详细地回答了问题。
参与采访的还有iPhone 12产品经理Vitor席尔瓦。
以下为采访内容: 问:这几天在试用iPhone 12系列的过程中,我感觉到照片和视频拍摄的质量有了很大的提升,这是很高兴的。
您能先请Vitor简单介绍一下今年iPhone 12系列的改进吗?首先,我们在 iPhone 12 和 12 Pro 上安装了 f/1.6 光圈的主摄像头。
这是 iPhone 上光圈最大的相机。
因此,您的照片和视频将具有更明亮的图像和更少的噪音。
而且我们这次使用了7片租赁镜头,进一步提升了画面质量。
然后,我们在 iPhone 12 Pro 上搭载了一项新技术——LiDAR。
它的全称是“光探测与测距”。
通过检测光束发射和返回所需的时间,可以确定到物体的距离。
由于LiDAR可以在黑暗中工作,我们可以用它来加快相机在夜景中的对焦时间,最多可加快6倍。
这些新功能的背后是 iPhone 最新的 A14 Bionic 芯片,这是所有手机中速度最快的芯片。
以及新的图像信号处理器,它可以更好地整合图像,减少早期毛刺,并带来更好的 HDR 视频功能。
有了这些硬件的支持,我们就进入了第三步,就是软件系统。
乔恩·麦科马克会告诉你更多。
问:在今年的 iPhone 发布会上,我们听到了很多关于“计算摄影”的话题。
乔恩是软件界的副总裁。
请告诉我,苹果如何看待“计算”和“摄影”之间的关系?过去,我们想要拍出质量更好的照片,只能在“拍摄”环节改进硬件。
我们买非常非常大的胶卷——大画幅相机的底片真的很大,安装起来很麻烦——我们买非常非常贵的镜头,我们手动控制景深和曝光,我们按小心快门。
但我们现在用的iPhone,镜头就这么小,感光元件也只有指甲盖那么大。
那么我们如何找回模拟时代的体验呢?我们需要依靠“计算”,让手机做很多数学题。
通过从各种传感器(例如新添加的激光雷达)获得的信息,手机可以自动完成过去在“数字暗室”中手动完成的工作。
问:那么,“击败专业单反和电影摄影机”是你的目标吗?这不是我们的想法。
在iPhone 12样片拍摄过程中,我们能够将拍摄团队缩减到非常小的规模,只有几个人就完成了样片拍摄。
以前想要拍这样的镜头,需要很多人。
有些人会携带机器,有些人会测量光线,有些人会聚焦,有些人会操作电影摄影机。
这种改变是我们工作的核心。
我们的目标是让每个人都能讲述自己的故事,并让每个人都能获得最好的技术——比如杜比视界。
他们可以从口袋里拿出一部小巧的手机,拍摄周围温馨的场景,进行编辑,然后分享。
整个过程就是一段“杜比视界HDR”视频。
体验非常棒。
Q:不过,目前的手机视频似乎还没有像手机照片那样在“计算摄影”方面达到很高的完成度。
这里的瓶颈是什么?拍摄视频与拍摄照片不太一样。
拍照时,手机有足够的时间进行后期处理计算。
但拍摄视频时,每秒有30甚至60帧,需要完成的计算任务非常多。
这几年手机视频中色调的成像质量已经解决得很好了,大家都处于差不多的水平。
嗯,挑战主要是围绕阴影和高光。
如果你注意的话,今年的 iPhone 屏幕暗部的噪点少了很多,而且屏幕也干净很多。
此外,今年我们将视频的颜色深度从 8 位增加到 10 位。
我们利用了多次录音中记录的色彩信息来更好地还原高光部分。
另外,我们今年在延时摄影中加入了“夜景模式”。
这实际上是视频的类别,而不是拍摄静态照片。
这和照片的“夜景模式”实际上是两套不同的代码,因为拍摄视频需要更快的处理。
照片和视频的“夜景模式”共享很多计算逻辑和知识,但本质上还是有很大不同的。
Q:您认为目前手机感光元件的实际动态范围能够养活HDR视频所能承载的动态范围吗?移动视频的提升是一条非常漫长的路。
A14芯片对于HDR视频拍摄能力有很多优化。
其神经网络引擎速度提升80%,提供强大的多帧融合能力。
当你将 iPhone 12 Pro 上的视频与上一代进行比较时,它已经是一个巨大的进步。
将来,您将看到这方面的更多改进。
问:当我观看当前 iPhone 的“杜比视界 HDR”视频时,传输到电脑后会显示一条 HLG 曲线。
这似乎与我们过去处理过的“杜比视界”材质不同——它们都使用记录绝对亮度值的 PQ 曲线。
为什么要这样做?在iPhone内部,这就是一个完整的“杜比视界”拍摄过程。
这是该标准的新 8.4 版本。
我们和杜比有过深入的合作。
该标准将得到更广泛的应用,更多的设备将从中受益。
你看到的HLG曲线是为了更好的兼容性。
我们希望导出的视频文件可以在各种设备和屏幕上观看,HLG 曲线满足了这一需求。
Q:我看现在的HDR视频时,如果直接从手机传输到社交网络,颜色会有点偏差。
如何解决这个兼容性问题呢?在iPhone内部的视频过程中,我们保存了两组元数据,一组对应HDR,一组对应SDR。
随着 iPhone 12 和 12 Pro 的推出,我们将推送新的 iOS 版本。
届时,将会有一个新的API,允许应用程序告诉系统是否支持杜比视界HDR视频,以便系统上传正确的动态范围。
的版本.问:我觉得今年的 HDR 照片与去年的 HDR 照片有所不同。
亮点好像更亮了?是这样吗?与 iPhone 11 Pro 拍摄的 HDR 照片相比,我们今年还在存储的照片文件中添加了“高光图”。
这可以充分利用我们今年推出的Super Retina XDR Display来显示两档更高的亮点,让用户直接在手机屏幕上看到更大的动态范围。
这就是为什么,当你看手机上拍的蓝天白云时,你会觉得云彩比以前手机上的更亮。
访者注:在测试过程中,我们看到iPhone 12系列拍摄的视频的HDR格式为“杜比视界,版本1.0,dvhe.08.04,BL+RPU,HLG兼容”。
在“dvhe.08.04”字符串中,“dvhe”指杜比视界高效率。
根据白皮书《Dolby Vision Profiles and Levels Version 1.3.2》中的信息,“08”表示Profile版本为8,“04”表示级别为x @ 30。
Profile 8的编码为“10-bit HEVC”,信号兼容性是“1、2或4”,即HDR10、SDR以及一种“适用于特定广播和移动设备”和“针对某些特定设备进行优化”的标准。
(引自杜比9月16日发布的公开信息, 2018.)“BL+RPU”指的是“基础层+参考图片单元”,我们推测iPhone拍摄的HDR视频可能在HLG曲线之外,为播放设备提供正确分析SDR的参考信息(RPU)。

和 HDR 颜色,并重新分析 HLG 曲线记录的颜色——正如 Jon McCormack 所说的“两组元数据”。
事实上,iPhone 12 录制的视频中有三组元数据。
我们目前不知道它们的元数据。
截至发稿,尚未找到有关 iOS、macOS 和 tvOS 上的“Dolby Vision Profile 8.4”和“Dolby Vision New API”的更多信息。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-18
06-18
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态