中国ESG新故事:主动、常态、变革
06-18
记得小时候看过一部纪录片,里面解释了电影幕后人员的分工。
摄影师经常与跟班这个“焦点人物”搭档,就像每个高尔夫球手都有一个球童,每个高尔夫球手都有一个导航仪一样。
这几乎已经成为电影界的标配。
跟焦器主要只是保证镜头的焦点(焦平面)满足摄影导演的需要,即保证拍摄对象清晰。
这听起来是一项相当简单的任务,但并不是每个人都能胜任。
对焦点移动速度和切换精度都有很高的要求。
没有长年累月积累的肌肉记忆,就很难做到熟练,也很难在不同的焦点之间准确切换。
尽管如今相机的自动对焦技术已经取得了长足的进步,但电影行业却依然如故。
仍然是全手动。
摄影师还有那个“跟班”。
焦点的移动会凸显人物,也可能会凸显环境。
人眼的本能是追踪清晰的物体。
焦点的变化会引导观众的注意力随着焦点的转移,从而达到叙事或气氛的增强。
成为电影的语言。
扎导对此应该有发言权。
如果普通人想要拍出这样的“电影”效果,不考虑后期制作,全画幅相机和大光圈镜头就足够了,但从经济性和通用性来说,那就是负分了。
。
今年iPhone 13系列上的“电影效果模式”可能是一个新的选择。
电影效果模式即视频人像模式。

iPhone 13的所有TVC中,印象最深的还是《Whodunnit》和《谁偷了我的 iPhone》。
电影特效模式的加入,让整部影片的故事性得到了很大的提升。
当然,后者的演员也是一大亮点。
▲ 强烈推荐观看完整片段。
事实上,在苹果9月15日推出iPhone 13之前,就有相应的传闻泄露出来,表明苹果将推出“视频肖像”功能。
当时我并不认为它有什么“用处”。
但看了《Whodunnit》的广告演示片,以及拿到iPhone 13系列,并实践了一段时间后,我们逐渐明白了“电影效果模式”的意义堪比“电影效果模式”在 iPhone 7 Plus 上。
人像模式”。
它们并不是基于经典的光学技术,而是寻找其他方法。
以前的“人像模式”和现在的“电影效果模式”都是基于多镜头视差,而不是LiDAR,这解释了为什么整个iPhone 13系列都支持,不仅仅是Pro系列,目的很明显,就是为了像当年的“人像模式”一样流行。
▲ 脸大的话就赢了。
基于此,iPhone 13全系列的“电影效果模式”拍摄效果与iPhone 13接近。
识别拍摄对象模拟景深时,会以脸部为主。
多张脸,拍摄效果就会大。
优先事项。
它无法识别物体和动物,如果要切换,需要人工干预。
在拥挤的场景中,iPhone 13可以同时识别多个人脸,但会频繁切换焦点。
这时候你还需要介入选择你想要关注的人,或者直接长按锁定。
另外,“电影效果模式”是苹果首次推出,自然有很多限制。
首先是抠图不够精准,人物的边缘有时会出现“交叉”的情况,而且最多只能录制p 30p的视频。
iPhone 13 Pro Max 1TB 版本也是如此。
不过,在上述限制下,iPhone 13全系列的“电影效果模式”仍然可以兼顾杜比视界HDR编码,这也算是苹果权衡的一个选项。
“电影效果模式”其实是出于好奇而诞生的。
过去,新功能的出现需要洞察需求和用户反馈。
然而,站在金字塔顶端的苹果,大多遵循自己的理解和节奏。
产品。
▲ 苹果人机界面设计师 Johnnie Manzari。
图片来自:Getty Images 在接受科技媒体 TechCrunch 主编 Matthew Panzarino 采访时,苹果人机界面设计师 Johnnie Manzari 讲述了电影特效模式诞生的始末。
“电影效果模式”并不是从功能本身出发,而只是因为设计部门对电影制作的过程感到好奇,并以此为出发点,研究和学习电影摄影技术,以实现接近真实的焦距转换和一些光学特性。
同时John表示,“电影效果模式”的开发有点类似于iPhone X上出现的工作室光效人像拍照功能。
我们从经典肖像艺术家安迪·沃霍尔、巴洛克的肖像作品中汲取经验和分析艺术画家伦勃朗和中国工笔画,然后将它们运用到产品的算法中。
▲ 安迪·沃霍尔的作品(左下是他本人)。
“电影效果模式”是类似的过程。
苹果团队首先向世界级的摄像师进行讨论和学习,并观看了大量的电影。
一路走来,我们发现了电影制作中的一些永恒趋势。
焦点之间的变化是电影行业的通用语言,我们需要准确理解它们的使用方式和时间。
▲“电影效果模式”中的焦点转换。
因此约翰和他的团队成员与摄影指导和摄影第一助理密切合作,以了解这一切背后的机制。
利用浅景深可以引导观众的注意力,有助于描述故事。
然而,“Zoom”是为专业人士准备的。
普通人很难掌握准确度。
可以说,手上的细微差别,就能带来感知上的巨大差异。
在了解到对焦操作者需要多年的广泛实践才能掌握电影摄影机和拍摄对象的实时位置以确保焦点保持不变后,John、设计团队和苹果都认为这种“电影效果模式” ”即将投放市场。
“这将是一个非常有竞争力的功能。
▲简单的跟焦设备 为此,苹果通过研究将“电影效果模式”分解为两部分,一是“寻找焦点”,二是如何顺利转移。
焦点最终确定为“凝视检测”,这实际上更接近于人脸检测,让观众专注于主角的动作,从而引导观众快速理解故事。
平滑转移是约翰很久之后才添加的功能。
长期观察调焦操作员操作的调焦轮,熟练的调焦操作员会控制调焦轮使焦点移动自然稳定,并且还会根据镜头的焦距和物距来调整焦距。
苹果在“电影效果模式”上花了很多时间试图模拟跟焦器的手动工作,因此,当我们在“电影效果模式”下拍摄时,在不同对焦点之间切换时,是不行的。
机械的快速推拉,只是机械的推拉。
有一个比较明显的跟焦过程。
当然,“电影效果模式”才刚刚发布。
就像“人像模式”一样,它还有很多可以优化的地方。
就好像你看到郎朗弹钢琴那么轻松自如,却知道用算法是不可能达到(只能不断逼近)他大师级的水平的。
由于实现“电影特效模式”的功臣A15是通过算法被“猜测”出来的,理论上“电影特效模式”可以通过OTA转移到其他iPhone(例如iPhone 12)上,但实时预览可能会被牺牲。
。
但按照苹果的思路,很难通过牺牲一些体验来下放新功能。
▲ A15 改进要点,请注意 CPU 和 GPU 的改进是与竞争对手相比。
因此,“电影效果模式”将是iPhone 13全系列暂时独有的功能,也将成为A系列芯片算力的门槛,也可能造就新一代iPhone“钉子户”。
iPhone营销副总裁Kaiann Drance在接受采访时表示,在视频中模拟景深比在人像照片中模拟景深更具“挑战性”。
▲ iPhone 营销副总裁 Kainn Drance。
视频需要随着主体的移动而移动,需要实时防抖(数字加光学),并准确识别不同的场景、王牌、动物、物体,所以对于神经引擎和机器学习来说,需要更高质量的深度数据并实时渲染。
哦,还有实时对焦,以及对杜比视界 HDR 编码的支持。
而这一切的背后都来自A15,可以说年纪轻轻就承担起了整个家庭的重任。
与A15的CPU相比,在实际测量中,GPU性能有了明显的提升。
它可能采用了新的架构并增加了一个核心。
此外,A15的神经网络引擎算力提升至15.8TOPS。
这些硬件改进可能与整个iPhone 13系列视频能力的提升有关。
“电影效果模式”包含一些与静态照片不同的机器学习问题。
相信在开发A15的时候,John的人机交互设计团队就已经和芯片开发进行了深入的讨论。
在 TechCrunch 的测试视频中,他们还发现 iPhone 13 系列的“电影效果模式”在识别人的过程中使用了冗余传感器来预测拍摄对象。
画面中马修女儿的后脑勺一出现,他手中的iPhone 13立即切换焦距,就像舞台剧中一样,有一个导演掌控全局。
主角还没有出现在舞台上,灯光已经提前准备好了。
,引发观众期待她的亮相。
对于“电影模式”的这个细节,苹果人机交互设计师约翰表示:当我们观察电影制作时,我们发现焦点算子并不是等待主角出现才移动焦点,而是有一个预测过程。
我们还使用冗余传感器来利用机器学习来预测屏幕外的人的动作。
当它们出现在屏幕上时,焦点就已经在它们身上了。
史蒂夫·乔布斯曾经喜欢说,苹果正处于技术与艺术的交汇点。
在iPhone 13系列发布之前,“人像模式”更像是一个技术术语,给人的感觉很冷淡。
至于“电影效果模式”和TVC的呈现方式,经过亲身测试,不再冰冷,而是有了一定的温度。
深入了解“电影效果模式”背后的故事后,还带来了几分“拍摄的艺术”。
“电影效果模式”对于普通人来说可能没有那么深刻的意义。
它更像是瑞士军刀中的红酒螺丝刀。
它可能不是最完美、最省力的,但它是一个在紧急情况下可以发挥出色作用的工具。
电影向我们展示了人类的情感和故事,如果你用正确的表达语言,它就会被传达出来。
现在,我们已经努力了很长时间,让你的生活故事能够在你的手机上记录和表演。
我迫不及待地想看看人们用“电影效果模式”写出的故事。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-17
06-17
06-17
06-18
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态