苹果研发电影模式时,曾经在片场观察摄影师如何工作

9 月 25 日上午消息,今年四款 iPhone 13 都支持“电影效果模式”,让用户可以录制具有浅景深和自动对焦变化的视频,外媒 TechCrunch 与苹果公司营销主管 Kaiann Drance 和设计师 Johnnie Manzari 进行了交谈,了解该功能的技术原理和幕后故事。

苹果研发电影模式时,曾经在片场观察摄影师如何工作

▲ 电影效果模式可以自动判断对焦点

Drance 表示,对于照片而言,电影模式比人像模式更具挑战性,因为实时渲染自动对焦变化是一项繁重的计算工作。该功能由 A15 仿生芯片和人工智能神经引擎驱动

“为视频带来高质量的景深将比人像模式更具挑战性。与照片不同,视频(的景深)会随着拍摄者的移动而动态变化。这意味着我们需要更高质量的深度数据,以便电影模式可以跨类别、在人物、宠物和物体等之间都生效,需要连续使用深度数据来跟上每一帧。而实时渲染这些自动对焦变化,背后是繁重的计算。”

但电影模式并非只是技术的进步,还有对真实物理世界的观察。

Manzari 补充说,苹果公司的设计团队花时间研究电影制作和摄影技术的历史,以实现逼真的焦点过渡。

“在设计过过程中,我们首先对目前已有的图像和电影制作怀有深深的敬畏与尊重。我们着迷于诸如哪些图像和电影制作原则是永恒的?什么工艺在文化上经受住了考验,这背后的原因是什么?”

Manzari 表示,苹果公司在片场观察摄影指导、摄影师和其他电影制作专业人士,以了解浅景深在故事中的目的,这让苹果意识到引导观众注意力的重要性。

在评测 iPhone 13 时候,新浪数码也提到了这个功能,它是苹果公司用硬件计算能力做基础,在这之上发挥其计算能力,将人文内容引入的过程。这个效果的背后,是 A15 仿生芯片的强大计算能力作后盾,它强到足以一边拍杜比视界 HDR 视频,一边用 AI 能力去实时理解该对焦给谁,并把焦外做虚化处理。还能把景深信息保留下来进行二次处理。

对一般用户来说“电影效果模式”的意义已经很明显了,无论是 vlog,还是小团队视频制作组,都获得了一种成本更低、更轻便易用的方式,去实现过去只有光学镜头才带来的效果。

原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/170060.html

(0)
上一篇 2021年9月24日
下一篇 2021年9月24日

相关推荐

发表回复

登录后才能评论