爱思助手

苹果研发 iPhone 13 系列的电影模式时,曾经在片场观察摄影师如何工作

四款全新的 iPhone 13 都支持“电影效果”模式,让用户可以录制具有浅景深和自动对焦变化的视频,外媒 TechCrunch 与苹果公司营销主管 Kaiann Drance 和设计师 Johnnie Manzari 进行了交谈,了解该功能的技术原理和幕后故事。


苹果研发 iPhone 13 系列的电影模式时,曾经在片场观察摄影师如何工作


Drance 表示,对于照片而言,电影模式比人像模式更具挑战性,因为实时渲染自动对焦变化是一项繁重的计算工作。该功能由 A15 仿生芯片和人工智能神经引擎驱动。


“为视频带来高质量的景深将比人像模式更具挑战性。与照片不同,视频(的景深)会随着拍摄者的移动而动态变化。这意味着我们需要更高质量的深度数据,以便电影模式可以跨类别、在人物、宠物和物体等之间都生效,需要连续使用深度数据来跟上每一帧。而实时渲染这些自动对焦变化,背后是繁重的计算。”


但电影模式并非只是技术的进步,还有对真实物理世界的观察。


Manzari 补充说,苹果公司的设计团队花时间研究电影制作和摄影技术的历史,以实现逼真的焦点过渡。


“在设计过过程中,我们首先对目前已有的图像和电影制作怀有深深的敬畏与尊重。我们着迷于诸如哪些图像和电影制作原则是永恒的?什么工艺在文化上经受住了考验,这背后的原因是什么?”


Manzari 表示,苹果公司在片场观察摄影指导、摄影师和其他电影制作专业人士,以了解浅景深在故事中的目的,这让苹果意识到引导观众注意力的重要性。


在评测 iPhone 13 时候,新浪数码也提到了这个功能,它是苹果公司用硬件计算能力做基础,在这之上发挥其计算能力,将人文内容引入的过程。这个效果的背后,是 A15 仿生芯片的强大计算能力作后盾,它强到足以一边拍杜比视界 HDR 视频,一边用 AI 能力去实时理解该对焦给谁,并把焦外做虚化处理。还能把景深信息保留下来进行二次处理。


对一般用户来说“电影效果模式”的意义已经很明显了,无论是 vlog,还是小团队视频制作组,都获得了一种成本更低、更轻便易用的方式,去实现过去只有光学镜头才带来的效果。


特别声明:本文版权归文章作者所有,仅代表作者观点,不代表爱思助手观点和立场。本文为第三方用户上传,仅用于学习和交流,不用于商业用途,如文中的内容、图片、音频、视频等存在第三方的知识产权,请及时联系我们删除。