A13 独享,iPhone 拍照处理系统 Deep Fusion 是什么?
- 09 月 16 日
- 爱思助手
- 9716
相比于 iPhone 11 以及之前的旧款设备来说,iPhone 11 Pro 和 iPhone 11 Pro Max 的拍照能力已经达到了“专业级”。
除了参数漂亮的三摄镜头以外,夜间模式和改进的肖像模式成了今年发布会上的两大亮点,苹果公司还将在后期启用一项新功能——Deep Fusion,似乎准备挑战谷歌基于人工智能的摄影技术。
这个名为 Deep Fusion(深度融合)的新功能利用了 Apple 在机器学习方面的成果,让用户可以拍出更好的照片。就像谷歌 Pixel 系列的相机一样,该功能使用机器学习来更好地分析图像并产生更好看的画面,国内其他厂商之前也推出过类似的功能,例如 AI 拍照以及所谓的拍月亮。
Deep Fusion(深度融合)的工作原理:
在按下 iPhone 快门按钮之前,系统就开始拍摄四张长曝光和短曝光照片,然后在按下按钮后拍摄更长时间的曝光照片。最后,iPhone 将所有九个图像组合在一起以产生具有最少噪点和最清晰细节的最佳图像。
总的来说就是利用机器学习 “对照片进行逐个像素处理,优化照片的每个部分的纹理、细节和噪点。”该功能将随着 iOS 13 后期版本发布,iPhone 11 Pro 和 iPhone Pro Max 机型可用。
从硬件方面来说,Deep Fusion 不仅仅得益于 iPhone 镜头的升级,主要还是依靠了 A13 仿生的神经网络引擎支持,这也是为什么老款设备不支持 Deep Fusion 的原因。