爱思助手

关于iPhone 6s的成像问题 你知道多少

    自从苹果正式发布了新款 iPhone 之后,有不少人在讨论关于 iPhone 6s 成像效果好坏的话题,日前,网友“死神游戏”针对这一话题发表了自己的看法,一起来看看吧。


关于iPhone 6s的成像问题 你知道多少


  该网友表示,在争论像素点大小对成像质量的影响之前,我们需要分清楚“屏幕分辨率像素”和“感光芯片像素”这两个概念。有不少网友认为,屏幕上的像素点越多、越密集,则显示屏效果越好,但其实它跟数码相机感光芯片像素完全不是一个概念。

  下面,我们来说一说数码相机成像原理跟感光芯片像素间的关系:

  首先,我们要了解数码相机是如何成像的。当物体反射过来的光通过镜头,经过快门开关控制,照射到相机的感光芯片,通过感光芯片把进来的光转换成电子信号,再由 CPU 处理后得到一张数码相片。因此,感光芯片面积越大,当光线瞬间照到感光芯片上时,感光芯片所能够接收到的光越多,可供 CPU 转换的信号就越强,相应的照片效果就越好。

  也就是说,对于摄影来说,光是非常非常重要的一个因素。当镜头把光引进来的时候,感光芯片面积越大,那么它在单位时间内能够接收到的光照也就越多,光越多转换的信号越好。所谓单位时间,也就是快门数度,比如 1/100 秒,也就是百分一秒时间内通过镜头照到感光芯片上的光。

  至于感光芯片的像素,简单的说也就是感光芯片上的小格子,这跟屏幕倒是很像。一个小格子就是一个像素点, 当感光芯片本身面积不变,假设它上面的像素由 800 万提升到 1200 万,则每一个小格子的面积变小,这意味着单位时间内每个像素能接收到得光也少了,所以每个像素收到的信号减少,信号减弱,CPU 可以转换的效果也会变差,因此,虽然像素提升了,但是画质反而降低了。

  最好的升级像素的方法其实要增加感光芯片的体积,当感光芯片面积越大,上面的像素点多了,每个像素点也不会变小,这样才能保证高像素和高画质。因此,用屏幕分辨率的原理来描述感光芯片像素其实完全是错的。

  网友“死神游戏”表示,数码相机成像其实是个非常复杂的过程,镜头的好坏、感光芯片的工艺技术和材质、CPU 的处理能力以及软件的算法等方面都会影响到最终照片的质量,单单一个感光芯片或是像素大小多少并不是照片好坏的必然原因。

  最后,随着 9 月 25 日的临近,赶上苹果首批预购发货的网友应该会对 iPhone 6s 和 iPhone 6 之间的拍照成像效果进行一番对比,小编届时也会在第一时间给各位带来报道。