多语言展示
当前在线:339今日阅读:91今日分享:37

iphone拍照那么牛掰评测

从iPhone 4s开始,苹果就一直将摄像头像素停留在800万像素,直至最近iPhone 6s/6s Plus的登场才打破了这“万年不变”规则。对于果粉来说,大家似乎已经习惯了逆来顺受,习惯了苹果在硬件上的“不作为”。
工具/原料

iPhone 6s

方法/步骤
1

iPhone 6s/6s Plus主摄像头提升到1200万像素1200万像素,像素数量一下子提升了一半之多,大伙为这样的提升“欢呼喝彩”,同时Live Photos让照片的展现变得鲜活起来,而3D Touch的到来无疑也给拍照带来了更大的便利性,这些数字上、个性化功能的变动与创新一跃成为新iPhone发布后的最大关注点。但如果你关注到新iPhone 1200万像素摄像头提升的背后是CMOS传感器单个像素尺寸变小而换来的,相信大伙就不会如此兴奋了吧。

2

可能大家都没注意到iPhone 6s/6s Plus的CMOS单个像素尺寸变小了在苹果官网iPhone 6s/6s Plus技术规格列表中获悉,新iPhone的单个像素尺寸为1.22微米,而它的前作iPhone 6这一参数为1.5微米!而据悉,iPhone 6s和iPhone 6一样,CMOS传感器尺寸维持在1/3,光圈为f/2.2,在CMOS尺寸不变的前提下像素数量大幅提升意味着单个像素尺寸变小(也就是变小到1.22微米)。CMOS传感器尺寸不变,单个像素尺寸变小,意味着什么呢?首先,我们稍微了解一下数码相机是如何成像并获得相片的。简单来说,当我们按下相机快门,物体反射过来的光通过镜头,进入到镜头模组后,照射到相机的感光芯片上,感光芯片把进来的光转换成电子信号,再经由CPU复杂计算处理后得到一张数码相片。

3

拆解后的iPhone 6s后置摄像头(图片来自ifxit)感光芯片(CMOS传感器尺寸)尺寸越大,当光瞬间照到芯片上时,它所接收到的光就越多,相应的可供CPU转换的光信号就越强,最后计算处理后的照片效果就越好。单个像素尺寸,我们将CMOS传感器上的每个像素简单地比作为一个个格子(它其实就是像格子那样存在的)。 当一个小格子就是一个像素,而CMOS传感器本身尺寸不变,原来可以平均划分800万个格子(像素),现在要平均划分成1200万个格子(像素),每个格子的尺寸必然是变小了。单个像素尺寸变小了,单位时间(每次快门)内每个像素能接收到的光也相应少了,光信号的减少进而影响到CPU计算转换成数码相片的效果也差了。总的来讲,CMOS传感器尺寸不变,单个像素尺寸变小,意味着动态范围损失和低照度拍摄性能受限。以下为一份来自富士康官方实验室关于iPhone 6s和iPhone 6后置摄像头的测试报告,或许通过这份报告大家可以更清晰的了解两者之间的摄像头差别。

4

来自富士康官方实验室的测试报告白平衡项目,iPhone 6s要优胜于iPhone 6,意味着它可以更准确地呈现出真正的“白色”;色彩精准度上,这是iPhone 6在红色、绿色、蓝色色差上表现得更自然真实;色彩饱和度上,iPhone历来保持最接近真实、自然的色彩表现,没有让拍摄照片的颜色过度饱和,与其他智能手机厂商(特别是Android阵营)形成了鲜明对比,在这方面显然iPhone 6表现更真,而iPhone 6s;灰阶上,iPhone 6在明暗对比和黑白颜色过渡方面的表现要更优,图像更清晰、自然。解析力方面,iPhone 6s表现出色,在水平和垂直两个方向都胜出一筹。编者注:画面清晰度是以水平清晰度作为单位。通俗地说,我们可以把电视上的画面以水平方向分割成很多很多扫描线,分得越细,这些画面就越清楚,而水平线数的扫描线数量也就越多。清晰度的单位是“电视行(TVLine)”也称线。从报告综合评价处看出,iPhone 6s解析度表现更好,单个像素尺寸变小虽对低照度拍摄有影响,但画面的降噪还是表现良好的,而iPhone 6突出色彩的真实,它的色彩还原基本没有偏差。

5

iPhone 6s官方拍摄样张最后,数码相机成像是一个非常复杂的过程,有很多因素都会影响到最终相片的质量,镜头的质素、CMOS传感器的工艺、CPU的处理能力、相机的拍照算法等等都决定了你是否能拍出一张好照片(我们就不说:“照片的好坏不取决于镜头,而取决于镜头后的头。”)。

推荐信息