首先本文前提是传闻中的iphone14pro、iphone14pro max的主摄使用标准拜耳排列的4800万传感器,如果传闻不属实那权当是YY了。
文章最后有省流总结,有需要的可以直接跳到最后看结论。
1、苹果万年标准拜耳1200万传感器,这次迈个大步子用标准拜耳4800万传感器,最主要原因应该是为了步入8K时代。
而安卓这边虽然很早就出现了支持8K录像的手机,但安卓这边的高像素传感器都是多合一像素排列,他们在输出8K视频时需要用到多合一底的全像素模式,而多合一底在像素重排进行猜色时,会折损色度分辨率,也就是说,其解析力会明显不如同像素标准拜耳传感器。
(想深入了解可搜一下拜耳传感器的猜色方式,及多合一底像素重排如何猜色,具体的在这里不长篇大论了。)
也就是说,说不好听点,如今安卓这边的8K视频,都可以说是“残血8K”“假8K”,拥有8K的分辨率和对应容量,但没有8K应有的解析力水平。
当然也有例外,如三星使用GW2副摄的手机们。GW2也是一个标准拜耳排列的传感器,当然,它作为一个6400万像素底超过8K视频所需像素不少,拍8K会损失更多的画幅,且GW2单像素只有0.8微米,传感器速度也不是很快,8K只能24帧,总体来说其8K虽然能称得上是真8K,但实际表现也很平庸。
而苹果这个4800万底,无疑单像素尺寸会更大,且4800万拍8K几乎就是全采样利用到了传感器几乎全部画幅(8000×6000中的7680×4320,主要损失就是画幅比例不同裁掉的上下部分)。
单像素更大,画幅利用率更高,真8K的解析力,其表现还是值得期待的。
2、那么这个4800万底的速度会如何呢,既然苹果要上8K,那起码也得来个30帧吧,如果只支持24帧25帧不支持30帧有点说不过去。而能不能达到60帧呢,先打个问号。
那么在8K30帧基础上进一步推断,能做到8K30帧理论上就可以做到裁切或跳采样的4K120帧。
安卓这边支持4K120帧录像的手机也不少了,索尼X1m2开始的所有旗舰,一加采用imx789的旗舰,努比亚采用imx787的旗舰。
苹果作为手机界录像效果的标杆,迟迟不支持4K120帧录像也稍显落后,按理说这次应该借着8K一并带来4K120帧。
【另外顺便一提一些低分辨率超高帧数视频,如1080p960帧 720p1920帧 720p480帧这种,这些或清晰度不足或有严格的时间限制,只能说可玩性有,但要作为创作使用很吃力,所以苹果和很多手机厂家不重视、不跟进这种低分辨率超高帧数视频很正常。比如索尼,以前有现在反而没有去发展4K120帧了。而4K120帧确实能给手机录像带来一个大的上限提升】
3、更常用的4K30帧 4K60帧会如何?
标准拜耳4800万底与多合一高像素底不同,如今这些多合一高像素底,他们的正常工作状态其实是片上多合一状态,多合一后基本还是1200万像素级别,多合一状态下录4K视频几乎就是全采样。
而标准拜耳4800万底录4K视频则有三个选择:跳采样,裁切,超采样。
而跳采样和裁切都会大幅损失采样面积,其效果会明显不如多合一底的4K,也会不如以前苹果的1200万底几乎全采样4K。
那么要不退步则只能选择超采样4K这一条路。
而超采样和全采样,两者拥有近似的信噪比,但超采样由于是8K采样压缩到4K,其解析力会比全采样4K更高,但由于是由8K采样而来,数据量高得多,对于传感器速度和处理器算力都有更高的要求。
按照第二点8K30帧的预期,我相信苹果这次的4K30帧是超采样,但60帧怎么办?所以我在第二点是否支持8K60帧时打了个问号,如果连8K60帧都支持那4K60帧也超采样就完事了,如果不支持8K60帧,可能会退步的跳采样或裁切4K60帧对苹果来说是个问题了。
另外还需注意的是,视频的HDR合成也需要超过输出帧率的采样帧率来说,所以苹果如果像让各分辨率帧数都有不错的效果,说不定这个底真能达到8K60帧的速度。
4、拍照
第一点已经说过标准拜耳和多合一底在解析力上的区别。
所以苹果这次标准拜耳4800万在拍照解析力上也会是个大杀器。
安卓这边不同4800万 5000万多合一底手机,他们在全像素输出4800万 5000万时往往解析力的提升不尽如人意,而容量的飙升是实打实的,甚至有些全像素输出和1200万输出解析力差不多(如绝大多数766机型)
而标准拜耳4800万则不会有这种问题。相信了解过三星GW2副摄机型的人都能感受到GW2标准拜耳6400万那可怕的解析力。当然,由于GW2单帧输出就有6400万超高的数据量,这对于多帧合成是很不友好的,其HDR合成和多帧降噪的表现也不理想,不过毕竟这是两三年前的底和安卓端的算力,还是副摄的定位。
这次苹果用标准拜耳4800万拍照,也会涉及到单帧有4800万像素的高数据量,不利于多帧合成的问题,但相信以A16的算力,能做到哪怕单帧4800万高数据量也能获得不错的多帧合成数量,来达到一个不弱于以前苹果的HDR观感和暗光能力(当然,不排除初期算法调的不好翻车的可能性。)
其实归根结底,单帧数据量高对多帧合成不利,处理器算力不足是多合一底大行其道的根本原因。如果攻克不了这点,那么苹果就根本不存在主摄用标准拜耳4800万的理由。
但是,我有一个预感,苹果在拍照时未必会输出4800万,甚至都不会有手动开启4800万的选项,他会强制输出1200万像素照片,也就是说拍它是用4800万去拍,然后机内超采样缩图到1200万输出。苹果的调性很有可能这么做让多摄输出更为统一。
而超采样的1200万,解析力会比常态多合一的1200万高多少,则需要拭目以待,这个不太好说变量很大,毕竟不像视频,拍照合成帧太多,合成算法也更复杂,各家这方面的变量对解析力影响很大。
至于像摩托那种,光线好输出高像素,光线差输出1200万,感觉并不符合苹果的调性,可能性较低。
至于副摄嘛...... 3摄都是标准拜耳4800万底这步子迈的也太大了感觉不现实,而且高速的标准拜耳4800万小底,这个时代都未必存在。
————————————————————
总结:
基于iphone14pro、iphone14pro max传闻会使用标准拜耳4800万传感器做如下预判和猜测
1、支持8K30帧 是否支持8K60帧打个问号
2、支持跳采样或裁切的4K120帧
3、超采样4K30帧 甚至超采样4K60帧
4、拍照有可能机内缩图以1200万形式输出
以上...... 答案就看今晚深夜揭晓了。