目前单反上的CMOS传感器,除了小众的X3系统,都是拜尔结构,这就意味着每一个像素点都是周边几个像素点的BGR值合并计算得出,虽然像素点很密集很小,但是相邻2个像素点总会亮度值的差异,这点是拜尔结构的天生的缺陷。
然后来分析彩色噪点,所谓彩色噪点,在高光情况下并不明显,在低光照情况下会很明显,而且主要是红绿噪点,这是为啥呢?又回到了上面拜尔滤镜的问题上,高光照的时候如果一个像素点合并读出的BGR值是(50,50,1),由于结构缺陷,出现了1的误差,当ISO提高时,放大电路会将数值放大,我们过滤掉细节问题,假设放大倍率X4,数值变成(200,200,4),很显然,误差值并不足以改变色彩的显示,而当低光照情况下,特别是黑色背景,原本为(0,0,0),传感器有可能读出(0,0,1)的数据,然后放大X4以后(0,0,4),这样看来,色彩就出现了差异,而,R=4,正好是出现了红色噪点,至于为什么不会出现蓝色噪点,一来是深蓝色和黑色比较接近,二来人眼对蓝光并不敏感,所以彩燥意红绿为主
然后来分析彩色噪点,所谓彩色噪点,在高光情况下并不明显,在低光照情况下会很明显,而且主要是红绿噪点,这是为啥呢?又回到了上面拜尔滤镜的问题上,高光照的时候如果一个像素点合并读出的BGR值是(50,50,1),由于结构缺陷,出现了1的误差,当ISO提高时,放大电路会将数值放大,我们过滤掉细节问题,假设放大倍率X4,数值变成(200,200,4),很显然,误差值并不足以改变色彩的显示,而当低光照情况下,特别是黑色背景,原本为(0,0,0),传感器有可能读出(0,0,1)的数据,然后放大X4以后(0,0,4),这样看来,色彩就出现了差异,而,R=4,正好是出现了红色噪点,至于为什么不会出现蓝色噪点,一来是深蓝色和黑色比较接近,二来人眼对蓝光并不敏感,所以彩燥意红绿为主