你怎么看任正非說P30的照相就是數學?
首先我懷疑這句話是不是任正非本人說的,按理來說這是一個大家都懂的常識,攝影數碼化后,肯定是要經過處理器復雜的數學運算才能輸出圖像的,如果說相對于傳統的相機制造技術,華為的p30系列有哪些區別于它們的地方,尤其是在哪一塊運用到了更多的數學算法,那我覺得是以下三點:
1.光學變焦
手機的鏡頭因為受到體積的控制,無法放得下結構復雜的變焦鏡頭,因此手機是不能進行真正的光學變焦的,只能實現數碼變焦,而數碼變焦是一種非常折衷的變焦方式,其原理是用傳感器上的部分像素來進行“插值”運算,把像素放大從而實現變焦效果,這樣帶來一個嚴重后果就是成像質量大幅度下降,現在的多鏡頭手機都宣稱可達到光學變焦效果,其原理就是利用一枚超高像素的主鏡頭和一枚不同焦段的副鏡頭來進行組合,當變焦位于這兩個焦段中間處的時候,就使用主鏡頭與副鏡頭的部分像素來進行結合,可大幅度降低這種數碼變焦帶來的畫質損失,幾乎能達到光學變焦的效果。 華為的P30pro就是運用了這個原理,可實現16-160mm的無縫變焦效果,相當于是10倍的光學變焦。
華為p30ro總共用上了四枚鏡頭,先拋開當作距離傳感器的TOF鏡頭不說來簡單介紹三枚負責成像的鏡頭,它們分別為:
4000萬像素的主攝(27mm,f1.6)
2000萬像素的超廣角鏡頭(16mm,f2.2)
800萬像素的潛望式長焦鏡頭(125mm,f3.4)變焦時候這三枚鏡頭的合作方式是這樣的,超廣角畫面由超廣角鏡頭獨立完成,超廣到中焦部分的變焦效果由超廣角與主攝像頭共同完成,也就是超廣角負責邊緣部分的細節取樣,主攝負責捕捉中心部分的細節,然后到主攝像頭獨立工作,主攝像頭在中焦段可實現3倍的類似于光學變焦的效果,其原理是4000萬縮成1200萬像素的時候可放大3.3倍的效果,接著是主攝像頭和長焦鏡頭共同完成中長焦段的變焦效果,也就是主攝負責對邊緣部分取樣,長焦鏡頭捕捉中心細節,最后是長焦鏡頭獨立工作。這個涉及到一個非常復雜的算法才能達到接近光學變焦的效果,很明顯的,華為是可以完美通過這一關的,畢竟華為在2016年上市的mate9上就已經使用了這種技術,經過多年的沉淀,早已經運用自如。
2.大光圈
受體積和成本的限制,目前大部分手機都是運用恒定光圈的設計,也就是說它沒有像單反鏡頭一樣的機械光圈葉片結構的: 因此手機鏡頭并不能像單反一樣控制光圈的大小。那有人說了,為什么華為的手機都是可以調節光圈大小的呢?這實際上這并不是傳統意義上的光圈大小,華為手機拍攝界面標記的大光圈級別4和鏡頭的F4光圈完全就是兩碼事,這個大光圈級別4實際上只是一種虛化等級。 但是這種虛化效果和單反鏡頭的物理虛化是完全不同的,單反鏡頭的虛化效果和人眼視覺更加的相像,(主體的)焦點合對了的地方才清晰,其他地方都是隨著距離的變遠模糊程度越重,而且主體離鏡頭越近,離背景越遠,虛化效果就越強;主體離背景越近,離鏡頭越遠,虛化效果就越弱。這是一個物理學過程,這種虛化效果是不需要經過電子化處理的。但是手機卻不是這樣的,手機的虛化效果,和后期摳圖+模糊的原理是一樣的,如下圖的這種。
在華為的p30pro出來之前,手機的AI算法都是不能精確判斷主體離鏡頭和背景的遠近,就是說你拍一張照片出來,我只負責摳圖然后局部模糊就完事,這種結果就是導致下面的這種奇奇怪怪的效果出現,就像是后期把整個人從畫面中摳出來了一樣。華為p30pro加入了一個叫做TOF的傳感器,也就是在閃光燈下面的那個小鏡頭,這個鏡頭不負責成像,而是起到一個測量距離的作用,它可以精確判斷物體距離鏡頭的遠近,從而進行更精確的虛化,讓大光圈效果更接近物理性虛化,更具有層次感。
3.高感光性能
華為p30系列的高感性能在手機鏡頭這一塊可以說得上是遙遙領先的,把其他廠家甩在了背后。
玩攝影的朋友應該都知道,高像素的最大優點是可以輸出高分辨率的照片,但是在低光照的環境下卻會產生非常多的噪點,p30上的索尼IMX600傳感器,使用了一種叫做Quad Bayer四像素合一技術,可以實現2微米的單位感光面積。利用了這種像素合成技術,帶來的最大好處就是可以在白天實現4000萬像素的高分辨率拍攝,在暗光下又可以輸出1000萬的高質量圖像。
p30pro用上了更先進的IMX650傳感器,這顆同樣是和索尼共同研發的定制傳感器除了可以實現IMX600的所有功能外,還用上了一種新的像素排列,由之前經典的紅綠藍像素組合變成了紅黃藍的組合,就是從RGGB排列變成了RYYB,這種濾色器替換的顯示技術實際上以前就有給用過,例如LG公司研發的RGBW排列,用了白色像素來代替其中的一個綠色像素來增加進光量,但是像華為的這種整個像素給替換掉的大膽做法,目前還是業界唯一。 為什么會用黃色像素代替綠色像素呢?
人的眼睛中只含有紅綠藍三種視覺細胞,它們對紅綠藍三種光的敏感度不同,但只是敏感的程度不同而已,一個紅色感光細胞依然能夠識別到部分的綠和藍色光,而這些不同比例的光的混合就變成了其他的顏色,這也是我們為什么能看到色彩斑斕的世界的原因。 從上面這個三色圖中可以看得出來,黃色光是由綠色光和紅色光混合而成的,如果在傳感器中用黃色濾鏡代替綠色濾鏡,實際上就是共同捕捉到了紅綠兩種光線,所以這個過程間接提升了紅色光的進光量從而加強了傳感器的感光性能(增加40%左右的進光量),只要在后期算法中“插值”進去更多的綠色像素,還有糾正紅色像素的比例就可以得到一張正常色彩的照片。不過大家想一下就知道,一塊4000萬像素的感光元件,總共含有8000萬個這種黃色像素點,全部轉換成綠+紅像素那得是多么大的一個工作量,而且這種以像素點的替換來換取高感的做法,非常容易出現色偏和飽和度過低的情況,這樣就極其考驗手機ISP的算法了。
其實一張照片無論是照出來的還是算出來的,如果相機的這種技術改進能有效提升用戶體驗,那么它們就應該普及開來,希望華為作為這一塊的領頭羊,能夠開發出更先進的技術,讓我們這些普通攝影愛好者受益。