
Apple手機最近在拍照上有驚人的進步,對於一個常年使用單眼相機的攝影愛好者而言,確實具有不可抗拒的魅力。它的特異功能很多,背後的原理大致是借鑑了許多攝影師常用的技巧。
以單眼相機不架設三腳架拍攝夜景為例,大致有如下SOP的工作要領:
1. 採用光圈先決模式,光圈開到最大,增加相機攝入的光量。
2. 在避免產生晃動模糊的前提下,盡量延長快門的曝光時間,增加相機攝入的光量。
3. 在避免產生雜訊噪點的前提下,盡量調高ISO值,讓畫面顆粒解析度變粗。
4. 打開鏡頭及感光元件穩定器防抖功能,避免晃動模糊。
如果是室內,可嘗試開啟閃光燈補光,如果是戶外,以人造光源想要模仿太陽,把廣闊的夜景照亮,就像劇組拍片的規模,需要很多大功率的燈,一般閃光燈只能把近距離的局部打亮。
單眼相機向來並無夜景專屬自動模式,因為它是一套需要人工調節不斷試錯的組合,機器是無法判別何謂晃動模糊和雜訊噪點,為了確保所有設定都被忠實履行,大多改採全手動模式。
當這套原本十分繁複的設定和操作,被Apple一系列自動化流程取代之後,就創造了見證奇蹟的時刻,僅限於iPhone 11和12的夜景模式(Night Mode)。經過iCloud多年收集用戶手機內的拍攝畫面及參數,然後餵大量資料給機器學習,如今夜景模式下軟體將逐個像素去判讀,猜測屬於雜訊噪點的部分逕行抹去。同時它也會連拍多張照片進行比較,當發現晃動模糊時自行捨去。
以上照片是在天色全黑的情況下拍攝,無後製調光調色手機直接輸出,天空的部分居然看得見雲朵,人臉的膚色曝光正常,這是完全不可能發生的事情。
天空是最暗的部分,如果連雲朵的細節都看得到,那麼人臉必定曝光過度,要兩全齊美的辦法必須單獨拍兩張照片,把各自完美的部分合成為一張,這種手法稱為高動態範圍成像(High Dynamic Range)簡稱HDR。
其實兩張合成是為方便解釋最保守的說法,實務上應該是多張合成,把畫面拆解成無數組成部分,各自獨立精確控制各項參數,然後產生最完美的拼貼組合,蘋果將此技術命名為深度融合(Deep Fusion),應是源自深度學習(Deep Learning)的疊圖技術。
iPhone的SoC被Apple稱為仿生晶片,Siri模仿的是聽覺,HDR模仿的是視覺,用演算法判斷畫面中的形體輪廓,產生相應的遮罩範圍,從HDR、Deep Fusion、Night Mode不斷進化,把原本必須人工處理的苦差事接手去做,用戶不必了解背後的光學原理,更別提什麼人工智慧,所有的高速運算在按下拍照鍵當下即刻完成,或是頂多一兩秒鐘的延遲,就可以拍出比現場人眼目視更亮麗的畫面,蘋果不愧是最懂得如何應用科技成果的家電廠商。