今天試了一下讓我很驚訝,LiDAR對拍照的影響也許遠比一般人認知的大。
底下兩張圖,第一張是拍照前的預覽,可以看到吸管那裡因為跟背景顏色相近,所以算法根本算不出來直接當作背景虛化掉了。這是前幾年人像模式最讓人詬病的地方,因為算法沒辦法非常正確的把背景跟前景分開。這也是大部分廠商目前遇到的問題。
然而,LiDAR的加入改變了這個。第二張是拍出來的照片,可以明顯看到吸管跟背景分開了,甚至鍵盤上的字母也有前後景的感覺了(大光圈虛化的效果)
誰說LiDAR無用的?誰說Apple在拍照上面不思進取的?只是他進步的不是一般人隨眼可以看到的。一般人最輕易看到的是多少像素,多大的底,多遠的長焦。但是實際上拍照片只有這些嗎?我覺得只是Apple在意的跟其他廠商不一樣罷了?其實Apple想要堆硬體會很難嗎?鏡頭/像素/CMOS Apple 想堆的話以他們的實力跟財力,會堆不起來嗎?我想這是個好問題。
對了,有誰知道哪個app 可以3D 建模的啊?分享一下吧?先謝啦!

