• 12

手機跟相機拍出來的差異

最主要是感光元件的差異但是其實差異你看不出來的
yuxian

哈,要每張100%格放比較

2023-05-28 11:56
數位單眼的高iso畫質10年來無明顯進步,但這10年來手機的拍照品質卻明顯提升,大約一萬元的手機也能拍出畫質堪用的夜拍,以此看來,以後相機的發展可能也會跟手機一樣加強ai技術的運用。
我最近找到一些提供試用降噪與改善照片模糊的網站,上傳一些照片試看看,降噪效果不但明顯還能保留細節,模糊的照片只要不是太離譜,居然也能變清晰,這都是ai技術的演算結果,我很好奇ai技術如何改善模糊的照片,直到我發現一張對焦稍有不準的照片改善結果,人像本來不整齊的牙齒,竟變成清晰又整齊的牙齒,這實在有趣。
yuxian

如果是如谷歌跟蘋果這種國際大廠訓練的AI是不敢做這種無中生有的事情,因為會被抨擊到爛掉。他們的AI都是需要算出實際上本來就有的細節。所以就不用太擔心會拍出虛擬物件了

2023-05-28 11:57
featheringer

幫你補圖,簡單說就是無中生有,現在超夯的AI繪圖就是這樣…不過對於拍照這件事來說,大概也就拍月亮敢這樣玩,因為月亮不管怎麼看哪時看在哪看,它都是長那樣…其他層面我認為暫時還不敢這樣搞,真的會被罵爆

2023-05-28 12:07
yuxian wrote:
竟然在如此懸殊的硬體差距下,
還要檢討對手的光圈快門比較吃香?


其實重點是
1.焦段24mm 完全可以用1/30的安全快門拍攝,
這時候ISO會降低很多,就不會是誇張的12800又嚴重欠曝,
而且它這顆鏡頭還有IS 5級防手震,Model看起來也是靜態擺拍,
誇張一點說不定還可以用更低快門
所以才有人反酸那要不要快門調成1/250,這樣差距會更明顯?

2.他是用RAW檔來比較,
眾所周知RAW對降噪幾乎就是沒有機身介入,
為的就是保留最多細節,其餘讓攝影自己後製調整,
要比較也是拿機身處理過的JPEG,怎麼會用RAW看噪點?

做好這兩點再來比較差異不是更好?

手機對於感光元件製程跟微縮鏡頭的進階需求越來越高,丟著錢讓相機廠去研發硬體讓手機用。
相機廠這才能不斷推出新製程感光元件跟相機模組。讓光學鏡片有更微縮的設計。


手機用的光學技術基本都是從相機端衍伸過來,
包含現在開始流行的潛望式變焦鏡頭,
這是相機廠早在約20年前就有的技術,
手機廠在不斷擴大感光元件尺寸的同時,開始陸續面臨到傳統光學物理的挑戰,
例如邊緣畫質的問題,感光元件尺寸越大,
感光元件受光的範圍要求也需要提昇,
以前小尺寸,所以很輕易的就能作到全感光元件都受光,
但現在尺寸一變大,邊角的受光就開始受影響了,
這點早就是相機廠商遇到的問題,所以為何鏡頭的體積壓不下來?
因為物理光學這點現階段幾乎沒有任何突破。

所以現在只有兩個方向,
1.提昇感光元件的受光能力,
例如被背照式CMOS或者Sony曾經提出的曲面感光元件概念,
解決邊角受光不足的問題。

2.透過後製技術改善,
例如現在很多鏡頭都有用的數位修正,
透過數位後製的方式修正光學上的缺陷,例如暗角/變形,
所以才會發現現在有一些體積比較小的鏡頭但其實它變形量都很大,當然這點有好有壞。

又或者是現在手機使用的疊圖演算技術,
透過疊圖來提昇畫質跟增加照片的動態範圍,
但嚴格來說這技術只是把以前在PS上要自己手動的處理,變成一切交給手機自動處理。

手機能作到是因為手機的處理器還有記憶體比相機更加強大,
接著手機的照片DPI遠低於相機,
本來要處理的資料量就比較低,自然速度比較快,
但如果是用在專業相機上,根本應付不了如此龐大的資料量,
更別說專業相機還需要大量連拍跟對焦,因為後製這一塊本來就能透過電腦來完成,
所以相機廠是把心力放在提昇追焦能力或者錄影上,這些都會消耗掉機身大量的算力,
15年前人臉追焦到現在的眼部追焦甚至更新的AI追焦,這技術的提昇有目共睹。

但手機因為景深很深,對於追焦的準度本來要求就很低,
所以才可以把算力都放在後製處理上。

至於感光元件這塊,
本來有能力設計感光元件的廠商就不多,
手機廠商會投入多少資源給相機廠真的到很少聽到,
有能力自行開發的大概只有Sony跟三星了,
現階段好像都是相機廠設計出來後才給手機廠使用,
因為技術這塊都在相機廠這邊,而這也不是砸錢就一定能出現突破的技術,
Sony早期相機跟手機部門甚至完全是分開的,
這幾年才開始整合彼此技術

現階段手機拍照會突飛猛進,
真的全拜Google Pixel開啟HDR+演算法開始,
現在各廠不過是根據這技術再加以改良進化,
新出現的東西本來就會覺得進步很快,
但相機這塊坦白說幾乎都是出現已久的東西,
光學物理瓶頸就卡在那,自然要突破還有難度。

對相機廠來說,它們追求的是提昇前製的效果,不論是更聰明的追焦能力還是感光元件,
對手機廠來說,因為先天上的限制,所以才追求透過演算法來提昇照片品質,
兩者都想讓照片更好,只是方向不同,兩邊只要有進步對消費者來說都很好。

至於說手機攝影不是攝影的言論壓根就別理會,
器材都只是工具,重點從來都是照片內容好不好,而不會是用什麼器材拍的,
人們欣賞照片也不會去問這是用什麼相機拍的,
就跟到美術館欣賞畫作,有誰會問這是用什麼顏料還是畫筆畫的一樣

我也很期待手機的拍照能力能進化到什麼地步,
從我用Pixel開始就深刻體會到手機拍照的進化,
不然也不會現在爬山幾乎都只帶手機

但也因為用久了,
偶爾還是會懷念相機的畫質還有優秀的後製寬容度,
我會期待手機拍照更強更方便,
但我不會說出手機畫質比相機好這種言論,
因為對於了解攝影且會後製的人來說,
這真的只是不懂後製或懶的後製的人才會說的話
yuxian

你確定拿JPEG ? 手機現在都HEIF支援低損跟HDR耶

2023-05-28 14:34
jim80051

我說的是手機那篇他的比較就是不正確的,不管你要拿HEIF還是JPEG,重點他拿一個未經相機完全降噪處理過的RAW來對比就是有問題[sorry]

2023-05-28 14:44
conika wrote:
數位單眼的高iso畫...(恕刪)

我最近找到一些提供試用降噪與改善照片模糊的網站,上傳一些照片試看看,降噪效果不但明顯還能保留細節,模糊的照片只要不是太離譜,居然也能變清晰,這都是ai技術的演算結果,我很好奇ai技術如何改善模糊的照片,直到我發現一張對焦稍有不準的照片改善結果,人像本來不整齊的牙齒,竟變成清晰又整齊的牙齒,這實在有趣。


所以我前面才說過,後製的PS跟拍攝時RAW管線就處理好的步驟完全二回事

拍攝時移動端的AI有實際景色的參考拍出細節。

而後製的時候因為完全沒有實際參考物,
此時AI就完全用「猜的」

這就是我說PS用的AI跟移動端的AI完全是二種不一樣的模型。
不可以相提並論


就算PS AI再怎麼厲害,沒有的細節產生,那也是猜的。

這跟移動端的AI完全是靠取景現場光線跟細節完全是二回事。


所以討論AI模型時不可以混淆,以免誤解。
google "標題 + yuxian" 或 "yuxian.yy" 有非常完整評測
jim80051 wrote:
其實重點是1.焦段24mm...(恕刪)

其實手機在光學上的努力也是很多的…只是大多數人不懂,不僅手機消費者不懂,就連相機消費者也沒多少人懂,所以從來沒有廠商會特地去宣傳

早在好幾年前手機就整顆鏡頭所有鏡片都是非球面設計了…當相機廠還在把非球面鏡片當成寶、強調自己鏡組裡面用了幾片的時候,手機的鏡組老早就被壓縮體積的需求逼到不得不把所有鏡片全部用非球面下去設計
液態鏡片這種我在20年前就聽說過的東西也是手機廠率先在量產的消費性產品上推出…但是目前僅有那一支(小米MixFold)、而且沒什麼人討論,可能效果真的不是很好吧?說是為了做到長焦也能拍微距,但是熱度很明顯不如後面小米13Pro的那顆等效75三倍鏡

另外就是已經開始大量在手機超廣角中推開的自由曲面設計…這種鏡片的設計方針就是為了克服超短焦造成的嚴重畸變,根本原因在於鏡片是圓形的、球面的但是CMOS是方形的、平面的
既然不能把CMOS給彎成曲面(望向Sony約莫10年前申請的曲面CMOS專利),那就設法把鏡片給做成平面,但是沒有曲率又不可能,所以就結合非球面技術做成新的自由曲面…洋芋片形狀的鏡片就出現了

這種技術之下的鏡頭,特色就是不再需要那麼重手的數位修正,這也是以往手機超廣角畫質超爛的原因…因為邊角的變形量過大,所以你用數位修正拉回來以後畫質會非常明顯的降低…也因為是在手機上面使用,所以根本沒有空間給你多塞鏡片去做光學修正
換言之,自由曲面的技術就是可以極大程度的壓縮鏡組體積,把以往需要大幅縱深的光路給壓縮到能裝在手機上…要知道現在手機的超廣角都是非常廣的,現在低標基本就是等效14,等效13甚至12的也都有,更甚者還有超廣角採用1/1.56"的片幅,幾乎相當於早年高階DC的2/3"…若改用傳統光學設計(哪怕你一樣全鏡非球面)要嘛就是邊角畫質完全不堪用,要嘛就是厚到塞不進手機

這些光學技術相機廠基本不感興趣,因為現在的設計很夠用,而且對於體積的要求一點也不高…但是在病態的體積限縮要求之下的手機廠就是真的絞盡腦汁在設法擠出哪怕那麼幾mm的空間,哪種方法有那麼一丁點的效果都要拼命去嘗試
為什麼會覺得相機廠不長進就是這樣,因為更新速度真的太慢了…手機廠每年一代已經是定番,現在最好搞的又剩相機相關的軟硬體,這種龐大壓力是相機廠那種機身兩三年一更、鏡頭5年起跳甚至10幾20年不換代的廠商所無法想像的

但是手機廠拼命擠出來的新技術有辦法回饋給真正專業用途的相機嗎?我覺得很難…相機廠現在基本已經只能靠專業市場生存,然而專業市場裡面各類週邊器材的存在讓機身、鏡頭的重要性被稀釋非常多
啥都不說,例如我們出去外拍MD,光是多一個人在旁邊幫你拿反光板那個效果就差多少了?這種效果也不是新的機身鏡頭能給你的…那相機廠幹嘛吃飽撐著砸一堆錢去研發新技術?所以這樣的生態與風氣,我覺得到最後所有拍照相關的新技術都只能看手機廠在那小不啦嘰的手機上表演,但真正的相機用戶們完全一眼都不看,而且他們除非改用手機拍不然也永遠用不到…這一點都不奇怪
jim80051

yuxian 糾結最原始的RAW根本沒意義,因為相機廠要呈現的結果就是這樣,不論修正與否,大家都是依照這結果去處理[sorry]

2023-05-28 14:17
yuxian

我要說的就是這個,糾結RAW檔之前經過多少處理沒意義

2023-05-28 14:29
featheringer wrote:
但是手機廠拼命擠出來的新技術有辦法回饋給真正專業用途的相機嗎?我覺得很難

主要還是兩者取向不同,
現在手機用的CMOS可說是基於相機廠開發的技術,
從被照式CMOS到堆疊式CMOS,甚至更新的雙層堆疊式CMOS,
相機廠開發的技術絕對不亞於手機,
甚至相機廠需要克服的難度遠高於手機,
面對物理光學的瓶頸這是相機廠的巨大挑戰。

這幾年相機在對焦這塊的進步更是不容忽視,
10年前有誰會覺得對於迎面走來的人物可以對焦如此輕鬆又精準?
就連大部分的動態錄影幾乎都可以直接使用自動對焦,
10年前誰敢用自動對焦拍影片阿
現在AI對焦還可以自動對焦到手上拿的物品然後再自己切回後方人臉上了

不是說手機沒在光學上努力,而是這對於相機廠來說並不是難度很高的地方,
畢竟相機廠不需要這麼極端的尺寸,當然沒必要在這塊投入這麼多資源,
相對於疊圖演算法的誕生,這種光學上的改進自然會被一般人忽略

現在有用相機的人,很多人也希望相機能用手機的疊圖演算,
因為動態範圍的問題手機靠疊圖演算法克服了不少,
當然有一段時間相機也有HDR,只是後來手機的演算法更強更實用,
所以就直出的方便性來說,手機強太多了,
現階段高反差環境,相機就是還要後製調整才能獲得比較好的效果。

只是回歸到一開始的問題,
如果能開發出20檔動態範圍的感光元件,那還需要疊圖演算嗎?

然後又回歸到市場取向的問題,
正如您所說,現在一般消費者都用手機拍照了,消費型相機早就被打趴了,
現在相機幾乎只剩下專業市場,
而很多可以後製解決的問題對這些專業用戶來說更不是問題,
就問有多少專業用戶或玩家會直接直出照片的? 幾乎沒有阿

然後他們後製出來的效果就比手機疊圖演算效果好了,為什麼需要這功能?
說穿了就是手機直出的方便性遠大於相機而已,但如果都要後製根本沒差吧
現在有這些需求的相機用戶多半都是不會或者懶的後製的用戶,
既然需求不是很大又只剩下Vlog錄影市場比較有搞頭,
廠商自然先往錄影這塊發展,
所以近幾年的相機每一台都是往錄影功能進化比較多
我覺得現在這一切都是市場造成的結果。
jim80051

jjx874 您可以測試,現在AI很聰明,他會局部選擇,光PS疊圖拍移動中的人都可以針對殘影的部分修正了,他會自動建立遮罩,不要用傳統的HDR思維來看手機的HDR+演算,否則現在手機都不能拍動態了

2023-05-29 13:25
jim80051

現在只要好一點的手機都會疊圖演算,從你開啟相機就開始紀錄,不是按下快門的瞬間,如果只是單純的疊起來當然會有問題[XD]

2023-05-29 13:29
jim80051 wrote:
主要還是兩者取向不同...(恕刪)
10年前誰敢用自動對焦拍影片阿笑到噴淚
現在AI對焦還可以自動對焦到手上拿的物品然後再自己切回後方人臉上了XD


某幾家對焦還是爛爆。跑焦也是跟鏡頭品質有關。
夜間也是對焦盲點。

不過手機的對焦系統基本上已經都是隨開就對好焦了。
而且不管什麼距離,近拍鏡跟主鏡的自動切換也是行雲流水。
加上如蘋果有光達輔助,夜間對焦也沒問題。

傳統相機本身會牽涉到夜間判定跟光學鏡頭的品質問題。
加上景深淺,切到手動對焦的人也不在少數。

另外很多人喜歡提到的人臉辨識、眼睛辨識、動物辨識等等。
其實都是很基礎的AI而已。

但如果要更進階的語意分割就不太行了。

最近物體對焦優先或者人臉優先通常也是要使用者預先設定。
其實可以看出晶片等級仍然很低階。

舉例像蘋果的電影模式,不僅即時演算淺景深,
也納入AI預判動作。

今天前面的人轉頭看後面的人,AI預判他會轉頭,就緩慢的變焦到後面的人身上。
甚至後面的物體也可以。
同時眼神的注意力轉移也會讓AI預判而自動轉移焦點。

當然錄影的淺景深模擬,目前破綻比拍照更多,
但其實用過幾次電影模式,其實質感都還蠻不錯的。

所以就算單眼的對焦系統如何進步,
也僅僅是做到可以對好焦的程度而已。

並沒有像手機那麼積極的納入AI

所以,雖然目前單眼仍然有光學淺景深大片幅優勢。

但再不積極,恐怕連VLOG這飯碗都被手機端走了。
看看現在說到手機運動錄影有多穩,我相信大家都不會懷疑了。
手機杜比視野的錄影也只是基本而已。

如果屆時淺景深模擬被手機運算到一定境界,單眼勢必還會面臨到VLOG的市場可能被端走的窘況。

單眼不能光僅靠大片幅跟鏡頭了,目前的技術演進十分快速,要想辦法改變,才能在VLOG市場繼續持有市占率。

不然以後大家不是拿單眼在做VLOG,
而是變成改拿手機做VLOG了。
就跟之前我說的一樣,如果效果差不多,為什麼要捨輕而求重?
舉半天拍片還是會累的。

就像以往都是專業錄影機單機錄影,
現在連電視台很多都拿單眼就開錄了⋯⋯⋯

效果沒有差距太遠的話,可以拿輕的沒人想拿重的。

下面前年電影模式的影片我相信大家都看過了。這是iPhone 13 pro的影片。
去年的iPhone 14 pro是加強了電影模式模擬淺景深的摳邊跟畫質演進(從1080P模擬到4K模擬也才過了一年)
按照年年進步的方向,很快有一天就會變成很實用了。

這些都是有徵兆的,相機廠還需要再加把勁了。畢竟手機正在年年慢慢地咬走市場。

當相機廠覺得沒什麼威脅時,
手機廠就用實力每年慢慢咬走市場,
直到有一天,相機廠才發現大勢已去。

希望相機廠不要重蹈過往DC的失敗了就是了。

可以看看AI進行轉頭跟眼神轉移的焦點轉換。
這些是AI自動轉焦點的,不是操作者操作的。
google "標題 + yuxian" 或 "yuxian.yy" 有非常完整評測
yuxian wrote:
並沒有像手機那麼積極的納入AI

其實從A7R5就開始導入姿態辨別了,不是之前單純的人眼/動物對焦,
相信其他廠很快會跟進,甚至更好
這影片就有一些範例,從影片的9:00開始可以參考一下。


或許現在還不像iPhone的AI那麼積極,但至少廠商有朝這方面在努力
jim80051 wrote:
其實從A7R5就開始...(恕刪)

其實從A7R5就開始導入姿態辨別了,不是之前單純的人眼/動物對焦,
相信其他廠很快會跟進,甚至更好sorry
這影片就有一些範例,9分開始可以參考一下。


看來索尼真的有認真要把相機部門跟手機部門做技術交流整合了。
這是好事。我看相機廠活的最愉快的就是索尼了。

姿態辨別簡單而言就是鎖死人臉不會被前景的任何物體遮擋影響對焦的功能。
或者自動裁切的功能(我記得自動構圖以前拍照就有了,現在加入到錄影裡面)

不過不知道你有沒有注意到專業的TIM所下的結論?

他說了
這些AI功能都很好用,連他自己也持續在用,
不用去管參數設定,只要管拍攝內容就好。

我想這可以說明了最近討論的這件事情,
AI幫忙拍攝時處理好畫面,使用者只要專注構圖就好。
誰想要繁瑣的操控?

這個可是影視颶風Tim所下的論點喔。

可以替最近討論的事情下一個結論了。



google "標題 + yuxian" 或 "yuxian.yy" 有非常完整評測
jim80051

科技本來就是讓人們更方便,上面說過了,10年相機錄影的自動功能根本都不能用,這幾年我覺得進化超大,我看到ZV-E1那些自動對焦跟調整散景的功能後,真心讓我覺得科技有進步[笑到噴淚]

2023-05-28 22:05
yuxian

這就是我一直強調的,RAW的前期無論做什麼處置都不重要,重要的是產生的RAW已經可以簡化不少後製程序才是真的。「其實挺好的。」不是嗎

2023-05-28 22:15
jim80051 wrote:
只是回歸到一開始的問題,
如果能開發出20檔動態範圍的感光元件,那還需要疊圖演算嗎?

其實還是要
手機的疊圖演算法早已不只是為了HDR…從多框降噪到數位變焦再到去馬賽克等等,手機的演算法其實已經做到了很多事
當時初代QB陣列的IMX586時代,我就想盡辦法裝上GCam,強制48MP全開附上疊圖演算,原廠相機是不能這樣用的…拍出來的結果不說畫質多好吧,至少我是完全無法想像手機這麼小不啦嘰的塑膠鏡片是怎麼撐起這麼高畫素密度的,強力演算加持過後的48MP解析力明顯勝過原廠12MP…雖然仍有一些運算出來的假細節,但是真實存在的真細節也沒有少
更別提那還是實際色彩資訊量只有12MP的QB陣列,如果是完全傳統Bayer的48MP,效果還會更好…對了還有那個數位變焦可用度真的很高,要用傳統概念來理解的話,那個2倍數位變焦的畫質大概相當於裝上1.4倍增距鏡再開1.4倍數位變焦…是真的有變出更多細節而不是單純軟體放大
這些演算法帶來的效果都會讓我們這些曾經的攝影愛好者想一件事:這種新技術如果放到硬體規模更大更完善的相機上面到底會有多驚人的成果?不過很可惜,目前看起來仍然沒有可能成為現實,依然只能看這些小不啦嘰的手機表演…

順便附上一篇以前看過的小米10U與GR3的粗略比較

不過話說回來,就算只看HDR,如果說手機用8到10EV(看過IMX586的RAW你就知道單位畫素只剩0.8um的動態範圍有多慘)的CMOS疊出來是12到14EV,搞半天還是輸給單張直接就有14EV起跳的相機,好像真的沒有必要去搞手機這一套?
但是如果相機能夠用疊圖的方式現場直接連拍用14EV的CMOS疊出18到20EV甚至更多的動態範圍,這難道不香嗎
jim80051

是阿,其實數位變焦那個我覺得只適用於光學範圍內的強化,真的超遠距離,本身素材就已經不清晰了,再強化也是油畫一張,我也很期待相機能加入疊圖演算[笑到噴淚]

2023-05-28 22:10
jim80051

然後我更期待Google Pixel能用出一些新花樣,畢竟今年各家旗艦機我覺得表現都不輸Pixel,而且Snapdragon 8 Gen 2更是屌打Tensor,Google真的要加油了[sorry]

2023-05-28 22:13
  • 12
內文搜尋
X
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 12)
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?