• 77

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

maxvipworld wrote:
RAW需要用到RGB吧http://zh.wikipedia.org/wiki/RAW...(恕刪)

RAW就是RAW,每家sensor廠商輸出的RAW資料格式,都不儘相同。"RAW需要用到RGB"的意思是?但如果是黑白或CMYK類型的感測器呢?

還是建議您,有興趣就得從基本相關書籍讀起,融會貫通後再來重看整棟樓。不建議談到哪兒就Google到哪兒、然後就剪取複製上來。
分色滤色片

補色CCD多了一个Y黄色濾色器,在色彩的分辨上比較仔細,犧牲部分影像的分辨率,在ISO值上,補色CCD可以容忍较高的感光度,一般都可設立在800以上。

Leica M-Monochrome 1800 萬像素CCD 感光元件的表層沒有色彩濾鏡

黑白,只是亮度的記錄值, 沒有色彩濾鏡就可以接收到更多資訊,因為不用對顏色篩選。
codebook wrote:
不太懂?OLPF 會...(恕刪)


你可以看看第一篇,他自己寫的:

====
因為影像光束經過鏡頭成像後不是直接打在CMOS上,而是再經過兩片水晶片所形成之光學低通濾波器予以加粗4倍後才打到 CMOS 光電二極體上。

首先第一片水晶將光束上下分裂成兩道完全一樣的光束。另一片則再將兩道光束左右分裂成四道光束
====
http://www.mobile01.com/topicdetail.php?f=566&t=3214599&m=s&s=20&last=42048787

其實事情很簡單,OLPF 的確會分光,但是要達到他鬼扯的事情,必須這束光的長寬都跟像素一樣寬才行,如果超過像素寬度,一個 pixel 會接收到不同來源的"多道"光束,不可能會發生他說的四個一組的像素上面四個點的光完全一樣這種不知道哪裡來的可笑觀念。他抱著這個觀念,鬼扯了很久的四個 element 才能合成一個 pixel,所以 hTC 用的 4M 像素其實是 1M 像素的說法。

老實說講這些,不必懂甚麼高深理論或公式,畫個圖,用邏輯推演就可以了。

chansilee wrote:
樓主很有心的為大家分享他所認知的相機原理
結果因為原理太難說明清楚,換來一堆口角之爭
只能說人心不古

的確樓主某些地方有爭議,譬如畫素或畫元
還有就是要不要除以四
後來被講到整棟樓都歪了

其實樓主講得並沒有錯
因為一個彩色的畫素需要由三原色構成
在Bayer中是R,G,G,B因此四個畫元還原成一個彩色資料
但事實上每個畫元都有一些相位差
因此就細節而言,是400萬個「細節」(明暗度資訊)
但就顏色而言,只有100萬個「彩色」(R,G,B資訊)
因此廠商使用差補點的方式把色彩給推上去
也就是Bayer的演算法,不能說是作弊
但演算法插補代價是出現摩爾紋(也就是假色,在高空間頻率下尤其明顯)
因此需要低通濾鏡來消除、或減輕這樣的現象
就這麼單純而已!

所以不論是爭400萬畫素還是100萬畫素,只要了解Bayer sensor的原理
就會減少不必要的紛爭

另外再補充一些個人想法
關於畫素越低畫質越好這檔事,其實也很好解釋
畫素越高細節(也就是空間解析度)越好,然而一個畫素所收到的光子就越少
就雜訊量不變的情況下而言,色彩的準確率就會降低(因為雜訊的比例相對增多)
自然界本來就是互相消長,有一好沒兩好(trade-off)
你要高空間解析度,就沒辦法有高色彩準確度
反之亦然~

HTC這次是拿空間解析度的犧牲去換較高的色彩還原度,就理論而言絕對是正確的
但影響成像結果的不只sensor,後端dsp、鏡頭好壞等等也很重要
不同的sensor在系統下也需作後期微調,都會影響結果

說了這麼多...
對普通user而言,關注的只是結果
只要兩台不同機子拿來拍拍看立較高下,也不用care上面所說得那些factor了

以上,有錯請大家互相指正嚕!


別再抱著 bayer 排列自動插補這種錯誤觀念了好嗎?也別再抱著 moire 是因為 bayer 排列才會有 moire 了好嗎?另外假色跟 moire 是不一樣的東西好嗎?

說過不知道第幾次了,連 foveon 這種 sensor 都會有 moire 的。除非 sensor 上的 pixel 能做到人類已知最小單位長度(普朗克長度),否則怎樣的排列都會有 moire 問題你信不信?(這裡不考慮這麼小的感光元件雜訊有多大或是訊號有多微弱,甚至根本不可能做出比已知最小長度還小的電路)

他貼了底下那張圖,然後你們都認為 0% 右半部那兩個像素,跟 50% 左半部那兩個像素組成的"像素"是插補來的?一道連續有明暗變化的光就不是那樣照的啊!除非這張圖的元件已經小到我剛剛說的那種等級。


如果你只看上圖的 0% 與 50%,那就是下圖我畫的兩條紅線的部分,但是如果你多看了 0% 右半部那兩個像素,跟 50% 左半部那兩個像素組成的"像素",那就會得到中間綠色那條線,以取樣來說,這樣的取樣解析度比起只取 0% 跟 50% 部分還來的高,然後這不叫插補!插補是在 0% 跟 25% 之間自己無中生有算出一個 1x% 的數值。


至於別再爭論 4M 畫素問題,明明 4M 畫素就可以產生接近 4M 個資訊,他卻執意要說這樣只有 1M 畫素,結果他的支持者現在說別再爭論 4M 或 1M?話都給你們講就好了嘛!

討論這種東西,最害怕不是全對或全錯,而是那種對中有錯或錯中有對的狀況,更糟的是有人說出真話卻被當成假話。

李奧納多狄卡皮歐演的隔離島有沒有看過?當所有人都說他是瘋子,只有他自己認為自己不是瘋子時,你會選擇相信李奧納多告訴你的,還是選擇相信多數人告訴你的

bulibi wrote:
。除非 sensor 上的 pixel 能做到人類已知最小單位長度(普朗克長度),否則怎樣的排列都會有 moire 問題你信不信?...(恕刪)


挑你一個觀念錯誤,普朗克長度無關已知未知,純粹是推算出來的結果。

至於可不可能驗證這個假設,我個人也不覺得有很高的必要性...
SideWheel wrote:
照前輩的定義,您提到這些4M轉16M的頂尖演算法,就算加上了一堆filters、一堆獨到演算法,那又如何呢?全都不值一提、都是後製作假.....因為原始資訊就只有那麼多、或那麼少(唉!既然已經知道人眼對色彩不那麼敏感、亮度重要多了,卻還是在拘泥RGB全部要補到4Mp才能再進行後面處理....),我們這些唱過反調的,前輩也聽不過去。今天前輩已經不是在談HTC的Ultra pixel,而是從頭否定Bayer感測器本身.....回到根本,試問針對人眼的特性,Bayer感測元件的設計理念是什麼?這可能需要您跟前輩多溝通溝通了....

再者,如果要把鏡頭因素也帶入討論,MTF對業界內是很基本的概念,但如果上課資料的PowerPoint,第一行標題就把MTF所代表的三個英文單字全部都搞錯,Line pairs/DPI換算也弄錯,那麼PowerPoint的內容,我個人會聽不下去,因為對於演講者的專業度,已經存疑了。

FullHD的消費性藍光影片或HDTV高畫質數位電視如日本衛星BS Digital,Y的解析度是1920x1080(*),Cb/Cr都各只有960x540(*),如果因為這樣前輩就要在地上打滾曰:「這不是1080p、這不是FullHD、這不是HDTV、這不是肯德基、你們都在騙人!!世人惟有我獨醒!!」,後進如我只能甘拜下風.....


頂尖的演算法,其實在Lab裡面可以輕易戳破,而那些頂尖演算法,加入很多"人性思考",就商業面來說,那是很成功,很值錢的智慧資產

你會發現,平庸的13M sensor + 平庸的演算法;在實拍上,遇到4/8M sensor搭配那些"高段的演算法",前者會被痛扁很慘....

詭異的是,你去Lab裡面,拿出足夠的光線,測試兩者的"解析度",13M Sensor又贏了
我猜這就是樓主所持的觀點,他認為那些東西畢竟還是假的。不過科學精神是一回事,有沒有商業價值又是一回事,騙久了就是真的。會化妝會打扮就容易被當成正妹(有多少人說正妹是脫光光來比較的???)

RAW距離最後成品,其實很遠。光看SENSOR/RAW就對畫質做最後定論,那就根本不知道世界多大了

至於你說的FHD,其實這比喻有點不對,FHD是針對螢幕來討論,你講的是訊號
怎樣的訊號可以當成FHD,跟怎樣的螢幕當成FHD,其實是不同命題

我拿FHD螢幕接PC顯示Windows桌面,你猜HDMI輸出什麼?(這就是我認為你太拘泥於YUV這"檔案"格式了)
如果你要抓圖,從RAMDAC抓取資料,你要不要猜你從RAMDAC抓到什麼?(如果你的工具是抓到YUV格式的,那表示....廠商給的Tool已經很好心幫你自動轉換了)
sycee2008 wrote:
至於你說的FHD,其實這比喻有點不對,FHD是針對螢幕來討論,你講的是訊號
怎樣的訊號可以當成FHD,跟怎樣的螢幕當成FHD,其實是不同命題

我拿FHD螢幕接PC顯示Windows桌面,你猜HDMI輸出什麼?(這就是我認為你太拘泥於YUV這"檔案"格式了)
如果你要抓圖,從RAMDAC抓取資料,你要不要猜你從RAMDAC抓到什麼?(如果你的工具是抓到YUV格式的,那表示....廠商給的Tool已經很好心幫你自動轉換了)...(恕刪)

FullHD這個term除了套在螢幕,還可以套在訊源(比如近期最熱的4K節目、FullHD節目),我提到的藍光影片/BS Digital,都是Full HD「訊源」,我並沒有在談螢幕。提到訊源,是要提醒真實FullHD訊源跟影片應用中,亮度Y的解析度跟彩度CbCr的解析度,是四倍之比;影片/HDTV訊源是如此,手機的照相/攝影過程,也是如此,藉此提醒許多還拘泥在一定非得要從n百萬畫素的Bayer感測器上產生RGB各n百萬個、一直跳不出來的網友。

YUV並不是"檔案"格式,跟RGB一樣,是color space的一種,.JPG/.MP4才是檔案格式。以下面的拍照/錄影流程來說(也適用於手機),並沒有一個環節,是非得要從n百萬畫素的Bayer感測器中,產生RGB各n百萬個不可的。CMOS感測器到ISP之間是RAW資料傳輸,而ISP到JPG/Video Encoder之間,正是YCbCr 4:2:0資料傳輸(n百萬個Y,n/4百萬個Cb,n/4百萬個Cr)。不是我拘泥於YUV,而是原本流程就是如此。甚至高階數位攝影棚裡的數位攝影機,流程也是如此。





來源:http://www.anandtech.com/print/6777

sycee2008 wrote:
頂尖的演算法,其實在...(恕刪)

感覺樓主跟版主還有570三個人可以坐下來聊聊天,三個人應該可以聊很久,都是邏輯性根基本工很扎實的人,這一篇文章跟了很多天了,從版主一開始開版到後來整棟樓歪了,又看到幾位高手把樓扶回來,深深覺得想要在社會中追尋一個答案真的好難,好文要繼續跟下去!!

maxvipworld wrote:
RAW需要用到RGB...(恕刪)


RAW 是還沒有做 Demosaicing 的原始資訊啦.....

maxvipworld wrote:
我重新編輯過了。但沒...(恕刪)


你想講的重點是不能彌補對吧?
為什麼不直接說阿?
有什麼讓你迷惑不能直說的地方嗎?

說真的你有搞懂 sampling theory 嗎?

The real problem is not Bayer vs True color.
The real problem is how you can accomplish with different ways and what kind of trade off you have to deal with.

yes in the ideal world True color method alone will result better in resolution in both color and mono than Bayer but the problem is that you are not in the ideal world.
  • 77
內文搜尋
X
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 77)
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?