maxvipworld wrote:
RAW需要用到RGB吧http://zh.wikipedia.org/wiki/RAW...(恕刪)
RAW就是RAW,每家sensor廠商輸出的RAW資料格式,都不儘相同。"RAW需要用到RGB"的意思是?但如果是黑白或CMYK類型的感測器呢?
還是建議您,有興趣就得從基本相關書籍讀起,融會貫通後再來重看整棟樓。不建議談到哪兒就Google到哪兒、然後就剪取複製上來。
codebook wrote:
不太懂?OLPF 會...(恕刪)
chansilee wrote:
樓主很有心的為大家分享他所認知的相機原理
結果因為原理太難說明清楚,換來一堆口角之爭
只能說人心不古
的確樓主某些地方有爭議,譬如畫素或畫元
還有就是要不要除以四
後來被講到整棟樓都歪了
其實樓主講得並沒有錯
因為一個彩色的畫素需要由三原色構成
在Bayer中是R,G,G,B因此四個畫元還原成一個彩色資料
但事實上每個畫元都有一些相位差
因此就細節而言,是400萬個「細節」(明暗度資訊)
但就顏色而言,只有100萬個「彩色」(R,G,B資訊)
因此廠商使用差補點的方式把色彩給推上去
也就是Bayer的演算法,不能說是作弊
但演算法插補代價是出現摩爾紋(也就是假色,在高空間頻率下尤其明顯)
因此需要低通濾鏡來消除、或減輕這樣的現象
就這麼單純而已!
所以不論是爭400萬畫素還是100萬畫素,只要了解Bayer sensor的原理
就會減少不必要的紛爭
另外再補充一些個人想法
關於畫素越低畫質越好這檔事,其實也很好解釋
畫素越高細節(也就是空間解析度)越好,然而一個畫素所收到的光子就越少
就雜訊量不變的情況下而言,色彩的準確率就會降低(因為雜訊的比例相對增多)
自然界本來就是互相消長,有一好沒兩好(trade-off)
你要高空間解析度,就沒辦法有高色彩準確度
反之亦然~
HTC這次是拿空間解析度的犧牲去換較高的色彩還原度,就理論而言絕對是正確的
但影響成像結果的不只sensor,後端dsp、鏡頭好壞等等也很重要
不同的sensor在系統下也需作後期微調,都會影響結果
說了這麼多...
對普通user而言,關注的只是結果
只要兩台不同機子拿來拍拍看立較高下,也不用care上面所說得那些factor了
以上,有錯請大家互相指正嚕!
SideWheel wrote:
照前輩的定義,您提到這些4M轉16M的頂尖演算法,就算加上了一堆filters、一堆獨到演算法,那又如何呢?全都不值一提、都是後製作假.....因為原始資訊就只有那麼多、或那麼少(唉!既然已經知道人眼對色彩不那麼敏感、亮度重要多了,卻還是在拘泥RGB全部要補到4Mp才能再進行後面處理....),我們這些唱過反調的,前輩也聽不過去。今天前輩已經不是在談HTC的Ultra pixel,而是從頭否定Bayer感測器本身.....回到根本,試問針對人眼的特性,Bayer感測元件的設計理念是什麼?這可能需要您跟前輩多溝通溝通了....
再者,如果要把鏡頭因素也帶入討論,MTF對業界內是很基本的概念,但如果上課資料的PowerPoint,第一行標題就把MTF所代表的三個英文單字全部都搞錯,Line pairs/DPI換算也弄錯,那麼PowerPoint的內容,我個人會聽不下去,因為對於演講者的專業度,已經存疑了。
FullHD的消費性藍光影片或HDTV高畫質數位電視如日本衛星BS Digital,Y的解析度是1920x1080(*),Cb/Cr都各只有960x540(*),如果因為這樣前輩就要在地上打滾曰:「這不是1080p、這不是FullHD、這不是HDTV、這不是肯德基、你們都在騙人!!世人惟有我獨醒!!」,後進如我只能甘拜下風.....
sycee2008 wrote:
至於你說的FHD,其實這比喻有點不對,FHD是針對螢幕來討論,你講的是訊號
怎樣的訊號可以當成FHD,跟怎樣的螢幕當成FHD,其實是不同命題
我拿FHD螢幕接PC顯示Windows桌面,你猜HDMI輸出什麼?(這就是我認為你太拘泥於YUV這"檔案"格式了)
如果你要抓圖,從RAMDAC抓取資料,你要不要猜你從RAMDAC抓到什麼?(如果你的工具是抓到YUV格式的,那表示....廠商給的Tool已經很好心幫你自動轉換了)...(恕刪)
maxvipworld wrote:
我重新編輯過了。但沒...(恕刪)