Its one pixel has at least 3 photodioes.
Here is the spec of HTC ONE
Sensor Type CMOS BSI
Sensor Size 1/3'
Sensor Pixel Size 2um X 2um
Camera Full Size Resolution 2688 x 1520 16:9 ratio
JPEG
Shutter speed up to 48fps with reduced motion blur
Video Resolutions
- 1080P up to 30fps
- 720P up to 60fps
- 1080P with HDR up to 28fps
- 768x432 up to 96fps
H.264 high profile, up to 20mbps
Focal Length of System 3.82 mm
Optical F/# Aperture F/2.0
Number of Lens Elements 5P
Optical Image Stabilizer 2-axis, +/- 1 degree (average), 2000 cycles per second
ImageChip / ISP Enhancements
- HTC continuous autofocus algorithm (~200ms),
- De-noise algorithm,
- color shading for lens compensation
- Maximum frames per second
- Up to 8fps continuous shooting
這次在新機看到很多創新的點子,還是有人告訴我等S4出來,NEW HTC ONE就被打趴了!!
可是我愛死哪超棒的音效跟新的拍照功能!!!
ad47 wrote:
將GRGB歸納成一組...(恕刪)
所以一開使我們就很明確的不討論演算法造成的影響啦...
原文裡提到
In order to obtain this color information, the color image sensor is covered with either a red, a green, or a blue filter, in a repeating pattern. This pattern, or sequence, of filters can vary, but the widely adopted “Bayer” pattern, which was invented at Kodak, is a repeating 2x2 arrangement.
簡單的說,柯達為了瞭解特定區域內的色彩資訊,他們發明了"Bayer"這個filter組合模式,利用您說的GRGB 這四個subpixels組成一個Pixel去作這件事情.. 嗯 應該沒有翻錯吧,心虛XD
演算法這玩意百家爭鳴,現在討論的不就是
1. Pixel與Subpixel間的關係
2. Pixel的組成與定義
當然每一個subpixels都會影響到最後的成像,只是用演算法的看的話,只要我們高興電腦也撐得住,插點到億萬都行... 心情好還可以像某家的減噪模式一樣拿好幾個Pixel組成一個超大的虛擬Pixel來當取樣依據
嗯==. 該下班了

ad47 wrote:
問題是在計算最後成像點時,並不是以這樣2x2一組下去算阿!...(恕刪)
不好意思點一下你的盲點
你自己說的沒錯,那是"計算"出來的
計算方法千百種,4M的element算成4Mps或是1Mps甚至12Mps都可以(沒說什麼計算方法才合法吧

SONY的Viewfinder自己說是2.36 million dots,Galaxy S3 Pentil螢幕720p....這些數字哪個不是故意隱匿各種資訊為了唬爛消費者的?
回過頭來,Sigma說自己輸出的圖檔是46Mp(檔案也沒有錯),為何當時大家也覺得怪怪的?(最怪的就是...哪個白癡想說消費者需要46Mp的圖檔啊

"計算"歸計算,大家要怎樣算怎樣輸出都可以。如果你承認這一點,別人就不會說你錯(管你輸出多少畫數)
但是,成象需要的資料來自於element,而這是一切畫質的基準
從這個角度來看,HTC用心在良好Element的基礎上來成像,而非僅無腦的輸出高pixel count,這對消費者而言,才是最實在的
內文搜尋

X