OmegaSho wrote:不過要知道D800E...(恕刪) 不對喔!實際上解析上來說,是由感光元件對於鏡頭解析產生出來,感光元件是無法生出解析。也就是物空間=>像平面,這裡面鏡頭對於物空間產生所謂影像解析。像平面=>數位影像,這裡是感光元件對投影影像產生解析。A7R的一些修正是針對短鏡後光線問題,可能也會有提高ISO品質,但解析部分是不太會影響。實際上,NIKON和SONY合作關係已經很久,而感光元件部份,這些像NIKON PENTAX本身都會有一些各自修正,並不是直接買一塊拿來,而SONY也回提供現有一些製程與設計,這裡有部分並不是那麼簡單買東西那樣。
sota919 wrote:用一樣的爛鏡, A7...(恕刪) sota919 兄:一顆爛鏡頭不會因為較低畫素而有顯現較好!1/(R照片^n)=1/(R鏡頭^n)+1/(R感光^n),R代表解析度((1/R)代表解像力成倒數關係),n=1.8~2R照片是指照片解析。也就是他像是並聯式子,解析是由鏡頭產生,感光元件是無法大於鏡頭,感光元件解析力越高,只是接近原本鏡頭解析。所以即使是爛鏡頭,在高畫素還是會比較好些,只是提升幅度不多。只是畫素較高會有較大空間,才會有感覺似乎高畫素考驗鏡頭或降低鏡頭性能。但實際上畫素只是紀錄數目狀況,100%也不是原本影像大小,真實影像大小一直在於成像面(感光元件)大小,這個也是為何大片幅影像素質是小片幅比不上原因。而大部分感光元件都是BAYER結構,而鏡頭測試是在黑白單色測試,就是在於本身BAYER結構色彩空間解析是低上許多。
redhat2013 wrote:每個畫素包含紅綠蓝三...(恕刪) 沒有喔!一般感光元件是BAYER結構,一個畫素只有獲得一個色彩訊號。也就是他是分別參考旁邊色彩訊號,來還原原本位置點的色彩。並不像顯示器那樣紀錄位元,就是針對單位畫素紀錄長度,並不是像顯示器那樣8 BITE RGB是2^8(R) X 2^8 (G) X2^8 (B)=256X256X256=16777216,因為這裡是一個畫素有三個點(RGB)。也就是當BG都是0,那只有R發光,就會有256深淺紅色階,所以可以呈現色彩光是三個相乘。而感光元件並不是那樣,所以並不會有2^14X 2^14X02^14。也沒有什麼<畫素越密三原色容易互相干擾>問題,像是相機LCD的顯示畫素是比較精細,比起一般電腦縈幕會看起來漂亮銳利許多,並不是廠商故意欺騙消費者。所以不會有越密有混亂干擾,反而是越接近原本類比變化,只是現實會有S/N問題無法像微積分那樣無線小。
yansson wrote:請不要回避問題,高解析高畫素並不等於高畫質,那到底什麼才是高畫質? 這麼說,目前以非全幅的2400萬畫素是最高解析了,如Sony A77和Nikon D7100,它們就是最佳畫質囉!