雖然目前完全看不出來光學鏡頭會有淘汰的一天
但當有一天感光元件愈做愈好
最高數十億畫素,可隨數位焦段自由變換畫素
CPU愈來愈強大
可任意且即時的模擬各種場景與景深
甚至可能連"獨立"相機都式微
而變成人手一隻的智慧型手機
loy988821 wrote:
雖然目前完全看不出來...(恕刪)
樓主:
CPU當初就是單核衝到一定頻率程度之後就無法在上去,後面才開始發展多核。
很多元件在後面並不是預測,可能單純像是散熱問題無法解決,只能往另外方式走。
大致上有幾個大問題
1.訊號部份
其實單位畫素越小,其同區塊的解析度越高,但是相對其S/N RATIO是越來越差,差到一程度訊號和背景已經很難分開,而元件越大本身散熱越差,這些熱雜訊會讓原本訊號變更差。
所以原本同樣畫素密度的感光元件,影像訊號應該是一樣,但是小感光元件熱雜訊會比較低,所以訊號品質會比較好,所以就算畫素發展並不是那麼簡單,並不是大感光元件做高畫素就可以獲得同樣影像品質。
2.變焦過程畫素變化幅度
另外請注意一件事,我們焦距拍攝範圍為視角大小是一維,畫素是二維,所以畫素下降速度是平方倍。
所以像是同樣一顆鏡頭在一顆感光元件上,分別用FX與DX裁切片幅,畫素是下降1.5*1.5=2.25倍,也就是等校視角焦距變化1.5,畫素已經下降2.25,所以本來60mm是12MP,到DX等校90mm就是5MP左右。
所以1000MP在10倍率裁切只剩下10MP萬畫素。
3.光學鏡頭進展
這裡就會出現鏡頭必須要可以達到1000MP畫素需求解析力問題,而光學發展許多,進展速度並不像電子元件那樣比較寬鬆條件,本身就算可以設計高解析鏡頭,但是還是有所限制,後面成本估計會遠遠大過元件要發展成本。
就像從F1.8光圈做1.4,像差增進速度是次方級成長,價位也是非線性快速成長,分開作不同焦距鏡頭給低畫素的成本,會遠遠比做一顆可以裁切的超高畫素的感光元件與適用鏡頭成本便宜許多。
M wrote:
看來樓主對於光學變焦...(恕刪)
M兄:
可以參考透視學,在攝影中,透視和焦距無關,主要是由距離造成,很多是因為在構圖造成距離變化產生透視變化,並不是焦距在影響。
在同樣距離不同焦距的透視會是一樣,只是您將會裁切同樣但是解析度變化的影像,這個就是小弟所講畫素與鏡頭解析力問題。
可以看看鏡頭焦距是否會影響透視感的探討
內文搜尋

X