常常在拍照時,會發現眼睛看到的景色還有想拍下來的景色(顏色跟構圖),跟相機拍出來的圖片,往往都不一樣。是因為人的眼睛看到的跟機器所能呈現的差距太大嗎?別跟我說是因為技術不到家,雖然這也是原因之一。不過,我想表達的是,....是不是眼睛看到的,使用相機不一定都能拍下來??希望我表達的夠清楚...
人眼很強大啊1. 自動對焦: 小心近視或老花2. 自動白平衡: 當然,不少朋友會有色弱的問題,對某些顏色不敏感3. 自動 ISO: 流言終結者有實驗4. 自動 HDR: 或說是人眼的寬容度高,加上腦袋的自動補完5. 關不掉的防手(?)震: 腦袋與各部肌肉自動處理尤其是 2. 3. 4.,相機不容易達到相機也很厲害1. 長曝: 長達數小時以上的曝光2. 短曝: 利用閃燈瞬間凝結影像3. 複製: 數位或類比,都能複製分享4. 焦距: 長短都有,放大率也不同,微觀望遠都行
我看到的東西,跟我拍的都很接近,只有光線不足的狀態下去調整光圈,所呈現出來的才會跟看到的不一樣,拍風景的時候,在城市拍則會受到很多因素影響,導致拍出來跟眼睛看到的東西不一樣,拍城市最好是在早上,車子比較少比較沒風,空氣中的塵比較少,拍出來比較不會落差太大,嚴格來說:我比較少拍出怪怪的照片
aachen8 wrote:常常在拍照時,會發現...(恕刪) 如果忽略相機等級的問題,的確看得到就一定拍得到.而版大你會提出這個問題,個人猜想版大患了一個新手通病,"選擇性的看到",而相機卻很誠實的全部記錄下來.這項落差需要版大花時間去解決.
不只是相機的問題,還有顯示技術的問題。就當前狀況,相機的紀錄能力其實都超過大部分人的螢幕。首先講對比,或說是動態範圍。你拍個夕陽的照片,太陽很亮,地面很暗,若要拍成跟你看的一模一樣,那螢幕所能展現的最亮要跟太陽一樣亮,最暗要跟地面一樣暗,打哪來這種恐怖的螢幕。先不討論接近大自然,先接近人眼就好了。就算是最新的 OLED 顯示技術,對比也僅僅是100000:1,相當於 16ev,遠低人眼的 24ev。一般液晶螢幕的 1500:1 相當於 10ev,也低於大部分相機的動態範圍。接著講色域。一般螢幕所能顯示的 sRGB 小於相機所能記錄的 Adobe RGB。而相機所能記錄的 Adobe RGB 又 遠小於人眼所能見的 CIE XYZ。其實任何三個不同波長的可見光不可能合成人眼所能見的所有顏色,然而多數螢幕、相機卻都是這樣設計的。所以,要討論相機能不能拍出來,首先要改善顯示技術,現在主要是顯示技術壓著數位相片的發展。就好像大家的相機明明都能拍 Adobe RGB ,大多數人卻只敢發佈 sRGB 給別人看。