我完全沒說"一下子說相機不需要AI而是類神經網路",別扣我帽子
至於上面所提的科技,能不能符合成本,那不是你我要考量的地方,那是相機廠該煩惱的地方
AI可以讓AF更直覺,有錯嗎? 操作相機的是人,人有智慧,SONY只是讓相機模擬人的行為模式或是智慧,讓相機選擇的對焦點更接近人類的選擇,如此而已
要直覺不使用手指轉轉盤或是碰LCD螢幕選對焦點,這狀況不使用AI只剩下眼控對焦,看到哪就是對到哪,這還不直覺那甚麼叫直覺?
smart cam也是不AI,只是名字叫smart cam,完全沒思考功能,只是把一堆比對演算法例如pattern match和blob放在裡面而已
你覺得自動不好用就手動選擇,結果就是這麼簡單
我連AI包含甚麼都說了還說我說不清楚,說不清楚史丹佛大學的連結裡面也有說明,你認為AI AUTO FOCUS做不到那就做不到,你認為AI AUTO FOCUS不直覺那就不直覺,不完美那就不要用就好了,有啥好不爽好吵的
要直覺就是要模擬人的思考與行為模式,你不用AI那請問要用甚麼科技?
UI的設計概念就是要直覺,只是UI沒必要用上AI罷了,UI是user interface的簡寫,說明一下免得問我說啥是UI
斷句沒斷好,NIKON那段是提到測光,測光其實不太需要AI,只要用類神經網路就夠了,當然測光要做AI也是可以,但是沒對焦有如此高的必要性,而且那不是連句,下一句也就是下一行才是題自動對焦,後面的PO還有再提一次,AI用在對焦,類神經用在測光
相機測光其實不太需要使用AI,相機也沒說沒AI就不能用,反正人去操作就好,目前的相機就沒AI,AI只是其中一個選項,只是SONY把AI列入選項之內,其他家沒把AI列入選項,但是有AI會不會更好用,等SONY做出來用用看就知道
松下的IA模式並不是人工智慧,是分析照片然後決定是用小花還是風景模式等等,類似模式在CANON口袋機上面也有
測光只要拍RAW不要太誇張在+-1EV都可以救,SENSOR的DR越高能忍受的EV差異就可以越大,所以有沒使用AI測光其實沒差,目前數位相機也沒鳥到測光如此的不堪會OVER或是UNDER很多,但是對焦對錯點就沒救
如果GH5使用人臉對焦,而且人臉占畫面面積還不小,人前後移動還對不到焦事實上是蠻鳥的
相機有沒人工智慧還是可以用,只是對焦用上人工智慧或許會更好用,尤其是在拍攝高速運動物體的狀況
自動對焦要用類神經網路不用人工智慧可不可以,或許可行,問題是出來的擊中率是不是理想的結果就不知道
說來說去就是相機能不能自動選擇到人類想要的對焦物體上,除非人去選擇,不然要提高選擇焦點的準確率使用人工智慧似乎是比較好的做法
排斥人工智慧,OK啊,叫松下做光場相機吧,反正事後要哪點清晰是輕而易舉的事情,而且還沒要用上類神經網路要估計使用多少記憶體在相機上的問題,用光場原理也是直覺,只是那已經是事後直覺,由人來選擇的直覺,不是第一時間的直覺
OLYMPUS的對焦選項有左眼優先還是右眼優先,因為不是使用相位差檢測無法知道距離只能讓人自己去選
至於移動中的人可不可以做對焦預測,答案是可以,只要可以偵測出人臉就能做到
假設鏡頭上有距離參數回傳就方便多了,在相位差檢測系統上近代鏡頭都有距離參數,CANON的ETTL II就是參考距離參數,對比式對焦的鏡頭也可以有距離參數,只要鏡頭上有ENCODER就可以,變成絕對型的設計就行(例如絕對型伺服馬達),不過相機用的是步進馬達,一般來說絕對型必須要裝電池去記憶編碼值,用來記錄最後停止位置,6軸機械手臂就是一個使用範例,但是鏡頭不可能這樣搞,除非鏡頭裝上電池,至於為啥不用FLASH MEMORY,因為有寫入次數限制,要解決只能一通電就去讀取目前的編碼值來知道鏡頭對焦環是停在哪個距離上,這和人臉移動方向的預測有啥關係,下面開始解釋
人臉對焦的基本演算法是偵測顏色,人的膚色有一定色域,而且有個規則,就是人臉有眼睛和嘴巴,這兩個地方顏色和其他膚色是不同的,所以運算過後就可以知道這是人的臉,你可能會問說那黑人怎麼辦,除非是黑到不行,不然人臉的基本特徵是不會改變,但是使用這個演算法如果人的臉太小是無法分辨出人臉,這是先天限制很難克服
使用顏色分析還有個問題,如果人的臉不是正面而是側面會造成無法辨識,這是早期人臉辨識的缺點,所以後來加上別的演算法,你目前看到的人臉辨識不是只有用一種演算法得出的結果,是好幾個演算法算出來的
color analysis是基本演算法
人的臉有特徵,所以加上blob analysis
做blob analysis必須要先把畫面二值化還有做雜訊濾除,不然會被一堆亂七八糟東西干擾
有些會加上motion detection,用來偵測人眼的動作,也就是眼皮上下的動作,只要有區域有這動作出來而且是落在膚色區域內就認同是人眼所在位置,應該沒有人眼皮不會上下動的,就算只有一隻眼睛也是,其實這就是blink detection
有些會用上類神經網路neural network based methods,這不是我唬爛的,Oliver Jesorsky, Klaus J. Kirchberg, and Robert W. Frischholz寫的論文裡面有提到
使用Hausdorff distance理論做出的model-based方法,Hausdorff distance通常用來計算距離,人的兩眼有一定的距離間隔
有的會加上Edge-Orientation Matching
最後把所有演算結果加在一起得知人臉在哪
至於為什麼前面提到鏡頭距離參數,只要做skin color detection就可以得知skin area,這個area變大表示人往相機方向移動,變小表示遠離相機,相機可以下指令控制對焦環往遠的距離移動或是近的距離移動,看樣子松下似乎沒使用這個方式
再來是知道SKIN AREA其實可以鎖定只對這區域對焦,因為這區域有可以產生對比的物件剛好可以讓對比式對焦找出PEAK,參考物件是人的眼睛眉毛與嘴巴,黑到不行的黑人是例外
人臉對焦用這些演算法就可以做到,不需要使用人工智慧
SMART CAM裡面就是塞了好幾個演算法
上面提的演算法大部分MATROX的MIL都有
至於松下的IA模式,運作原理也很類似,對焦距離落在20m以後,畫面有一大片單色區域例如藍色或是綠色或是白色就可以判斷成風景模式,有大片的skin color視同人像模式,以下類推,所以也不需要動用到人工智慧
目前就對焦點選擇最麻煩,只是SONY選擇用人工智慧來試試看
http://www.43rumors.com/panasonic-gh5-firmware-1-1-to-be-released-on-april-24/
據悉,主要的內容是新增Full HD的10-bit 4:2:2輸出支援、Anamorphic 4:3,以及修正一些Bug
內文搜尋

X