6月1日 早上6:44 一輛M3 autopilot 撞上側翻貨車,這位董買買分享的技術含量,如何?

6月1日 早上6:44 一輛M3 autopilot 撞上側翻貨車,這位董買買分享的技術含量,如何?
2020-06-04 12:52 發佈
bryanchiu2000 wrote:
6月1日 早上6:44(恕刪)



之前回在另一篇20頁的那棟樓的

就已經說明了 就是缺少特徵點

影像辨識第一步就是找特徵點

以下重貼。



白色物體 陽光太強 靜止物,其實是同一件事情,不過媒體或是車評畢竟非影像處理或是程式出身,有時候說法本來就無法正確解釋,

特斯拉的AP系統是建立在中長距離是以影像辨識為基礎來做運算

動態影像要分析,首先就是要找出 一個畫面的特徵,如果整個畫面全都是白的、或是素色、完全沒有任何的特徵無法去比對出這個特徵是什麼,更沒辦法由上下張去找出這個特徵是否移動或是改變,那麼就完全無法給電腦資訊。會判別失敗,細節可以找找有關openCV的相關資訊,會有一些說明

影像辨識,依照現階段特斯拉的硬體來說,有其極限,短時間內也無法突破。

下一代特斯拉的演算法,年底的(FSD版本),可能就是結合類似open Kinect 的技術,前檔中間的兩個鏡頭,應該可以建立深度資料,可以補足一部分的缺失。

不過這些都只是感測的部分,至於感測擷取下來的資料如何做判斷處理那又是另一門技術了。


其實特斯拉的做法,影像辨識的方向,大方向來說,是正確的,但是太躍進,必須很好的結合現階段正處於快速發展的影像辨識、影像處理、深度學習。而與之息息相關的就是圖像處理晶片與深度學習晶片的硬體部分,這部分如果過關了,特斯拉就是未來汽車產業唯一,因為這些技術目前幾乎都掌握在美國廠商手上,

光達,如果只是簡單的作為距離判斷那麼基本上可以說沒用到它該有的功能,如果是用來建立 cloud points,那麼,用到的技術還是回到影像處理,只是由2D的影像處理,變成3D的影像處理,但是那個資料量會極其龐大,現階段可能以目前的晶片來說,可能得串連相當多顆,或是非常高價,nvidia v100就得450萬了。


另外一個因素,影像處理的FPS越高越精準,而FPS越高資料量越大,需要計算的量越大。



https://opencv.org/

https://www.youtube.com/watch?v=pQuUW3Jp8ic&list=PL_r4rS7sBXUJUBmoPra9vMKZ6clpg_tdO

https://www.youtube.com/watch?v=yYZfoV3YkWA

https://www.youtube.com/watch?v=Ku3D73SQfKg
alphaelf wrote:
白色物體 陽光太強 靜止物,其實是同一件事情,不過媒體或是車評畢竟非影像處理或是程式出身,有時候說法本來就無法正確解釋,


我到覺得這不一定是當時出現影像全盲的狀態,反而可能是電腦判斷後不確定這是否屬於該介入煞車狀態。屬於AI的弱點,而非Camera本身 (Tesla也不是只用RGB Sensor)

當然Tesla不會公布說他到底電腦怎樣判斷這次事件

但如果Tesla沒有認出要撞上的屬於一台車(從結果來說,這次就是),那就可能就歸類到其他一般物件的判斷
路上有什麼障礙物需要煞車停止,或全力自動煞車停止,這屬於AI範疇的拿捏,而HW 3.0的運算效能畢竟還不到完全發揮地步,要等後續改善。

所以我的觀點是:
1. Camera的訊息是否告知HW 3.0這是一台車 (X)
2. Camera是否不可能帶給HW 3.0說有這台車的訊息 (保留~)
3. AI是否對於倒在路上的汽車判斷有誤 (O)
4. Tesla需要新的Camera來解決問題 (保留)
5. Tesla需要更新AI來解決問題 (O)
內文搜尋
X
評分
評分
複製連結
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?