• 11

《Autopilot》失誤案例-轉向偏移至匝道分隔島

fatfellow wrote:
第一
是你口口聲聲說政府不會管光達的頻率
Appendix table 1
說啥?

Table 1 - Minimum Performance Specifications for LIDAR
Speed-Measuring Devices and Systems

翻成中文給你看啦
表1-激光雷達的最低性能規格
測速裝置和系統

然後呢 ! 文件一開始就宣告這只是一般文件,不算官方正式文件,更不算法規
寫的再多也只是參考文件, for 測速雷達的

原來你的 $200 ,是用 6個測速雷達組成的...

fatfellow wrote:
自駕安全白皮書
https://www.regulations.gov/docket?D=DOT-OST-2018-0149

上面大喇喇寫著 beta - 徵求意見通知書 (你不懂英文沒關係,教你用 chrome內建的翻譯)
這 這 不是法規 不是法規 不是法規

我錯了,真的對不起,上面說你是業務等級,是太侮辱業務這個職業了,你只是一個 8+9 (好像又侮辱到這群人了)

跟你討論真的是浪費時間
fatfellow wrote:
誰在瞎扯?

“We take a pseudo-lidar approach where you basically predict the depth for every single pixel and you can cast out your pixels,” Karpathy said



要貼要貼整句啦

Tesla’s camera-based approach is much cheaper and easier to implement on the hardware side, but requires an insanely complex computer system to translate raw camera inputs and vehicle telematics into intelligence. At a foundational level, the computer can identify lane markings, signs, and other vehicles from a series of sequential static images, also known as a video.

Tesla is taking computer vision to unprecedented levels, analyzing not just images, but individual pixels within the image. “We take a pseudo-lidar approach where you basically predict the depth for every single pixel and you can cast out your pixels,” Karpathy said. Doing this over time replicates much of the functionality of a traditional lidar system, but requires a massive amount of realtime processing power for the image deconstructions to be of any use.

Vehicles are driven in realtime, so it doesn’t do any good to have a system that can make determinations or predictions based on an image if it the results are not available instantaneously. Thankfully, Tesla built its own hardware for the third major version of its autonomous driving computer and it was purpose-built to run Tesla’s code.
我還是不太理解為什麼單用視覺辨識做不到自動駕駛
抱歉小弟非相關從業人員, 只能從日常經驗去了解
畢竟大家每天在路上開車大部分情況都是用視覺來做判定依據
攝影機按這樣來說應該是能蒐集駕駛汽車所需要的資訊
接下來就是運算跟人工智慧的開發, 特斯拉的出發點我覺得是合理的

要做到100%無事故基本上是不可能的
人類駕駛每天都嘛在發生交通事故, 苛求自動駕駛要0事故有點太over
只要能訂出一個合理的標準, 比如說比人類駕駛安全2倍或三倍
那不管是用什麼技術, 用最少成本及最快的開發速度達到這個標準我覺得就可以了

至於攝影機可能會被遮蔽這種問題感覺不是克服不了
足夠的資訊去訓練人工智慧, 要判定出攝影機正在被遮蔽應該能做到
再做出相對的反應就可以了, 最糟就安全的停到路邊等待救援囉
Bazooga wrote:
我還是不太理解為什麼(恕刪)


讓機器學習人類本來就是最快的方式
但是人的頭部是 生物精密到無法複製
機器做不來,所以才有 演算法

而實際上的成效,就看設計的人了
fatfellow wrote:
笑死我了

已經笑死了嗎 ?

註冊日期:2020-06-19 14:56
登入日期:2020-09-02 3:51
會員編號:3485535


後面還有登入就不敢再回了 ???

就問你法規在哪 ? 就隨便找個網站上的資料當法規 ...
306XR wrote:
已經笑死了嗎 ? (恕刪)


光連他自己一直不斷提起的points cloud data都搞不清楚,後面說的我就已經完全無視了呢。
alphaelf wrote:
光連他自己一直不斷提起的points cloud data都搞不清楚


對呀 ! 簡單的點雲怎麼可以被搞的那麼複雜似的

用幾個英文名詞就想唬人,然後文字就用笑死,哈哈,你不懂之類的以掩飾自己的無知

我一開始就說了,看其幾篇就可以猜出是哪一類的人的,結果事實只是證明我的直覺沒錯

本來還對$200的LiDAR有興趣的,結果應該是拿測速LiDAR來充數
今天是最後一天了,他應該是不會再出現了

我把一些講的白話一點(但全部不是我的領域,講的可能有錯)

1. LiDAR 可以快速的提供3D的全面點距,就有點像正面拍照,每一點都包含距離就是所謂的點雲(Point Cloud)
問題在,傷眼 , 及能多久掃一次並回傳, 先想想 1秒能跑多少公尺

2. GNSS correction, 就是基於GPS提高精度 , 但 衛星訊號會被遮蔽,還有 GPS 精度約 5M , 最好的民用精度是 1M , 但是要這需要在同一地點等待衛星訊息收歛 (到精度達到) ,
所以有 VBS-RTK ,用網 路 同一時間與 GNSS的基準測站(在地面建立固定點)做衛星訊號資料匹配,求最高精度 ,這樣子坐標可以到公分級,但是訊號被遮蔽,還是遮蔽呀,怎麼辦? 在同一時間等到衛星訊息收歛 -> 所以呢 ? 自駕要靠這個嗎? 自找死路

3. HDMAP ,就是高精度地圖,精度也到公分級 , PS. 目前的地形圖(都市計畫地區) ,最高精度大概在 1/1000 ,約 10cm , 但是 HDMAP 要能用,除了精度還要有車道分隔線的位置,製作成本很高 ,配合 上項是燒錢大作 , 所以我在其他地方有講是自駕的最大騙局

4. 攝像頭,TELSA 最大的問題,是用手機的一組鏡頭(對,現在手機也用3鏡頭了,可以有景深) ,無法作 立體像對,亦即無法提供 3D像片,作距離及立體物件建置
306XR wrote:
MIT 追求成本更低(恕刪)



LiDAR 要能在車上商業化使用,至少要解決三個問題
1. 成本: 理由就不用解釋了
2. 干擾: 當一個十字路口,好幾台車子的LiDAR 同時在掃,或是對向車輛的LiDAR剛好和你同步對上,這干擾如何處理?
3. 對人眼的傷害!人眼看不到紅外線雷射,也是能量100%吸收,誰來擔保對人眼的影響?
  • 11
內文搜尋
X
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 11)
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?