看板 car作者 Scape (缺鈣缺很大)標題 [分享] 全自動駕駛兩套方案:視覺辨識與光達時間 Mon May 6 06:26:13 2019
這篇文章是根據MIT 科學家Lex Fridman 的自動駕駛講座的部分內容而寫成的,
主要來介紹一下目前全自動駕駛所用到的各種感應器其優點與缺點。
https://i.imgur.com/BMK347H.png
目前全自動駕駛的發展大致上有兩種方案,一是視覺辨識加上深度學習,第二種
則是光達(Lidar)加上高精度地圖。另外這兩種方案都還是會用上例如雷達、超
音波雷達等感應器。
‧視覺辨識加深度學習方案
‧優點:
‧擁有最高解析度的資訊
‧大規模搜集資料與深度學習的可行性高
‧道路原先就是設計給人類的視覺使用
‧便宜
‧缺點:
‧不精確(如果沒有大量數據的話)
‧(深度學習)不可解釋、不一致
‧光達加高精度地圖方案:
‧優點:
‧可解釋、一致
‧精確
‧缺點:
‧不會隨時間經過而改善
‧(光達、製作高精度地圖)貴
而這兩套方案所用的感應器,例如雷達(Radar)、光達(Lidar)、相機(Camera)、
超音波雷達(Ultrasonic)等特性也不同以下介紹這些感應器的主要特點:
https://i.imgur.com/1u0oLqF.png
‧雷達:便宜、在極端天氣下工作狀況良好,但解析度低,是最常被用來檢測
及追蹤物體的感應器。
https://i.imgur.com/sYqLYwX.png
‧光達:造價貴,對於檢測深度(與物體之間的距離)極度精確,解析度要比雷達
來的高,擁有360度的可視範圍。
https://i.imgur.com/SsFAyU4.png
‧相機:便宜,有著高解析度,可蒐集巨量數據做為深度學習之用,但對於深度
的估計很差,在極端天氣下的工作狀況也不好。
下面這四張圖則是代表了這些感應器在各種光線與天氣條件之下其感應距離與靈
敏度的變化:
https://i.imgur.com/e4sOogJ.png
https://i.imgur.com/ZLtYiC6.png
而若是以
Proximity detection (接近or距離檢測)
Range (範圍)
Resolution (解析度)
Works in dark (黑暗中工作狀況)
Works in bright (明亮時工作狀況)
Works in snow/rain/fog (在雪/雨/霧中的工作狀況)
Provide colour/contrast (提供色彩/對比資訊)
Detects speed (檢測速度)
Sensor size (感應器體積)
Sensor cost (感應器成本)
這幾項做為指標的話,那各種感應器的表現如下:
光達:
https://i.imgur.com/lpv5ZWT.png
超音波雷達:
https://i.imgur.com/O4OsAFV.png
雷達:
https://i.imgur.com/oqo3O5p.png
相機(被動視覺):
https://i.imgur.com/u4ovri8.png
而在使用視覺辨識加上深度學習的這一項方案中,感應器融合是不可少的,將
相機、雷達、超音波雷達這三種感應器加起來可以得到以下的結果:
https://i.imgur.com/S6WX5GZ.png
而這正是Tesla 目前所使用的方案,拿來與光達方案做比較的話,可以發現這兩
種方案有以下特點:
https://i.imgur.com/1QlIhU7.png
可以發現,"相機 + 超音波雷達 + 雷達" 這些傳感器融合後就能媲美光達,而
光達不能獲取色彩/對比數據,最終同樣要加上相機,然後解決視覺辨識問題。
也就是說一但解決了視覺辨識問題,那麼只要"相機 + 超音波雷達 + 雷達"就能
覆蓋所有感應器所需要解決的事情。這也是Elon Musk 會說全自動駕駛不需要光
達的原因;至於要如何解決視覺辨識問題?那就透過深度學習來解決,而深度學
習所需要的大量數據則透過目前已經安裝在幾十萬輛Tesla 上的感應器來蒐集。
講座影片:(此篇文章用到的內容從41:55 開始)
https://youtu.be/sRxaMDDMWQQ?t=2515
講座ppt 下載:
http://bit.ly/2H0Htiz
Dr. Lex Fridman 個人網站:
https://lexfridman.com/
--
https://i.imgur.com/60khZxi.jpg
https://i.imgur.com/3YhAuMC.gif
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.34.252.81
※ 文章代碼(AID): #1SpsCQor (car)
※ 文章網址: https://www.ptt.cc/bbs/car/M.1557095194.A.CB5.html
※ 編輯: Scape (1.34.252.81), 05/06/2019 06:27:53
推 i9100: 新知推
光學雷達,簡稱光達.目前造價2萬美元,跟車價差不多了
簡單來講,相機辨識道路不容易辨識景深1F 05/06 06:38
其實透過深度學習加上相機(Tesla 前方有三個鏡頭類似人眼的視差可以製造距離感)
也能很好的判斷距離,這方面的研究很多
Tesla 也在前陣子的Tesla Autonomy Day 的展示中也有提到
光用相機得到的數據然後丟進神經網路做深度學習
所得到的距離資訊其實與用雷達檢測到的相差無幾:
(影片約2:20:44 ~ 2:21:25 這一段)
https://youtu.be/Ucp0TTmvqOE?t=8444
→ i9100: 雷達辨識,沒有顏色,需結合地圖電腦判斷.4F 05/06 06:44
推 shepherd: 謝謝分享 難怪Musk自信滿滿5F 05/06 06:44
→ i9100: 光達既是雷達,有景深,有距離,也有顏色,但sensor 2萬美元6F 05/06 06:44
其實光達也不能判別顏色,這是它最大的罩門
※ 編輯: Scape (1.34.252.81), 05/06/2019 06:57:24
不會喔
雷達是發射波長較長的微波或電磁波然後接收從物體反射的微波或電磁波來測距
超音波雷達則是用人耳聽不到頻率較高的聲波
相機是被動接收可見光
光達則是用波長較短的電磁波(或是說發射雷射or光子)
不太會互相干擾,其頻率都不同
※ 編輯: Scape (1.34.252.81), 05/06/2019 07:46:42
推 xru03: 推分享8F 05/06 07:42
→ m996360: 應該需要非常強的後處理器喔10F 05/06 08:28
所以Tesla 才自己設計專為自己訂製的AI 晶片,以獲取最好的效能與功耗
推 gk1329: 光達最大缺點就是貴 光達廠再混可能會被淘汰12F 05/06 08:30
※ 編輯: Scape (1.34.252.81), 05/06/2019 08:40:35
推 ilove0618: 光達2萬鎂算便宜了,拿來做建築物點雲掃描的都要快200萬台幣14F 05/06 08:48
→ dslite: 現在ACC會撞靜止車就是雷達解析度太低的毛17F 05/06 08:55
推 LebraDcup6: 光達不會被淘汰,就像樓上說的有其特定的市場需求19F 05/06 09:15
→ ewings: 光達可以分辨顏色。只要在鏡頭的部分加分光鏡,將雷射的波段濾掉再送到一般的彩色攝影機就行。24F 05/06 09:38
推 sazabik: 構築這套系統所需要的半導體甚多,未來十年還是半導體時代,自駕車相關周邊帶來的半導體發展還在更上一層樓,繼智慧型手機後,相關產業的就業跟投資還是正向以對26F 05/06 09:38
→ ewings: 光達不過就是轉得比較快的雷射3維掃描儀而已。
另外講雷達沒有360偵測也是錯的。那只是因為車商多半只是用固定天線,如果雷達用的是電子掃描天線ESA,或是直接像光達一樣放到車頂機械旋轉,也一樣有360度的偵測29F 05/06 09:39
推 holyduck: 長知識推
不過科技可以不斷進步 成本葉克透過時間以及大量生產模式降低 但要達到level 4 甚至5 法規才是最大的gap33F 05/06 09:59
推 iamala: 推推,這邊的工作內容真的很有趣。36F 05/06 10:04
→ ciswww: 不完全是法規,請見講座ppt第26~39頁37F 05/06 10:06
推 xo1st: 漲知識了,謝謝你38F 05/06 10:17
推 l79cm: 特黑只會說這麼好買了沒39F 05/06 10:55
推 a11629933: 好奇Tesla使用哪一種神經網路是進行深度學習40F 05/06 11:15
--