作者 zzahoward (Cheshire Cat)
標題 Re: [閒聊] Tesla:LIDAR
時間 Thu Mar 20 09:23:42 2025

leefengynh: 人眼的構造 攝影機比不上??
黑人問號
我家攝影機全黑暗房間中看得一清二楚
人眼完全看不到
你說人眼比較強xddd?
然後你這文組硬體代工腦03/19 13:46
OBTea: 視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本沒錯
修正:視覺+光達03/19 13:05
d4015394: 攝像頭比人眼弱我還是第一次聽到
人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下來,再放大來看
不是讀醫學的在那邊胡說八道03/19 15:18

這串討論蠻有趣的,雖然兩位版友比較嗆,但我更想討論的是貼近人類視覺的ADAS

其實我本身也不是醫學和光學專業,不過歡迎指證

以ADAS視覺來說,攝影鏡頭是無法和人眼相比較的

我回應貼文有提到一件事情


*****************
視網膜Fovea幾乎等於高解析度+gimballed autofocusing stereoscopic的傳感器
目前硬體無法達到這個等級
*****************

其中人眼怎麼判斷距離和建立3D?  大家每天在用卻可能沒很了解

重要的就是焦距+兩眼視差+肌肉旋轉角度透過大腦處理繪製而成


人眼在中心區域解析度非常高,隨著中心往外擴散解析度越來越低


這也可以讓人眼在大腦中計算出整個3D+距離的概念

但攝影機"目前"就算能做到高解析度,但沒有萬向節+自動對焦機制

很難繪製出距離和3D模型

所以有一派說法,為了補足攝影機的先天劣勢且更能接近人類視覺模型

radar的測距、3D繪製和攝影機本身的mapping才是最接近人類視覺判斷的資訊

事實上Elon Musk本身完全不反對兩種不同傳感器輸入

他甚至早在2022年就說過"Only high resolution matters"

假如認為Tesla是想要複製人類駕駛資訊輸入的感官

那勢必"測距+3D"就是最後一哩路

當然當代AI能不能透過更多攝影鏡頭或是更複雜的運算去繪製出3D我就不太確定

但Radar就是補足這方面的功能


隨著Tesla購入大量LiDar進行訓練建立數據庫以及決策模型

未來會不會有一天轉彎也蠻令人好奇的

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 136.226.240.114 (臺灣)
※ 作者: zzahoward 2025-03-20 09:23:42
※ 文章代碼(AID): #1dssuWJC (car)
※ 文章網址: https://www.ptt.cc/bbs/car/M.1742433824.A.4CC.html
※ 同主題文章:
03-17 17:29 acchang
03-19 17:54 sammy98
03-19 22:34 leefengynh
Re: [閒聊] Tesla:LIDAR
03-20 09:23 zzahoward
03-21 07:54 eric112
03-21 17:02 leefengynh
zyx12320: 純視覺繪製3D不就2022年發表的佔用網路1F 03/20 09:41
我知道有這個,Tesla現在也是在多數狀態做得到,但覆蓋面有限
moom50302: 呃,特買光達已經很久的事情了,用來檢核視覺結果而已2F 03/20 09:42
有數據之後搞出新演算法要Train其實就在那邊了
nrsair: 人眼加人腦比較聰明3F 03/20 09:43
※ 編輯: zzahoward (136.226.240.114 臺灣), 03/20/2025 09:46:11
nrsair: 但是人也經常會犯錯4F 03/20 09:48
StarburyX: 特斯拉就沒在弄這些了 剩下自動停車還在用
規控頭頭 都在V12那波離職了5F 03/20 09:54
mussina27: 有什麼特殊的理由需要很耗電的LiDAR? 現有的 mmWave 4D radar 也是有很多可能性不是嗎7F 03/20 10:21
Sean0428: Andrej Karpathy 之前在no priors 節目就有提到 實際上特斯拉也有用到其他感測器 只是在training model 使用 這些數據被蒸餾成只需要鏡頭的模型在車上運行 有興趣可以去看看整篇訪問9F 03/20 10:35
dslite: 用雙鏡頭視差就能測距了 比如hitachi eyesight的acc. 也確實能像影片那樣做假景騙過它 畢竟人類對環境的觀察力遠高於目前電腦視覺只專注在某個視角內的物品
4D雷達應該也是貴 傳統車廠都沒興趣13F 03/20 11:10
kira925: 雙鏡頭就是Subaru Eyesight那一套
但是多鏡頭系統的視差怎麼做出景深也是需要好好琢磨的17F 03/20 11:15
supereva: 圖片那個我也會被騙啊XD19F 03/20 11:36
playdoom: 所以特斯拉前面,至少兩顆鏡頭,創造視差,這些鏡頭,可以在停車時,一一查看20F 03/20 12:40
leefengynh: 不會轉彎 特斯拉完全自動駕駛內部已經做出來了XDDDD接下來就是逐步先放到無人計程車裡面 之後再放到車主騙得過AP也騙不過FSD FSD你甚至不用平面照片
你直接用一層透明板 放在道路中間
透明板看過去另一側 是真實的道路
FSD一樣不會被騙
@dslite
你該多去看網上的FSD測試影片
不是拿EAP在這邊吵
一直拿google助理的對話 來說goole gemini是智障
你知道是不同人嗎 功課都不做 整天用幻想的XDDDDDDDDD我再說一次 特斯拉「完全自動駕駛」已經做出來了
已經從去年年底一直測試到現在
並且即將在6月的奧斯丁部署無人計程車
「沒有方向盤」的cybercab產線也已經佈好了
預計明年初就要量產
反對純視覺 你就該把我們研究透徹
這樣你才能精準反駁
不是總是躲在你自己的小圈圈幻想
光達車就是在馬路上生不出像樣的產品
因為物理極限就擺在那裡 光達自駕2010年就在研發了
到2025年還是不長進22F 03/20 15:23
weichungBRO: 都2025年了還在光達  傻眼
就人眼比攝像頭強好了  但反應速度 疲勞度 專注度
人都遠遠比不過機器  這樣講文組的懂嗎44F 03/20 16:23
Killercat: 3D問題算小 Occupancy Network就是為了解決單鏡頭
3D建模而有的演算法 缺點是要動 東西不動就沒輒
但是開著車基本上不可能不動 所以問題不大
Tesla也是走這個solution 所以每個方向攝影機都只有
一個 但是可以建模出大多數車身周圍的3D模型
https://zhuanlan.zhihu.com/p/575953155 有興趣可看看另外能夠利用影片做訓練 這個也是一個很大因素
不然影片就只能做tagging而已47F 03/20 19:01
iosian: 相機角分辨率要超過人眼是輕而易舉,動態範圍也是,轉向可以靠多目相機克服,有多目就有立體視覺,問題都在要花多少錢,然後LiDAR解析度是遠低於相機的55F 03/20 23:20
moom50302: 並沒有,特很早就沒再買光達了,業績和股價說明一切58F 03/21 09:10
oicla: 特去年不是有買光達嗎 去年第一季特是光達最大客戶59F 03/21 12:35

--
作者 zzahoward 的最新發文:
點此顯示更多發文記錄