作者 LimYoHwan (gosu mage)標題 Re: [新聞] 美擬放寬自駕車監管 特斯拉飆漲快10%時間 Sat May 10 02:17:13 2025
最近一堆低能媒體說什麼「川普政府放寬自駕車法規」,
事實根本不是放寬,而是AI 把整套舊時代的法規打爆,監管被逼著重寫一套新的驗證規
則。
先講清楚:SAE 分級早就過時了
所謂的 L0~L5 是美國一個民間組織 SAE(汽車工程師學會)自己訂的參考表格 在2014
裡面都一堆過時老人 不然就是傳統車廠老人
根本不會AI
不是政府、不是法規、沒有執照功能
原本是用來描述「駕駛 vs 系統」誰負責開車的分工
問題來了:現在的 AI 自駕根本不是模組接管的邏輯。
Tesla FSD 、Wayve、Ghost 都是端到端神經網路,直接從視覺感知預測車輛軌跡,
整個決策是統一建模出來的,根本沒有「感知模組、控制模組、駕駛可以中途接手」這種
設計。
所以你拿 SAE L3 去說 FSD 不夠格,根本就是用卡式電話去檢驗 iPhone 處理器。
以前的法規是為「人類駕駛+機械控制」設計的
舊的 FMVSS 法規管的是:
有沒有方向盤、後視鏡、煞車燈、保險桿高度
車子撞牆會不會碎
軟體幾乎沒在管,因為預設人類掌控一切
但現在是什麼?
車是 AI 在開
決策是神經網路從影像推理出來的
每次 OTA 更新都可能改變整台車的駕駛邏輯
一秒做幾千萬次浮點運算來規劃路徑
你怎麼可能還用「有沒有按鈕」、「轉向盤幾度」這種標準去管這種車?
NHTSA 推出的新制度(AV STEP / ADS NPRM)有兩大特點:
1)改用行為績效評估(Performance-Based)
不再強制你裝方向盤、鏡子
改看你實際上能不能在數百種真實場景下(交織匝道、夜間行人、突發路障)安
全
駕駛
看你 OTA 更新之後,有沒有變更穩,錯誤率有沒有下降
誰表現好,誰就能上路,不管你是多模組還是端到端
2)但對「關鍵安全模組」仍然要求冗餘與容錯能力
NHTSA 沒有全面放飛,對於煞車、轉向、主電源這種會致命的控制層,
仍然需要符合 功能安全(FuSa)標準,尤其是要能進行 MRM(最小風險動作)
換句話說:你神經網路可以出錯,但你不能讓車失控
Tesla FSD 雖是單網路決策,但底層硬體有雙煞車、雙 MCU
Waymo/Cruise 則是多感測冗餘 + 遠端接管 + ASIL-D 控制器
所以結論不是「鬆綁」,而是「重寫賽制」
舊制度問:「你裝了哪些東西?」
新制度問:「你能不能跑完所有場景,而且比人還穩?」
AI 讓車自己開了,法規也要跟上
現在的監管不是不要安全,而是:
不管你怎麼設計,只要你能證明你更穩、更聰明,就放你上場。做不到,就下線。
裝一堆光達但是會撞緩撞車一樣吃屎
這才是現在 自駕產業真正的監管邏輯。
不要再用 2014 的 SAE 分級去看 2025 的 AI 自駕車了,真的跟不上。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.19.160 (臺灣)
※ 作者: LimYoHwan 2025-05-10 02:17:13
※ 文章代碼(AID): #1e7aQhVc (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1746814635.A.7E6.html
※ 同主題文章:
Re: [新聞] 美擬放寬自駕車監管 特斯拉飆漲快10%
05-10 02:17 LimYoHwan
→ ken52011219: 其他認同 但真的要切決策點是切得出來的 更何況模型跑出來的結果還是會再包一層框架 真以為你 input/output 出來就直接用嗎… 它不是黑盒子1F 05/10 02:21
傳統的模組式系統(比如 Waymo)確實是「每層切割清楚」,感知→語義理解→路徑規劃
→控制,每一層都可解釋、可插拔。但像 Tesla、Wayve 或 Ghost.ai 的做法,是真正把
這整條 pipeline 用一個神經網路端到端學出來。
不是「output 拿來再包」,而是:
Input:一整段影片或視覺序列
Model:Transformer 直接做 spatiotemporal encoding,
Output:直接產生 steering trajectory、heading、velocity profile(甚至
含?
)
控制決策就是 output,不再是給後面另一層邏輯套用的中間值。
如果你還用「模型輸出要再包一層框架」的邏輯去看,那是套用舊時代 modular stack
的概念。新時代 E2E 的精神,是「用一個大模型整合感知、理解與控制」,也因此才會
需要從 validation 到 regulation 重新設計驗證方式(例如 AV STEP)。
傳統模組:能用傳統軟安 (ISO 26262) 的單元測試、接口測試
端到端:一改參數,行為整體變;必須 Scenario coverage+大規模 shadow-te
st
這也是 NHTSA/加州 DMV 正在做 AV STEP、整合模型覆蓋率 (ML coverage)、on
-r
isengagement trace 的原因
所以觀念真的要更新,不然會不小心把 GPT 的理解套用到 Vision Transformer 控制網
路上,那就錯了。
※ 編輯: LimYoHwan (111.249.19.160 臺灣), 05/10/2025 02:30:57
→ cityport: 加州DMV連發駕照都這麼落漆..你敢相信他?5F 05/10 03:15
→ s9300519: 用政治的觀點來看不就是先射箭再畫靶?6F 05/10 03:36
噓 aasslleepp: 有種來台灣測啊 看了各種影像以後AI決定都不作動了 人類不應該有車7F 05/10 03:54
→ WunoW: 中國電動車還在卷L分級真的笑死 跟FSD完全不同次元自駕的未來只能是FSD 其他都是所謂 在座的各位
走錯路了 走再遠都是枉然不用拿來吹11F 05/10 04:44
推 linbryan: ptt專家評論從L1-L5改成P1-P100等級.以後改問你的自駕有P60?台灣學生強在算數不是數學啊15F 05/10 05:08
推 focoket12: 中共國的電動車根本比不上,B站都說是大型掃地機器人了17F 05/10 07:57
推 GingFreecss: 但其實這樣跟之前的監管比起來是放寬沒錯啊
很明顯在圖利特斯拉啊 但我很爽 嘻嘻20F 05/10 08:33
推 JKLee: 推24F 05/10 09:11
噓 maniaque: 講那麼多,責任問題 完全都不提.....唉~~~~
對,美國憲法還是他馬的一部百年老法,怎能拘束我川呢管你多會扯遙遙領先,到法院去這些都是 屁
有本事就開個場子,放一百台自駕車從場子四面八方
進去吧,告訴大家 AI 在沒有可follow 的rule
是怎樣如何順順利利開過這個場子
你這套歪理,在虛擬幣那邊也是一樣在歪來歪去25F 05/10 09:15
你把「沒有規則可以跟」跟「沒人提責任歸屬」這兩件事掛在一起,完全搞錯現在自駕車
監管的方向。
美國現在就在把所有 AI 自駕該怎麼驗證、失效時怎麼收尾,寫進正式的聯邦法規。
像 NHTSA 的 AV STEP,早就要求你模型能跑、風險場景能應付、出事能自動停車。
FMVSS 也改成要看模擬跟實測數據,不是嘴巴說過就算,測試成績要先交出來給政府看。
責任這塊更不是沒人管。Waymo、Cruise、Zoox 都已經被加州 DMV 要求買 1000 萬美元
的無過失保險,直接寫死:只要是自駕系統在開,出事你公司全包。未來 Tesla 要上無
人 permit,一樣跑不掉。
那種十字路口沒有紅綠燈、車從四面八方來的亂場景,也早就是聯邦的測試項目。現在還
規定你要交幾十萬筆 scenario、模擬通過率跟真實介入紀錄。
至於端到端 AI
現在已經證明:遇到沒有圖資、沒有車道線、交通錐亂擺,傳統 rule-based 如waymo就
會當掉,反而是像 Wayve 或 Tesla 這種 E2E 網路,用畫面直接學出「這邊該停」、「
這邊能擠」,才扛得住。
AI 自駕現在最怕的不是沒規則,是規則終於來了而且專門針對沒把模型搞清楚的人寫的
。
→ bnn: 啊你黑盒子只看整個車的出事率 責任切分就比較尷尬以後你就不能針對 喔 這油箱問題 這剎車問題 這XXX你只能說 車禍了 喔 這特斯拉全責
那你要改善時問題就 我也不知道怎麼再現問題debug跟Vibe coding一樣變成 唉我用AI再重寫一遍吧
你程式可以It just works,你車規全部重頭跑一遍送驗每次沒法debug就全部重跑個出來撞一百萬次驗出事率?32F 05/10 09:45
→ bnn: 不提安全性問題 你每次這樣重跑驗證成本多少
反正就假設你每次重練出來的AI模型都能跑完場景通關你有辦法基於過去經驗加速驗證進步來cost down嗎
還是變成你每出點小事就等於重新開發一輪產品驗證還是反正算力便宜 AI無敵 總之先跑一千套壓壓驚40F 05/10 09:51
※ 編輯: LimYoHwan (111.249.19.160 臺灣), 05/10/2025 09:58:03
噓 maniaque: 別把 刑事責任 用 民事責任 去包,好嗎???
FSD 吹幾年了,放手出事哪時候特斯拉說 "我負責"過??Waymo 是在怎樣的框架下去follow 法規,才有允許的權力??? 呵呵~~人家是在現有框架,你認為的那種過時規範下乖乖運作的
現在吹特斯拉就說是那是過時規範??
不就是 因人設事,量身訂做?
反正,到時候出事,告上法庭,大概就看到每個出庭的
都說 這不是他的責任 ,對吧?51F 05/10 10:22
現在監管的邏輯是「你技術怎麼玩都行,但失敗成本先買單、最壞情境先想好」。
Waymo、Tesla、Zoox 通通照這三條跑;誰都不能一句「不是我的責任」就閃人。真的要
比?就看誰的 MRM 可靠、誰的模型 pass 率高,跟你說的「喊個口號就免責」完全兩回
事。
正在修的 FMVSS 150/155 直接要求廠商提交「場景覆蓋率 & simulation pass rate」。
你的感測方案(LiDAR 也好 Vision-only 也好)踩不到 99.x% 就別想上路。
※ 編輯: LimYoHwan (111.249.19.160 臺灣), 05/10/2025 11:12:39
推 tslabull: 都進中國了 還在有種來台灣測 井蛙可以去看一下中國”一般人”用FSD的影片 中國可以台灣一定也能跑60F 05/10 11:19
推 no2muta: 哈哈台灣法規跟上了嗎?62F 05/10 12:53
--