作者 leefengynh (/65G ・ 125/250K1W)標題 Re: [情報] TSLA FSD 中國落地 目前僅開放HW4.0時間 Sat Mar 1 03:30:04 2025
噓 INIKS: 純視覺只能做到人類的程度,車禍率還不夠低,所以永遠無法實現自動駕駛,法規上永遠是“輔助駕駛”,因為出事了,車廠直接推卸責任,嘿嘿
光達可以結合AI,等於有了3D超感官的開車機器人,如果在加上道路監控數據,可以超視距資料回饋,這才叫做真° 自動駕駛,特斯拉這種半成品就上路,難怪大股東都失望,股價跌翻02/28 14:16
推 cc1plus: 樓上正解, 不過馬斯克一直宣稱純視覺就可以02/28 20:23
這是你自己坐在電腦前幻想的 還是真的有看過相關學術報告?
誰跟你說光達=超感官? 明明就是躲在電腦前幻想 完全沒有學理根據
誰又跟你說攝像頭不能超越人類?
看看這段影片fsd的反應速度 要是人類司機早就撞了
https://youtu.be/AgViaoc8OIw?t=465
看看這段影片 這種能見度 fsd一樣能駕駛
https://youtu.be/AgViaoc8OIw?t=223
我先澄清一下
1.目前除了fsd以外 , 沒有一家廠商的自駕 是ai 全部都是敲代碼
所以開發自駕的廠商 只有特斯拉需要蓋算力中心
其他廠商因為不採用ai 而是採用敲代碼
妄想繼續用窮舉法來解決 無窮邊緣案例的自動駕駛問題
所以不需要算力中心 只需要找一堆碼農寫c++ 寫條件句程式語言
2.光達比人類的感官還弱
光達會把傾盆大雨 和 濃霧 辨識為牆壁 辨識為不可穿越的實體
光達會拖累視覺 是拖累 而不是增強 更不是做第二層保障
光達是豬隊友
3.攝像機 = 人類?
去讀一下 「photon counting」 光子計數
很多人以為特斯拉用純視覺 是在使用 「影像辨識」
特斯拉送進模型訓練的資料 全是未經處理的影像
只訓練ai 每個像素點上的光子數量和差異
不做形態學的辨識
4. 所謂的超感官 是你自己幻想 那些東西全部觀察到的數據會跟影像產生矛盾
光達看到傾盆大雨 濃霧 以為是牆壁
攝像機看到的是大雨 是濃霧
請問最後做決策要相信哪個傳感器
明明是「抑制性干擾」 被你當成「加成性」
另外 濃霧 極暗的夜晚 fsd也能駕駛 因為fsd讀取的是每個像素點上的光子數目
每個像素點差幾顆光子 ai都能知道差異
https://youtu.be/AgViaoc8OIw?t=223
看一下這段影片 要這樣的濃霧之下 fsd也能正常駕駛
並不是用人類裸眼辨識環境的原理
純視覺等於人類 ??? 笑死 坐在電腦前幻想
以為在玩網路遊戲 裝備越多=越強 的小朋友
如果多傳感器=超感官
(明明就特斯拉的「光子計數」技術 才是超感官)
那麼google的waymo 怎麼搞了10年每10萬英里報警事故 還是輸給全美駕駛人平均
而且遇到瓶頸上不去
5.
看一下這些多傳感器的車廠 自動駕駛多麼廢
fsd現在是不懂「中國的交通規則」 但基本的駕駛能力完全沒問題
華為基本上算中國第一線自駕 配備大量的傳感器 能無限取得中國道路數據
又在中國道路耕耘好幾年
結果基本的開車能力 在很多地方都有問題
以下這個影片 顯示了華為連基本的無保護左轉都做不好
https://reurl.cc/O5lpKy
https://reurl.cc/O5lpyX
一個是剛進中國 不到一個禮拜 所以不懂中國交通規則 中國也禁止他拿數據
但它會開車
一個是連開車都不會的國小生 而且還在中國開了好多年 然後連基本的轉彎都還有問題
還多傳感器=超感官 明顯是沒研究過 然後自己坐在電腦前幻想的
以為在玩網路遊戲打怪 所以裝備越多越好 越加成
這種人跟逛醫院老人 以為藥吃越多種越好 有什麼不同
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.231.104.243 (臺灣)
※ 作者: leefengynh 2025-03-01 03:30:04
※ 文章代碼(AID): #1dmWx0cf (car)
※ 文章網址: https://www.ptt.cc/bbs/car/M.1740771008.A.9A9.html
※ 同主題文章:
Re: [情報] TSLA FSD 中國落地 目前僅開放HW4.0
03-01 03:30 leefengynh
※ 編輯: leefengynh (125.231.104.243 臺灣), 03/01/2025 03:36:32
推 mtc5566: 講這麼多 所以你特的FSD什麼時候才能讓你放開雙手Full Self Drive啦 我就問?1F 03/01 03:37
1.美國的fsd 系統已經容許可以放開雙手了 你還在作夢嗎?
你就問? lag這麼久還在問 連美國fsd手不用碰方向盤都不知道
2.
今年6月以後的V14版本 正式達到人類水平 而且是全球唯一最先達到人類水平的自駕
而僅僅只是人類的安全水平 當然還不夠
因此v14只是剛開始 v15 v16基本上就是遠超過人類駕駛的安全性
跟阿法狗一樣 第一代還被李世石幹掉一場
李世石成為唯一一個在圍棋幹贏ai的人
之後 啊法狗第二代開始 基本上人類已經不是對手 而且已經不靠人類的棋譜學習
人類基本上勝率=0
※ 編輯: leefengynh (125.231.104.243 臺灣), 03/01/2025 06:16:38
→ ankrro: 樓上講這麼多,可是特斯拉遇到三角錐還是hand over 給我叫我自己處理3F 03/01 07:25
噓 chandler0227: Deep Learning Sensor Fusion for Autonomous Vehicle Perception and Localization: A Review 這篇論文被引用400多次,自駕需要sensor fusion,結果你在那鬼扯其他家自駕不是AI6F 03/01 08:52
→ dslite: 現在誰家不是用ai10F 03/01 08:56
噓 chandler0227: 去看NVIDIA's DRIVE AGX platform介紹,有誰定義感測方案用影像才是AI?為了捧特刻意貶低造謠誤導其他家不是AI真的很瞎11F 03/01 09:01
推 StarburyX: AI是大家或多或少都有用 但是端到端 可不是
看了一下業界人士的訪談 目前中國還是沒找到特是怎麼做到的
現在2025已經沒有人在談什麼傳感器了 那個時代已過了理想的大語言結合 momenta有摸到一點端到端的皮毛外
其他都不行 包含華為
Waymo 目前看不到任何盈利的可能性 不是玩家了
錢大提到的論文 還是在區分感知 規控
現在頭部玩家 都在努力轉端到端
三年前 可能自駕 講要傳感器融合 還行 站的住腳
只可惜 自駕進步的太快太快了
如果傳統 感知融合 規控寫rule玩得下去 大家就不用轉端到端了14F 03/01 09:25
→ chandler0227: E2E大家都在嘗試,但也並非純依賴E2E作為解決方案,光AI黑盒模型具備不可解釋性的特性,用在車輛&醫療這類高度風險、跟安全直接相關的項目,在沒有一定的規範限制下絕對不可行,監理機關也不會隨意放行,除非能滿足FuSa跟SOTIF27F 03/01 09:51
推 sazabik: 看特黑崩潰就覺得好好笑32F 03/01 09:55
→ chandler0227: 滿足冗餘需要兩套獨立系統,互相比對確認是否失效以及失效後如何確保車輛安全,這類decision就得是rule-based,perception現階段則是neural network跟rule-based混合著應用
不管哪種類型AI,來源依舊是感測數據,說現在沒人談感測我都納悶是活在哪個平行世界?33F 03/01 10:03
推 StarburyX: 錢大別氣啊 大家討論一下 很棒的~39F 03/01 10:18
推 StarburyX: 傳統方法(多傳感器融合 高精地圖)是下限很高 上限不高 幾年前要做自駕 也只能如此
E2E 下限很低 上限超高 唯一要擔心是scaling law失效或是新的範式出現 那特就危險了
六月德州特的cybercab就要上了 初期會配安全員
傳統方法現在就是走不下去了 E2E才出現的不是?
除了對岸華為 把人工智慧 做成工人智慧 也是很猛XD
錢大提的 東西 最標準的就是Waymo41F 03/01 10:21
推 StarburyX: 阿災 前兩天看到的消息 可能還是會配安全員
監管法規的關係吧
也有可能我記錯 是加州才要安全員50F 03/01 10:42
推 francej: 技術問題不大。計程車司機多得是車亂開、身體健康不加、疲勞駕駛、見色起邪念
真正的問題只在於法規。53F 03/01 11:28
噓 PHONm: 這篇真是丟臉丟死了還不自覺…56F 03/01 11:38
噓 HakkaChipa: 誰跟你其他家不是ai... 常見ai也是手敲出來的代碼去訓練的好嗎,你以為是if else if else寫完的喔 外行就別鬧了57F 03/01 11:43
推 mtc5566: 可能前天才開始接觸ai 昨天才歐印tsla 今天就想上來現學現賣吧60F 03/01 12:03
→ mussina27: 碼農便宜一大把低成本還很會自我審查,比超算划算多了。64F 03/01 14:37
推 kazami: 這位應該又是股版過來的特粉吧 連著幾篇講的內容跟農場文沒啥兩樣...你高興就好 在這邊替特爭辨 辨贏了也不會讓它股價上漲 辨輸了也不會讓他股價下跌66F 03/01 14:56
→ carryton: 你說的大部分都正確
但關於AI還真的是越多傳感器越強
算力夠的狀況下AI能忽略錯誤資訊
只靠可見光等於資料只有一個維度
目前只用攝影機應該是算力跟能耗上有限制
E2E只是最符合目前科技進度的方案
以AI特性E2E絕對不是最佳方案71F 03/01 19:34
推 milichang: AI又不是有經驗的業內人士,你相信AI還是真正在業內受過專業訓練且樂於分享的錢大79F 03/01 20:01
→ wji4cjp6: 上圖沒有把錢大的推文丟進去,只針對原po 引述的推文跟他的辯論。AI對錢大推文的結論是「技術觀點基本正確,但對E2E AI的未來發展低估了特斯拉的潛力」,我沒有立場,純粹來學習的,感謝這棟樓的辯論81F 03/01 20:16
噓 joiedevivre: Comma ai都用end2end幾年了 一知半解不知道在吹什麼89F 03/01 23:15
--