一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛純視覺方案到底有哪些弊端?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2025-06-23 09:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]隨著人工智能傳感器技術(shù)的快速發(fā)展,自動駕駛汽車逐步走入公眾視野。其中,關(guān)于感知系統(tǒng)的技術(shù)路線選擇,始終是大家爭論的焦點。尤其是“純視覺方案”,也就是主要依賴攝像頭進行環(huán)境感知,不使用或極少使用激光雷達和毫米波雷達的方案,更是在以特斯拉為代表的企業(yè)推動下,成為眾多車企研究的重點,甚至在24年成為各車企追捧的主要技術(shù)方向。純視覺路線聽起來似乎更具性價比,也更接近人類駕駛員的感知方式,但隨著技術(shù)不斷推進,其弊端也逐漸顯現(xiàn)。

wKgZO2hYrZeAA8dDAAAQo00DEvw320.jpg

人類視覺≠機器視覺:認知能力的本質(zhì)區(qū)別

首先需要明確的是,純視覺方案的提出是希望自動駕駛汽車像人一樣“看懂”世界。人類駕駛者主要依靠眼睛和大腦來識別路況、判斷距離、預(yù)測風(fēng)險,視覺系統(tǒng)可以覆蓋絕大多數(shù)駕駛?cè)蝿?wù)。但這并不意味著攝像頭加神經(jīng)網(wǎng)絡(luò)的組合,就能等同于人類感知。

人類大腦擁有數(shù)百萬年進化而來的圖像處理能力,不僅能精準識別物體,還能根據(jù)經(jīng)驗、常識進行推理,如看到小孩在路邊玩耍,就知道可能要減速。但深度神經(jīng)網(wǎng)絡(luò)的“智能”是在有限樣本中訓(xùn)練出來的,在面對陌生或復(fù)雜情況時,表現(xiàn)常常不穩(wěn)定。而且,純視覺系統(tǒng)沒有“觸覺”或“深度感知”能力,無法像人類那樣通過立體視覺和肌肉反饋協(xié)同來判斷距離或速度。

因此,即使攝像頭分辨率再高,圖像處理能力再強,其在實際道路上仍面臨對突發(fā)情況判斷力不足的問題。這種“認知差距”是當(dāng)前視覺方案最大的問題根源。

wKgZO2hYrZeAchYlAAAR42n7O-I112.jpg

深度感知能力有限:距離判斷誤差大

攝像頭擅長的是二維圖像捕捉,而自動駕駛所需的是三維空間理解。為了模擬立體視覺,純視覺方案通常采用雙目或多目攝像頭,通過視差計算出物體距離。然而,這種方法存在物理極限,受視差基線距離、成像質(zhì)量和環(huán)境光線影響非常大。

在近距離(例如5米以內(nèi)),攝像頭可以較準確地估算距離;但距離一旦拉長到30米甚至更遠,基于圖像的深度計算誤差就會急劇上升。尤其在夜間、逆光、雨雪等惡劣天氣條件下,圖像質(zhì)量下降,深度估算更是容易失準。當(dāng)深夜在高速行駛時,如果誤判前方車輛的距離,就可能無法及時制動,導(dǎo)致追尾事故。

相比之下,激光雷達或毫米波雷達采用的是主動測距機制,能直接獲得目標距離和速度信息,受光照影響小,誤差更小。因此,缺乏高精度的深度感知,是純視覺方案天然的技術(shù)短板。

wKgZO2hYrZiAbn9LAAASG3BOmsQ122.jpg

對光線變化高度敏感:極端環(huán)境適應(yīng)差

純視覺系統(tǒng)非常依賴自然光照條件,其對光線變化的容忍度遠低于雷達類傳感器。在白天晴朗的環(huán)境中,攝像頭可以清晰捕捉路況細節(jié),但在夜間、隧道、強逆光、雪天或雨天等場景下,其性能會迅速下降。

在夜間行車時,若對面車輛開啟遠光燈,會造成強烈炫光干擾,使攝像頭捕獲圖像嚴重過曝,目標邊緣模糊,甚至無法識別物體;而在大霧天或大雨天,攝像頭成像質(zhì)量也會急劇下降,視覺模糊,信號噪聲變大,導(dǎo)致系統(tǒng)錯誤判斷甚至感知失敗。

反觀毫米波雷達和激光雷達,由于其不依賴可見光,而是通過電磁波或激光主動掃描環(huán)境,因此具備較強的全天候工作能力,尤其在低能見度場景下優(yōu)勢明顯。純視覺方案在這些環(huán)境下的脆弱性,不可避免地成為其實際部署時的嚴重障礙。

wKgZO2hYrZmAS5b0AAASAJELks8261.jpg

遮擋與盲區(qū)問題難以解決

自動駕駛系統(tǒng)必須能夠應(yīng)對包括視線受阻、車輛遮擋、交叉路口等各類復(fù)雜道路場景。在這些場景中,攝像頭由于依賴可見光成像,視野受限非常明顯,極容易出現(xiàn)“看不見”的盲區(qū)。

舉個例子,前車在正常行駛,其后方存在行人突然橫穿馬路的風(fēng)險。由于純視覺系統(tǒng)主要依靠攝像頭獲取前方圖像,在完全被前車遮擋的情況下,它無法“看到”正在穿越馬路的人,直到前車剎車或變道才可能識別。此時系統(tǒng)的反應(yīng)時間已非常有限。

wKgZPGhYrZmAOxNNAAARwcz1hbg512.jpg

訓(xùn)練數(shù)據(jù)依賴性強,泛化能力弱

視覺感知系統(tǒng)背后的深度學(xué)習(xí)模型,需要依賴大量標注清晰、覆蓋廣泛的訓(xùn)練數(shù)據(jù)。這些數(shù)據(jù)通常包括各種交通場景、天氣條件、道路類型等,用于訓(xùn)練系統(tǒng)識別各種物體和行為。但真實道路的變化極其復(fù)雜,總有新情況是模型“沒見過”的。

想象一下,若某地區(qū)突發(fā)暴雨,道路被積水淹沒,交通標線消失;或是出現(xiàn)一個沒被系統(tǒng)學(xué)過的異型交通標志。如果訓(xùn)練數(shù)據(jù)中沒有類似案例,純視覺模型往往就“看不懂”,甚至?xí)鞒鲥e誤決策。

更嚴重的是,深度學(xué)習(xí)模型往往具有“黑箱”屬性,難以解釋其為何做出某個判斷,給故障排查和系統(tǒng)優(yōu)化帶來巨大難度。而多傳感器融合系統(tǒng)(例如激光+視覺+雷達),由于具備多源數(shù)據(jù)校驗機制,可以在一個傳感器失效時由另一個補充,從而提供更強的魯棒性和泛化能力。

wKgZPGhYrZqAQk2FAAATCLDSk7w363.jpg

缺乏速度感知能力,難以應(yīng)對高速場景

自動駕駛系統(tǒng)不僅需要識別物體“是什么”和“在哪里”,還要判斷“它會往哪里走”、“它走得有多快”。在高速行駛場景下,這種時間敏感性尤為重要。、如在高速路上,系統(tǒng)就需要根據(jù)前方車輛的速度和加速度預(yù)測其變道行為,做出及時響應(yīng)。

攝像頭雖然能連續(xù)捕捉圖像幀,但其本身無法直接獲取物體的相對速度信息。純視覺方案通常依賴光流(optical flow)技術(shù)或目標跟蹤推斷速度,但這種方法精度不高,尤其在圖像模糊、采樣間隔變動等情況下更易失準,導(dǎo)致系統(tǒng)無法精準預(yù)測前方車輛運動趨勢。

相反,毫米波雷達可以直接提供目標的徑向速度數(shù)據(jù),極大提升系統(tǒng)對周圍動態(tài)變化的響應(yīng)能力。在高速場景下,這種能力往往決定著自動駕駛系統(tǒng)的安全性。純視覺方案在這一關(guān)鍵技術(shù)能力上的缺失,使其很難單獨勝任高速自動駕駛?cè)蝿?wù)。

wKgZO2hYrZqAcawgAAARYKtLz1c781.jpg

安全冗余不足,難以滿足L4以上自動駕駛要求

在自動駕駛等級逐步邁向L3/L4的過程中,對系統(tǒng)穩(wěn)定性、故障容忍度、安全冗余的要求極高。任何一個傳感器的短時失效,都可能導(dǎo)致嚴重后果。因此,各車企普遍采用“傳感器冗余”策略,即多個不同類型的傳感器相互印證,確保感知結(jié)果的可靠性。

純視覺方案由于成本考慮,通常不設(shè)置冗余攝像頭或多類型感知系統(tǒng)。一旦主攝像頭遭遇污染、損壞、遮擋或軟件崩潰,整個系統(tǒng)感知能力將大打折扣,甚至完全“失明”。這種單一感知模式的安全風(fēng)險,無法滿足高級別自動駕駛的可靠性要求。

尤其是在如Robotaxi、自動配送車等無人化運營場景中,無法依賴人工及時干預(yù)。一旦出現(xiàn)感知故障,車輛就只能停滯,甚至誤操作,帶來極大安全隱患。而多傳感器融合方案由于具備更強容錯能力,可通過其它傳感器“頂上”,避免系統(tǒng)全盤癱瘓。

wKgZPGhYrZqAWoeUAAATnKoQAj4729.jpg

視覺是基礎(chǔ),融合才是未來

不可否認,視覺在自動駕駛感知中扮演著核心角色。攝像頭具有成本低、體積小、信息密度高的優(yōu)點,是自動駕駛的“眼睛”。但僅靠“眼睛”無法完成所有駕駛?cè)蝿?wù),尤其是在安全和冗余要求極高的L4/L5級別自動駕駛系統(tǒng)中,必須有“耳朵”(雷達)、“手指”(觸覺)、“大腦”(地圖與高精定位)等配合。

從技術(shù)演進趨勢來看,真正具備規(guī)模部署能力的自動駕駛系統(tǒng),大多采取“多傳感器融合”路線。視覺、雷達、激光、超聲波、IMU等共同構(gòu)成復(fù)雜的傳感系統(tǒng),在不同場景下各司其職,相互補償,以實現(xiàn)更安全、更可靠的感知能力。

純視覺方案盡管在成本上具有優(yōu)勢,但從技術(shù)角度來看,其弊端決定了它無法獨立支撐高級別自動駕駛的發(fā)展。未來自動駕駛的核心,不是“去雷達”,而是“用得合理”。盲目排斥非視覺傳感器,不僅不能降低成本,反而可能增加系統(tǒng)出錯的概率,反而得不償失。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自動駕駛
    +關(guān)注

    關(guān)注

    788

    文章

    14263

    瀏覽量

    170137
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    視覺自動駕駛會有哪些安全問題?

    強調(diào)視覺系統(tǒng)的先進性。視覺自動駕駛是指在車輛自動駕駛系統(tǒng)中僅依賴攝像頭而不使用激光雷達或毫米波雷達等主動傳感器。特斯拉率先倡導(dǎo)這一路線,宣
    的頭像 發(fā)表于 06-16 09:56 ?174次閱讀
    <b class='flag-5'>純</b><b class='flag-5'>視覺</b>的<b class='flag-5'>自動駕駛</b>會有哪些安全問題?

    自動駕駛視覺替代不了激光雷達?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)的不斷發(fā)展,視覺和激光雷達(LiDAR)兩種主流環(huán)境感知成為了大家的熱議話題?;跀z像頭的“視覺
    的頭像 發(fā)表于 06-11 09:06 ?211次閱讀

    自動駕駛技術(shù)測試哪些?

    [首發(fā)于智駕最前沿微信公眾號]之前和大家從安全性、可靠性、用戶體驗以及商業(yè)利益保護等多個角度聊了為什么自動駕駛技術(shù)在落地前一定要進行測試,今天智駕最前沿就繼續(xù)帶大家聊一聊自動駕駛測試到底有哪些方法
    的頭像 發(fā)表于 06-10 09:00 ?220次閱讀
    <b class='flag-5'>自動駕駛</b>技術(shù)測試<b class='flag-5'>有</b>哪些?

    視覺自動駕駛如何理解路邊畫報上的人?

    行業(yè)來說,其實是一個值得深思的問題。隨著自動駕駛技術(shù)下沉到消費市場,基于視覺自動駕駛系統(tǒng)就是依托于車載攝像頭來識別路況,如果遇到了類似海報上的人,尤其是遇到了與真人大小類似的人物海
    的頭像 發(fā)表于 05-19 09:16 ?180次閱讀

    自動駕駛大模型中常提的Token是個啥?對自動駕駛何影響?

    近年來,人工智能技術(shù)迅速發(fā)展,大規(guī)模深度學(xué)習(xí)模型(即大模型)在自然語言處理、計算機視覺、語音識別以及自動駕駛等多個領(lǐng)域取得了突破性進展。自動駕駛作為未來智能交通的重要方向,其核心技術(shù)之一便是對海量
    的頭像 發(fā)表于 03-28 09:16 ?322次閱讀

    2024年自動駕駛行業(yè)熱點技術(shù)盤點

    感知輕地圖以及視覺等。這些技術(shù)的出現(xiàn),也代表著自動駕駛正從概念走向現(xiàn)實,今天就給大家來盤點2024年自動駕駛行業(yè)出現(xiàn)的那些技術(shù)熱點! ? 城市NOA:邁向精細化
    的頭像 發(fā)表于 01-14 10:48 ?572次閱讀

    馬斯克重申:視覺自動駕駛的未來

    近日,特斯拉始終堅持其獨特的視覺感知系統(tǒng)。這一系統(tǒng)摒棄了傳統(tǒng)的毫米波雷達,完全依賴于攝像頭與先進的人工神經(jīng)網(wǎng)絡(luò),以實現(xiàn)自動駕駛的功能。 特斯拉CEO埃隆·馬斯克近期再次就自動駕駛技術(shù)
    的頭像 發(fā)表于 12-04 14:09 ?814次閱讀

    自動駕駛HiL測試方案案例分析--ADS HiL測試系統(tǒng)#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月22日 15:20:19

    自動駕駛HiL測試方案——攝像頭仿真之視頻注入#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月17日 15:18:41

    自動駕駛HiL測試方案介紹#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月12日 18:02:07

    激光雷達與視覺方案,哪個才是自動駕駛最優(yōu)選?

    主要分為兩大類:激光雷達與視覺感知。激光雷達因其能夠提供精確的距離和形狀信息,在自動駕駛技術(shù)早期的開發(fā)中被廣泛應(yīng)用。然而,隨著計算機視覺技術(shù)的飛速進步,基于攝像頭的
    的頭像 發(fā)表于 09-29 10:47 ?1086次閱讀

    特斯拉智能駕駛|從視覺優(yōu)先的技術(shù)路徑到未來的挑戰(zhàn)?

    特斯拉作為全球智能駕駛領(lǐng)域的技術(shù)先鋒,其FSD(Full Self-Driving)方案選擇了獨特的視覺自動駕駛路線,摒棄了激光雷達和高精
    的頭像 發(fā)表于 09-12 08:57 ?4649次閱讀
    特斯拉智能<b class='flag-5'>駕駛</b>|從<b class='flag-5'>視覺</b>優(yōu)先的技術(shù)路徑到未來的挑戰(zhàn)?

    FPGA在自動駕駛領(lǐng)域哪些優(yōu)勢?

    FPGA(Field-Programmable Gate Array,現(xiàn)場可編程門陣列)在自動駕駛領(lǐng)域具有顯著的優(yōu)勢,這些優(yōu)勢使得FPGA成為自動駕駛技術(shù)中不可或缺的一部分。以下是FPGA在自動駕駛
    發(fā)表于 07-29 17:11

    FPGA在自動駕駛領(lǐng)域哪些應(yīng)用?

    控制。在視覺算法方面,F(xiàn)PGA利用自身并行處理和高速存儲器的特點,極大地加快了算法的執(zhí)行速度,提高了運算效率。 五、未來發(fā)展趨勢隨著自動駕駛技術(shù)的不斷發(fā)展,F(xiàn)PGA在自動駕駛領(lǐng)域的應(yīng)用將會更加廣泛
    發(fā)表于 07-29 17:09

    自動駕駛識別技術(shù)哪些

    自動駕駛的識別技術(shù)是自動駕駛系統(tǒng)中的重要組成部分,它使車輛能夠感知并理解周圍環(huán)境,從而做出智能決策。自動駕駛識別技術(shù)主要包括多種傳感器及其融合技術(shù),以及基于這些傳感器數(shù)據(jù)的處理和識別算法。
    的頭像 發(fā)表于 07-23 16:16 ?1417次閱讀