一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于硬件在環(huán)的無(wú)人駕駛仿真平臺(tái)

ml8z_IV_Technol ? 來源:未知 ? 作者:胡薇 ? 2018-07-15 08:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

第29屆IEEE國(guó)際智能車大會(huì)(IEEE IV 2018)于6月30日在江蘇常熟順利落幕,本屆大會(huì) 的Best Student Paper Awards(最佳學(xué)生論文獎(jiǎng))分別頒給了來自西安交通大學(xué)、加州大學(xué)伯克利分校、中山大學(xué)的三篇論文。

本屆IV大會(huì)共收到了來自34個(gè)國(guó)家的603篇論文,其中確認(rèn)接收的論文346篇,在所有接收的論文里,Automated Vehicles, Vision Sensing and Perception, and Autonomous / Intelligent Robotic Vehicles成為本屆論文最熱的關(guān)鍵詞。

IV會(huì)議共設(shè)有“BestPaperAwards”、 “BestStudentPaperAwards” 、 “ BestWorkshop / Special Session Paper Awards ” 、 “Best Poster Paper Awards ” 和 “BestApplication Paper Awards”五大獎(jiǎng)項(xiàng)。本文主要介紹獲得Best Student PaperAwards(最佳學(xué)生論文獎(jiǎng))的三篇論文,與之前BestPaper Awards論文不同,這三篇論文的第一作者都是在校學(xué)生。

IEEE IV 2018 Best Student Paper Awards

First Prize

在最佳學(xué)生論文中,獲得一等獎(jiǎng)的是來自西安交通大學(xué)的論文基于硬件在環(huán)的無(wú)人駕駛仿真平臺(tái)(Autonomous Vehicle Testing and Validation Platform: Integrated Simulation System with Hardware in the Loop)。該論文的作者為YU Chen,Shitao Chen等都來自鄭南寧院士團(tuán)隊(duì)。以下是論文簡(jiǎn)述:

隨著自動(dòng)駕駛的發(fā)展,離線測(cè)試和仿真是目前用于多種交通場(chǎng)景中無(wú)人駕駛車輛性能驗(yàn)證的一種低成本,低風(fēng)險(xiǎn)且高效率的方法。在我們的工作中因考慮到現(xiàn)今不同仿真平臺(tái)的不足,我們提出了一種新型的,基于硬件在環(huán)系統(tǒng)的仿真平臺(tái)。該平臺(tái)支持車輛動(dòng)力學(xué)仿真,各種傳感器仿真以及多種復(fù)雜交通場(chǎng)景構(gòu)建。通過硬件在環(huán)的測(cè)試與驗(yàn)證方式我們能夠有效地利用仿真環(huán)境來規(guī)避路測(cè)所帶來的潛在風(fēng)險(xiǎn)并驗(yàn)證無(wú)人車多模塊算法安全性。同時(shí)通過與真車中完全相同的硬件層溝通仿真環(huán)境與現(xiàn)實(shí)場(chǎng)景,我們能夠準(zhǔn)確有效地完成已驗(yàn)證的算法從仿真環(huán)境到真實(shí)場(chǎng)景的遷移。

1.仿真平臺(tái)開發(fā)的目的

為了保證無(wú)人駕駛車輛開發(fā)的安全性,有效性和可持續(xù)性,必須進(jìn)行廣泛的開發(fā)和測(cè)試。然而傳統(tǒng)的無(wú)人駕駛路測(cè)昂貴耗時(shí),具有風(fēng)險(xiǎn)性且只能夠在有限交通場(chǎng)景下進(jìn)行試驗(yàn)。此外,一些特殊場(chǎng)景,如極端天氣,傳感器故障,道路部分路段損毀等也不能夠進(jìn)行反復(fù)的測(cè)試和復(fù)現(xiàn)。而無(wú)人駕仿真系統(tǒng)則為這個(gè)難題提供了一種安全有效的解決途徑。借助仿真環(huán)境中對(duì)車輛動(dòng)力學(xué)控制,多傳感器仿真,多交通場(chǎng)景模擬,我們可以極大地提高開發(fā)效率,驗(yàn)證無(wú)人駕駛環(huán)境感知,車輛定位,路徑規(guī)劃以及決策控制等多模塊算法的有效性。

目前應(yīng)用于無(wú)人駕駛仿真領(lǐng)域仿真器多種多樣,被廣泛使用的主要有TORCS, PRESCAN, CarSim, Carla等。然而這些仿真器也并不能真正意義上全面地實(shí)現(xiàn)對(duì)無(wú)人車性能測(cè)試的多方面的要求。涉及到的問題有車輛模型和駕駛場(chǎng)景的逼真度,算法測(cè)試的準(zhǔn)確度,仿真流程的有效性以及仿真器自身是否對(duì)大多數(shù)開發(fā)者們友好開放等。

圖1 多仿真器對(duì)比表

實(shí)際上現(xiàn)在大多數(shù)的開源仿真器都是特別適用于無(wú)人駕駛仿真的單一或者幾個(gè)特定的模塊,并不能被應(yīng)用于所用駕駛場(chǎng)景中。一些商業(yè)化的仿真器的功能更為全面但價(jià)格也比較昂貴。因而在我們的工作中我們的目的就是構(gòu)建一個(gè)全面的,對(duì)開發(fā)者友好的仿真平臺(tái)。

此外,采用硬件在環(huán)系統(tǒng)進(jìn)行仿真是我們平臺(tái)進(jìn)行開發(fā)驗(yàn)證的核心。在硬件在環(huán)的仿真方法中,我們將待進(jìn)行測(cè)試的控制單元硬件連接到虛擬的仿真環(huán)境中來測(cè)試核心算法的可行性和控制器的有效性。這樣不僅能夠快速有效地評(píng)估算法的性能,同時(shí)也能夠極大的提升測(cè)試安全性和算法安全性。一方面基于硬件在環(huán)的仿真避免了實(shí)際道路測(cè)試可能導(dǎo)致的風(fēng)險(xiǎn),另一方面我們能夠在模擬的仿真環(huán)境中進(jìn)行各種特殊駕駛場(chǎng)景的測(cè)試從而訓(xùn)練算法,不斷提高其魯棒性,最終保證對(duì)仿真車輛安全駕駛的模擬。

圖2 硬件在環(huán)仿真系統(tǒng)示意圖

2.仿真方法介紹

圖3 仿真框架示意圖

仿真平臺(tái)包含仿真層和硬件層兩大模塊。其中仿真層包括了仿真車輛模型設(shè)計(jì),多仿真?zhèn)鞲衅髂M以及多虛擬交通場(chǎng)景構(gòu)建。硬件控制層與仿真層相連接構(gòu)成閉環(huán)測(cè)試系統(tǒng),用于全面測(cè)試和驗(yàn)證硬件和算法。仿真?zhèn)鞲衅餍畔⒁约败嚿頎顟B(tài)由仿真層輸入到算法進(jìn)行相關(guān)計(jì)算后輸出結(jié)果到硬件控制單元生成相應(yīng)的控制指令,如剎車,油門、轉(zhuǎn)向指令等,再傳入到仿真層對(duì)車輛進(jìn)行相應(yīng)控制。

首先對(duì)于仿真層中車輛動(dòng)力學(xué)的模型設(shè)計(jì),我們使用3D建模軟件先進(jìn)行車輛建模,設(shè)定相關(guān)的必要參數(shù),如重量、慣性、摩擦系數(shù)、扭矩等;考慮到實(shí)際車輛的安全性,仿真車輛的最大速度,前輪最大轉(zhuǎn)角,最大扭矩和最大胎壓等參數(shù)也需要具體設(shè)定;另外為了實(shí)現(xiàn)車輛橫向與縱向的平穩(wěn)動(dòng)力學(xué)控制,我們采用了Ackermann轉(zhuǎn)向幾何模型來保證車輛的安全轉(zhuǎn)向。

圖4 Ackermann模型

其次對(duì)于多種無(wú)人駕駛所需的傳感器的仿真,我們的平臺(tái)支持對(duì)雙目/單目相機(jī),多線激光雷達(dá)(16/32/64),超聲波雷達(dá),GPS以及慣性測(cè)量單元IMU的仿真模型以及實(shí)際功能模擬。傳感器能夠被簡(jiǎn)單快速地添加,移動(dòng)或者移除。我們也可選擇是否連接到傳感器或者隨時(shí)更新其配置參數(shù),如探測(cè)范圍,信息更新頻率,噪聲程度等。

圖5 多傳感器模擬示意圖

最后對(duì)于多種虛擬駕駛環(huán)境的構(gòu)建,主要有兩種方法。第一種是使用模型庫(kù)中提供的一些仿真模型,或者自行根據(jù)需求利用3D建模軟件構(gòu)建仿真模型,再對(duì)單個(gè)的仿真模型進(jìn)行整合從而構(gòu)建出預(yù)期的仿真場(chǎng)景。另一種方法是使用OpenStreetMap來直接通過地圖來導(dǎo)出大場(chǎng)景模型再進(jìn)行后期精細(xì)化操作。OpenStreetMap是一個(gè)強(qiáng)大的地圖編輯平臺(tái),某一局部區(qū)域甚至是某一城市的實(shí)際地圖都能夠被在線導(dǎo)出成可編輯的文件,從而方便實(shí)現(xiàn)對(duì)某一固定實(shí)際場(chǎng)景仿真,同時(shí)也很大程度上節(jié)約了場(chǎng)景構(gòu)建的時(shí)間。

圖6 利用OSM獲得場(chǎng)景模型示意圖

3.實(shí)驗(yàn)與驗(yàn)證

論文中提出的硬件在環(huán)仿真平臺(tái)可以被用來驗(yàn)證無(wú)人駕駛車輛環(huán)境感知,路徑規(guī)劃以及運(yùn)動(dòng)控制等重要模塊的算法有效性。我們分別對(duì)與這些模塊緊密相關(guān)的路徑跟隨算法、自動(dòng)泊車算法以及基于多智能體(multi-agent)的車輛跟隨算法進(jìn)行了測(cè)試與驗(yàn)證。

圖7 仿真驗(yàn)證模塊示意圖

首先對(duì)于仿真車輛的路徑跟隨算法, 其需要根據(jù)給定的行駛路徑計(jì)算出符合車輛動(dòng)力學(xué)的剎車,油門,轉(zhuǎn)向指令來實(shí)現(xiàn)平穩(wěn)的路徑跟隨過程。

然后對(duì)于自動(dòng)泊車算法,我們構(gòu)建了一個(gè)虛擬的停車場(chǎng)環(huán)境方便場(chǎng)景模擬。目標(biāo)車輛需要在行進(jìn)過程中依據(jù)傳感器信息找到距離自己最近的可用停車位,并選用合適的停車方式來規(guī)劃出停車路徑并實(shí)現(xiàn)平穩(wěn)泊車。

最后對(duì)于基于多智能體系統(tǒng)的車輛跟隨算法, 論文中假設(shè)每一輛車為一個(gè)智能體,其與周圍車輛以及駕駛環(huán)境進(jìn)行實(shí)時(shí)交互。這樣的多智能體系統(tǒng)可以用來進(jìn)行V2V以及V2I等方面的開發(fā)。論文中我們進(jìn)行了車輛跟隨算法的驗(yàn)證。通過基于增強(qiáng)學(xué)習(xí)的訓(xùn)練過程,跟隨車輛能夠始終與前車保持一定安全距離,穩(wěn)定地實(shí)現(xiàn)跟車換道等行為。

4.總結(jié)

論文中我們提出了一種新型的基于硬件在環(huán)的無(wú)人車仿真與測(cè)試平臺(tái)。其能夠很好的實(shí)現(xiàn)對(duì)車輛動(dòng)力學(xué)模型,多種傳感器以及不同駕駛場(chǎng)景的模擬。同時(shí)硬件在環(huán)的仿真方法在降低測(cè)試成本和時(shí)間的條件下,也保證了測(cè)試的安全性和驗(yàn)證了算法的安全性。

Second Prize

預(yù)測(cè)車輛在不同駕駛場(chǎng)景下的插入?yún)^(qū)域(彩色區(qū)域)

獲得最佳學(xué)生論文二等獎(jiǎng)的是來自美國(guó)加州大學(xué)伯克利分校機(jī)械工程系的Yeping Hu博士,他在論文中分享了他們?cè)谲囕v語(yǔ)義意圖和運(yùn)動(dòng)的概率預(yù)測(cè)方面的研究論文。研究涵蓋城市自動(dòng)駕駛的決策,運(yùn)動(dòng)規(guī)劃和運(yùn)動(dòng)預(yù)測(cè)。目前正在開展一項(xiàng)BDD項(xiàng)目:“基于深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的隨機(jī)政策的城市自主駕駛運(yùn)動(dòng)預(yù)測(cè)”。目前大多數(shù)研究?jī)H通過考慮特定場(chǎng)景來確定駕駛意圖的數(shù)量。然而,不同的駕駛環(huán)境通常包含各種可能的駕駛操縱。因此,需要一種能夠適應(yīng)不同流量場(chǎng)景的意圖預(yù)測(cè)方法。在Yeping Hu博士的論文中提出了一種基于語(yǔ)義的意圖和運(yùn)動(dòng)預(yù)測(cè)(SIMP)方法,可以通過使用語(yǔ)義定義的車輛行為來適應(yīng)任何駕駛場(chǎng)景。它利用基于深度神經(jīng)網(wǎng)絡(luò)的概率框架來估計(jì)周圍車輛的意圖,最終位置和相應(yīng)的時(shí)間信息。

Third Prize

最佳學(xué)生論文的三等獎(jiǎng)來自中山大學(xué)數(shù)據(jù)與計(jì)算機(jī)科學(xué)學(xué)院,該論文研究了計(jì)算機(jī)視覺的內(nèi)容,同時(shí)還是國(guó)家自然科學(xué)基金項(xiàng)目。以下是論文的主要內(nèi)容:

計(jì)算機(jī)視覺因?yàn)榭梢杂行彝ㄟ^易獲得的方式獲取周邊環(huán)境的顏色信息而成為了研究廣泛的熱門領(lǐng)域。通過攝像頭來幫助機(jī)器人或無(wú)人車?yán)斫馄渌幍耐獠凯h(huán)境也成為至關(guān)重要的一步。通過雙目視覺算法可以獲得圖像中像素點(diǎn)的深度信息從而可以對(duì)周圍場(chǎng)景進(jìn)行三維建模。然而,當(dāng)前所存在的三維空間表達(dá)形式存在有明顯的弊端,主要的問題集中在以下兩點(diǎn):第一大規(guī)模的三維場(chǎng)景數(shù)據(jù)信息量非常大,如何有效的壓縮地圖大小存在一定難度;第二是如何更大程度的保存有效信息并且保障精度。

在本文中,我們關(guān)注這些問題并且提出了一種全新的三維空間表達(dá)形式并且將其命名為Planecell。通過在深度信息的監(jiān)督下的平面轉(zhuǎn)區(qū),我們可以將平面單元投影到三維空間中去。所提出的Planecell表達(dá)方式適用于大規(guī)模的人造場(chǎng)景中,可以在不丟失像素級(jí)別精度的情況下明顯的減少存儲(chǔ)圖像大小,并且可以拓展到更多的三維重建應(yīng)用當(dāng)中。通過實(shí)驗(yàn)檢驗(yàn),我們的三維空間表達(dá)形式相比于點(diǎn)云地圖大小在同等精度下縮小了200倍,并且我們也和當(dāng)前排名靠前的深度學(xué)習(xí)雙目匹配算法得到的點(diǎn)云地圖進(jìn)行了像素級(jí)別的精度比較,同樣達(dá)到了不錯(cuò)的結(jié)果。

圖1:Planecell方法流程圖

1.方法簡(jiǎn)介

如圖一所示,本文所提出方法的輸入是一張色彩圖像和對(duì)應(yīng)的深度圖像。我們使用一種深度監(jiān)督的超像素分割算法通過在邊界更新方程中加入深度衡量項(xiàng)對(duì)左圖進(jìn)行切割。超像素分割過程使用了爬山法來減少不必要的計(jì)算量。同時(shí),我們還在邊界更新方程中加入規(guī)則化項(xiàng)來避免超像素邊界的復(fù)雜化(復(fù)雜的超像素邊界不利于保存和二維-三維轉(zhuǎn)化)。超像素的分層邊界更新只進(jìn)行到固定邊長(zhǎng)的網(wǎng)格大小,不再進(jìn)行像素級(jí)別的更新。深度圖在本文中使用雙目匹配方法來得到結(jié)果。同樣的,較為稀疏的或者是通過其他傳感器得到的深度圖也可以作為我們算法的輸入,因?yàn)槲覀兊乃惴ㄔ跀M合平面時(shí)使用了隨機(jī)取樣的方式來避免錯(cuò)誤點(diǎn)對(duì)于結(jié)果的負(fù)面影響。超像素的邊界會(huì)在平面方程擬合結(jié)果出來后進(jìn)行進(jìn)一步的更新。每一個(gè)超像素都是之后進(jìn)行重建的基本元素。

為了更高效的保存每一個(gè)超像素。我們提出一種方法來抓取每一個(gè)超像素的角點(diǎn)。因?yàn)槊恳粋€(gè)超像素都是多邊形,所以只需它們的角點(diǎn)就能完整的保存他們的邊界信息。將二維超像素投影到三維空間中后,對(duì)于已存在的三維平面,我們通過最小化全局能量方程來聚合關(guān)系為共面單元。

2.實(shí)驗(yàn)驗(yàn)證

我們根據(jù)數(shù)據(jù)集的特性,分別在三個(gè)數(shù)據(jù)集上了測(cè)試了我們的算法。三個(gè)數(shù)據(jù)集分別是KITTI Stereo、KITTI Odometry和 Middlebury Stereo 數(shù)據(jù)集。KITTI Stereo 數(shù)據(jù)集將用于測(cè)試的雙目圖片分為測(cè)試集和訓(xùn)練集,其中訓(xùn)練集部分包含了通過激光雷達(dá)獲得的視差真值。每一組圖片包含前后兩幀的左右圖共四張圖片。KITTI測(cè)試榜單所提供的室外場(chǎng)景是具有挑戰(zhàn)性的,因?yàn)槊恳环鶊D片都包含十分明顯的視差變化。我們的算法表現(xiàn)了對(duì)于 KITTI 數(shù)據(jù)集處理的優(yōu)越性,尤其是對(duì)于包含大量幾何結(jié)構(gòu)人造場(chǎng)景的圖像。為了更好的表現(xiàn)我們所提出的三維空間表達(dá)方式對(duì)于大規(guī)模大尺度輸入的處理能力,我們?cè)?KITTI Odometry 上測(cè)試了上千張雙目圖片作為輸入的結(jié)果。第三個(gè)數(shù)據(jù)集是 Middlebury Stereo 2001 數(shù)據(jù)集,其中包含了9組室內(nèi)場(chǎng)景。

我們從結(jié)果的精度、速度、內(nèi)存需求和傳達(dá)有用信息的能力等方面對(duì)我們的算法進(jìn)行了評(píng)估。我們?cè)诰壬蠈?duì)比了最基本的直接將二維像素點(diǎn)投影到三維空間點(diǎn)云的方法。接下來,我們修改了我們算法的輸入視差圖算法(包括密集、半密集和稀疏)來測(cè)量我們算法的適應(yīng)性。我們同樣對(duì)比了我們算法與基于體素的三維表達(dá)方式的優(yōu)勢(shì)。

表1 測(cè)試平臺(tái)

圖2:像素級(jí)別精度對(duì)比(左:KITTI stereo,右:Middlebury)

表2:修改視差圖輸入在KITTI數(shù)據(jù)集上的精度結(jié)果

圖3:?jiǎn)螏貓D重建結(jié)果(自上而下分別為左圖,點(diǎn)云圖,

voxel地圖和Planecell地圖)

圖4:2000幀的重建結(jié)果(89.1MB)

我們?cè)诒疚闹刑岢隽艘环N新穎的方法,用一種名為 Panecell 的基本平面單元來表示結(jié)構(gòu)三維空間。平面單元以深度感知方式提取,并且如果它們屬于應(yīng)用所提出的CRF模型的相同表面,則可以進(jìn)一步聚合。實(shí)驗(yàn)表明,我們的方法考慮了像素級(jí)精度,同時(shí)有效地表達(dá)了相似像素的位置。結(jié)果避免了點(diǎn)云映射的冗余,并限制了輸出映射大小以用于進(jìn)一步的應(yīng)用。在我們未來的工作中,我們計(jì)劃開發(fā)更復(fù)雜的平面模型,如球體和圓柱體,以適應(yīng)更多條件。我們還相信,給每個(gè)平面單元一個(gè)語(yǔ)義標(biāo)簽可以更有效地?cái)U(kuò)展對(duì)環(huán)境的理解。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2565

    文章

    52979

    瀏覽量

    767231
  • 無(wú)人駕駛
    +關(guān)注

    關(guān)注

    99

    文章

    4173

    瀏覽量

    123517

原文標(biāo)題:IV 2018 最佳學(xué)生論文獎(jiǎng)丨西交大“基于硬件在環(huán)的無(wú)人駕駛仿真平臺(tái)”論文獲最佳

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    正式上線:MotoSim智能電機(jī)仿真平臺(tái)

    MotorSim/智能電機(jī)仿真平臺(tái)峰岹科技——全球領(lǐng)先的電機(jī)驅(qū)動(dòng)控制芯片及控制系統(tǒng)提供商,近日宣布推出智能電機(jī)仿真平臺(tái)MotorSim。這款堪稱分鐘級(jí)、高精準(zhǔn)的電機(jī)專業(yè)仿真工具,主要面向電機(jī)設(shè)計(jì)工
    的頭像 發(fā)表于 07-03 15:15 ?252次閱讀
    正式上線:MotoSim智能電機(jī)<b class='flag-5'>仿真平臺(tái)</b>

    智行者科技無(wú)人駕駛小巴落地海南

    。這條串聯(lián)城市地標(biāo)的示范線路,正是智行者以"無(wú)人駕駛大腦"重塑日常公共出行的縮影——通過高效、安全、可持續(xù)的無(wú)人駕駛小巴,為智能出行注入全新動(dòng)能。
    的頭像 發(fā)表于 06-11 10:34 ?557次閱讀

    什么是低速無(wú)人駕駛,讓你一分鐘秒懂 #無(wú)人駕駛 #5g無(wú)人駕駛 #低速無(wú)人駕駛

    無(wú)人駕駛
    星創(chuàng)易聯(lián)
    發(fā)布于 :2025年06月05日 15:27:49

    無(wú)人駕駛技術(shù)未來在哪里?低速才是突破口

    ? 無(wú)人駕駛技術(shù)這幾年從實(shí)驗(yàn)室迅速走向現(xiàn)實(shí)。大眾印象中,無(wú)人駕駛常被等同于城市道路上自由穿梭的智能汽車,但實(shí)際率先實(shí)現(xiàn)商業(yè)化落地的,是低速無(wú)人駕
    的頭像 發(fā)表于 05-23 15:38 ?240次閱讀
    <b class='flag-5'>無(wú)人駕駛</b>技術(shù)未來在哪里?低速才是突破口

    無(wú)人駕駛解決方案包含哪些方面?感知、決策與控制

    ?人工智能與物聯(lián)網(wǎng)技術(shù)飛速發(fā)展的今天,無(wú)人駕駛已經(jīng)從實(shí)驗(yàn)室走向現(xiàn)實(shí)應(yīng)用場(chǎng)景。然而,一個(gè)真正成熟的無(wú)人駕駛解決方案絕非單純依靠幾項(xiàng)核心技術(shù)就能實(shí)現(xiàn),而是需要構(gòu)建一個(gè)涵蓋硬件設(shè)施、軟件系
    的頭像 發(fā)表于 04-14 10:21 ?496次閱讀
    <b class='flag-5'>無(wú)人駕駛</b>解決方案包含哪些方面?感知、決策與控制

    易控智駕發(fā)布礦山無(wú)人駕駛應(yīng)用落地成果

    近日,“易路相伴 智約共贏”無(wú)人駕駛礦用車規(guī)?;瘧?yīng)用成果發(fā)布會(huì)在三亞順利召開。作為全球領(lǐng)先的礦山無(wú)人駕駛公司,易控智駕發(fā)布了礦山無(wú)人駕駛應(yīng)用落地成果,成為行業(yè)首個(gè)突破落地1000臺(tái)無(wú)人駕駛
    的頭像 發(fā)表于 03-04 11:25 ?590次閱讀

    DeepSeek眼中的礦山無(wú)人駕駛

    “AI百曉生”——DeepSeek的爆火,引發(fā)了一場(chǎng)向AI測(cè)問未來的熱潮。而對(duì)礦山無(wú)人駕駛這個(gè)領(lǐng)域的發(fā)展,DeepSeek會(huì)給出怎樣的答案?
    的頭像 發(fā)表于 02-27 10:24 ?506次閱讀

    為什么聊自動(dòng)駕駛的越來越多,聊無(wú)人駕駛的越來越少?

    無(wú)人駕駛”與“自動(dòng)駕駛”,傻傻分不清楚?就在之前的一篇文章中,引用了王傳福的一句話,其說的是無(wú)人駕駛是“扯淡”( 相關(guān)閱讀: 無(wú)人駕駛是“扯淡”?是皇帝的新裝?),隨后也有小伙伴問,
    的頭像 發(fā)表于 02-23 10:52 ?554次閱讀
    為什么聊自動(dòng)<b class='flag-5'>駕駛</b>的越來越多,聊<b class='flag-5'>無(wú)人駕駛</b>的越來越少?

    小馬智行第六代無(wú)人駕駛Robotaxi亮相香港國(guó)際機(jī)場(chǎng)

    小馬智行進(jìn)軍又一國(guó)際大都會(huì)。近日,香港機(jī)場(chǎng)管理局宣布,載客無(wú)人車最快將在明年底前運(yùn)行。期間,香港機(jī)場(chǎng)管理局向媒體展示了多款無(wú)人駕駛車輛,這些無(wú)人駕駛車型中的大部分已經(jīng)或即將在機(jī)場(chǎng)投入使用。小馬智行第六代
    的頭像 發(fā)表于 01-03 17:07 ?873次閱讀

    東華軟件:多地無(wú)人駕駛項(xiàng)目成功落地

    近日,東華軟件互動(dòng)平臺(tái)上透露,公司無(wú)人駕駛和車路協(xié)同、車路云一體化相關(guān)技術(shù)方面取得了顯著進(jìn)展。為此,公司組建了專業(yè)的咨詢團(tuán)隊(duì)、技術(shù)團(tuán)隊(duì)及交付團(tuán)隊(duì),致力于推動(dòng)相關(guān)技術(shù)的研發(fā)與應(yīng)用。
    的頭像 發(fā)表于 11-13 17:23 ?1381次閱讀

    UWB模塊如何助力無(wú)人駕駛技術(shù)

    無(wú)人駕駛技術(shù)飛速發(fā)展的今天,精確的定位和通信能力成為了實(shí)現(xiàn)安全、高效自動(dòng)駕駛的關(guān)鍵。超寬帶(UWB)技術(shù)以其獨(dú)特的優(yōu)勢(shì),正在成為這一領(lǐng)域的新寵。 一、UWB技術(shù)簡(jiǎn)介 超寬帶技術(shù)是一種無(wú)線通信技術(shù)
    的頭像 發(fā)表于 10-31 14:05 ?903次閱讀

    特斯拉推出無(wú)人駕駛Model Y

    北京時(shí)間10月11日,特斯拉“WE,ROBOT”發(fā)布會(huì)正式舉行,特斯拉發(fā)布會(huì)上,特斯拉推出無(wú)人駕駛Model Y。 發(fā)布會(huì)上;埃隆·馬斯克乘坐Robotaxi亮相。馬斯克透露預(yù)計(jì)特斯拉明年將在
    的頭像 發(fā)表于 10-11 16:05 ?1610次閱讀

    【干貨分享】硬件環(huán)仿真(HiL)測(cè)試

    一、HiL是什么?硬件環(huán)仿真(Hardware-in-the-Loop,簡(jiǎn)稱HIL)是真的控制器連接假的被控對(duì)象,以一種高效低成本的方式對(duì)控制器進(jìn)行全面測(cè)試。它是一種用于復(fù)雜設(shè)備控制
    的頭像 發(fā)表于 09-19 17:15 ?2543次閱讀
    【干貨分享】<b class='flag-5'>硬件</b><b class='flag-5'>在</b><b class='flag-5'>環(huán)</b><b class='flag-5'>仿真</b>(HiL)測(cè)試

    文遠(yuǎn)知行無(wú)人駕駛掃路機(jī)廣東汕頭落地

    文遠(yuǎn)知行再傳佳訊,攜手廣東華達(dá)隆城市管理服務(wù)有限公司,正式廣東汕頭啟動(dòng)L4級(jí)公開道路無(wú)人環(huán)衛(wèi)商業(yè)化項(xiàng)目,標(biāo)志著文遠(yuǎn)知行的無(wú)人駕駛技術(shù)環(huán)衛(wèi)領(lǐng)域邁出了重要一步。此次合作,不僅是汕頭市首
    的頭像 發(fā)表于 08-23 17:46 ?2009次閱讀

    5G賦能車聯(lián)網(wǎng),無(wú)人駕駛引領(lǐng)未來出行

    無(wú)人駕駛車聯(lián)網(wǎng)應(yīng)用已成為智能交通領(lǐng)域的重要發(fā)展趨勢(shì)。隨著無(wú)人駕駛技術(shù)的不斷進(jìn)步和5G網(wǎng)絡(luò)的廣泛部署,5G工業(yè)路由器無(wú)人駕駛車聯(lián)網(wǎng)中的應(yīng)用日益廣泛,為
    的頭像 發(fā)表于 07-24 10:10 ?1196次閱讀
    5G賦能車聯(lián)網(wǎng),<b class='flag-5'>無(wú)人駕駛</b>引領(lǐng)未來出行