《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業界動態 > 自動駕駛的車輛檢測技術詳解

自動駕駛的車輛檢測技術詳解

2023-01-29
來源:OFweek
關鍵詞: 自動駕駛 LiDDAR ADAS

  本文來源:智車科技

  / 導讀 /

  對于目前火熱的自動駕駛而言,普通人可能會產生疑問,自動駕駛系統如何感知周圍環境并做出相應的合理的決定并執行?其實,自動駕駛技術的主要模塊共三大類,即感知、規劃和控制。它們之間相互協作,共同為車輛的安全性與舒適性保駕護航。簡單來說,感知由環境建模和本地化組成,它們分別依賴于外界和本體的傳感器。規劃旨在基于感知結果傳遞的信息來生成最佳軌跡,以便到達給定的目的地。最后,控制模塊專用于通過命令車輛的執行器來跟蹤生成的軌跡。

  在這其中,感知模塊作為自動駕駛的“眼睛”,是車輛檢測的主要技術,也是自動駕駛自主行駛的基礎與前提。

  作為軟件棧的最上游,感知模塊目前是自動駕駛領域最為火熱的方向,而只有成熟解決該塊難題,自動駕駛才能翻過一座山,繼續向下游決策大腦領域發起總攻。本文將帶領讀者詳細了解目前最為關鍵的感知檢測技術。

  1

  什么是自動駕駛的感知模塊?

  感知是將各類硬件傳感器采集到的數據進行收集、處理,并生成實時的感知結果的過程。感知層的傳感器類型一般包括激光雷達、攝像頭、毫米波雷達、超聲波雷達、速度和加速度傳感器等。對于不同的傳感器,其優勢與特征都是各不相同的,大多數自動駕駛都需要配備多種傳感器,才能在復雜的世界中對外界物體進行盡可能完美地感知。

  激光雷達(LiDDAR):能釋放多束激光,接受物體反射信號,計算目標與自身的距離。激光雷達提供生成環境的3D點云圖像提供一系列的(x, y, z)坐標,與已有的高精度地圖上的坐標進行對比,就可以很精確地做出車輛定位。激光雷達是自主發射光線并搜集反射信號,因此可以在夜間環境工作。但當天氣條件惡劣,如大雪大霧等,會對激光造成影響,使得準確性下降。

1.png

  毫米波雷達:毫米波雷達發出和接收的是電磁波,與激光雷達相比毫米波雷達會有很多測量短距離的場景,如側向警示、倒車警示等。全天候工作使其不可或缺,但分辨率低,同樣難以成像。相比于激光雷達,毫米波的技術非常成熟,從上世紀90年代開始應用于自適應巡航。毫米波雷達憑借可穿透塵霧、風雪、不受惡劣天氣影響、可全天候工作的絕對優勢,成為自動駕駛不可或缺的主力傳感器。

  攝像頭:自動駕駛的“眼睛”,識別標識、物體,但無法點陣建模、遠距測距。攝像頭的技術最為成熟,車載應用起步最早,在ADAS階段作為絕對主流的視覺傳感器。進入自動駕駛時代,由于攝像頭獨有的視覺影像識別功能,是名副其實的自動駕駛的眼睛。根據多傳感器系統的融合,攝像頭需要至少6個以上。目前產業內的龍頭由于成本、技術和客戶等優勢,新進入者不容易獲得競爭優勢。

  在擁有了每種傳感器所感知到的物體之后,接下來便是將其融合。

  2

  感知融合技術

  進行自動分析和綜合,以完成所需的決策和估計而進行的信息處理過程。和人的感知相似,不同的傳感器擁有其他傳感器不可替代的作用,當各種傳感器進行多層次,多空間的信息互補和優化組合處理,最終產生對觀測環境的一致性解釋。

  多傳感器融合的技術以及工程化落地難度無疑是復雜的,那么為何眾多自動駕駛公司依然趨之若鶩,想要攻克工程落地中的一個個難題?這是因為多傳感器融合可以很好地應用上每個傳感器自身的優勢,統一之后為下游輸出一個更加穩定、全面的感知信息,讓下游規控模塊能夠根據這些精確穩定的結果實現車輛最終的安全駕駛。可以說一個好的感知融合模塊,將極大提升決策的精準性與安全性,也將直接代表了自動駕駛最終的智能表現水平。

2.png

  3

  感知模塊的技術分類

  其中無人駕駛的視覺感知系統都基于神經網絡的深度學習視覺技術,應用于無人駕駛領域,主要分為四個模塊:動態物體檢測(DOD:Dynamic Object Detection)、通行空間(FS:Free Space)、車道線檢測(LD:Lane Detection)、靜態物體檢測(SOD:Static Object Detection)。

  1. 動態物體檢測(DOD: Dynamic Object Detection)

  動態物體檢測的目的是對車輛(轎車、卡車、電動車、自行車)、行人等動態物體的識別。檢測的難點包括 檢測類別多、多目標追蹤、測距精度;外界環境因素復雜,遮擋情況多,朝向不一;行人、車輛類型種類眾多,難以覆蓋,容易誤檢;加入追蹤、行人身份切換等眾多挑戰。

  2. 通行空間(FS: Free Space)

  空間檢測是對車輛行駛的安全邊界(可行駛區域)進行劃分,主要針對車輛、普通路邊沿、側石邊沿、沒有障礙物可見的邊界、未知邊界等進行劃分。檢測的難點包括 復雜環境場景時,邊界形狀復雜多樣,導致泛化難度較大。

  不同于其它有明確的單一的檢測類型的檢測(如車輛、行人、交通燈),通行空間需要準確劃分行駛安全區域,以及對影響車輛前行的障礙物邊界。但是在車輛加減速、路面顛簸、上下坡道時,會導致相機俯仰角發生變化,原有的相機標定參數不再準確,投影到世界坐標系后會出現較大的測距誤差,通行空間邊界會出現收縮或開放等問題。

3.png

  3. 車道線檢測(LD: Lane Detection)

  車道檢測的目的是對各類車道線(單側/雙側車道線、實線、虛線、雙線)進行檢測,還包括線型的顏色(白色/黃色/藍色)以及特殊的車道線(匯流線、減速線等)等進行檢測。目前是能在輔助駕駛領域有著較為成熟的應用。

  與此同時,車道檢測的難點也很多,包括線型種類多,不規則路面檢測難度大。如遇地面積水、無效標識、修補路面、陰影情況下,車道線易被誤檢、漏檢。彎曲的車道線、遠端的車道線、環島的車道線等情況的擬合難度較大,檢測結果易模糊不清等。

  4. 靜態物體檢測(SOD: Static Object Detection)

  靜態物體檢測是對交通紅綠燈、交通標志等靜態物體的檢測識別。這也是自動駕駛行駛中遇到最多的物體之一。其中紅綠燈、交通標識屬于小物體檢測,在圖像中所占的像素比極少,尤其遠距離的路口,識別難度更大。

  而視覺檢測,在強光照的情況下,有時人眼都難以辨別,而停在路口的斑馬線前的汽車,需要對紅綠燈進行正確地識別才能做下一步的判斷。交通標識種類眾多,采集到的數據易出現數量不均勻的情況,導致檢測模型訓練不完善。

  4

  總結

  從上述對于目前感知模塊的總結來看,現環境的感知技術較于之前已經有了巨大的提升,從目前輔助駕駛的落地程度就可見一斑。但與此同時,要想實現真正的無人駕駛,需要達到人肉眼的檢測精度及穩定性,對于感知模塊來說是一個巨大的挑戰。并且由于深度學習算法的天然缺陷,如何應對數據集里從未見過的物體,如何處理極端場景下的Corner case,將會是阻礙在感知發展前的一道難題。而只有充分解決了這些問題,真正的無人駕駛才有可能落地。





更多信息可以來這里獲取==>>電子技術應用-AET<<

新聞圖片.jpg


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 99在线精品免费视频| 久久精品国产导航| 精品伊人久久久| 国产乱人视频在线播放不卡| 色屁屁www欧美激情在线观看| 在线天堂中文www官网| 一个男的操一个女的| 扒开双腿疯狂进出爽爽爽动态图 | 欧美日韩一区二区综合| 亚洲黄色一级毛片| 精品乱码久久久久久久| 四虎www成人影院| 菠萝蜜视频在线看| 国产无遮挡裸体免费视频在线观看 | 久久男人av资源网站无码软件| 最近中文字幕在线mv视频在线| 亚洲国产人成在线观看| 毛片免费视频在线观看| 亚洲精品高清国产一久久| 男朋友想吻我腿中间部位| 半甜欲水兄妹np| 精精国产XXXX视频在线| 国产xxxx做受视频| 视频在线观看国产| 国产免费内射又粗又爽密桃视频 | 欧美午夜春性猛交xxxx| 亚洲无人区视频大全| 欧美肥老太肥506070| 亚洲精品国产精品乱码不99| 爱情岛永久免费| 亚洲蜜芽在线精品一区| 特黄特色大片免费播放器999| 伊人色综合九久久天天蜜桃| 真实国产伦子系| 免费观看激色视频网站(性色) | 国产综合色在线视频区| 91av国产精品| 国产精品视频李雅| 88国产精品欧美一区二区三区 | 2021国产麻豆剧传媒仙踪林| 国产精品爽爽影院在线|