品玩2月24日訊,首個基于真實場景的車路協(xié)同自動駕駛數(shù)據(jù)集DAIR-V2X今日正式發(fā)布,開源并面向境內(nèi)用戶提供下載使用。該數(shù)據(jù)集由清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)聯(lián)合北京市高級別自動駕駛示范區(qū)、百度Apollo等單位共同發(fā)布,能夠在相同時空下實現(xiàn)車端與路端聯(lián)合視角的2D、3D標(biāo)注方法創(chuàng)新,將有效服務(wù)科研、產(chǎn)業(yè)、政府機構(gòu),有效協(xié)同各方進(jìn)行車路協(xié)同的學(xué)術(shù)研究和產(chǎn)業(yè)落地。
據(jù)介紹,此次發(fā)布的數(shù)據(jù)集,來自北京市高級別自動駕駛示范區(qū)10公里真實城市道路、10公里高速公路、以及28個路口范圍,包含來自車端、路端相機和車端、路端激光雷達(dá)等多類型傳感器的71254幀圖像數(shù)據(jù)和71254幀點云數(shù)據(jù),涵蓋晴天、雨天、霧天、白天和夜晚、城市道路與高速公路等豐富場景。
與僅包含單車端或單路端的數(shù)據(jù)集相比,該數(shù)據(jù)集提供了相同時空下車端與路端聯(lián)合視角的多模態(tài)數(shù)據(jù),并提供了不同傳感器聯(lián)合視角下的融合標(biāo)注結(jié)果,用于更好地服務(wù)車路協(xié)同算法研究和評估。此外,數(shù)據(jù)集通過半自動自學(xué)習(xí)車路協(xié)同3D融合標(biāo)注方法等創(chuàng)新,有效地減少了數(shù)據(jù)集構(gòu)建成本。
關(guān)鍵詞: 將面向境內(nèi)用戶提