男女性潮高清免费网站,久久精品国产亚洲av麻豆图片,啊灬啊别停灬用力啊岳,国产天堂亚洲国产碰碰,亚洲精品一区二区久久,久久人人爽人人爽人人片av高清 ,久久本道综合久久伊人,伊人情涩网

給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

量子位
+ 關(guān)注
2023-08-01 14:33
1.2w次閱讀
論文被CVPR 2023收錄

只需“100K大小的外掛”,就能讓自動駕駛AI識別“物體運(yùn)動狀態(tài)”的能力大幅上升!

這是一項來自香港大學(xué)計算機(jī)視覺與機(jī)器智能實驗室(CVMI Lab)和TCL AI Lab的新研究,目前論文已被CVPR 2023收錄。

給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

研究提出了一種叫做MarS3D的輕量級模型,給原本只能識別物體“是什么”的語義分割模型用上后,就能讓它們進(jìn)一步學(xué)會識別這些物體“是否在動”。

給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

而且是任意主流模型即插即用,幾乎不需要額外的計算量(推理時間只增加不到0.03秒),目前已開源。

要知道,對于靠激光雷達(dá)來判斷周圍環(huán)境的自動駕駛系統(tǒng)而言,其感知能力,很大程度上依賴于3D點云語義分割模型的準(zhǔn)確率和效率。

如果想提升模型識別“運(yùn)動物體”的能力,往往需要將繁重的室外多幀點云數(shù)據(jù)分別進(jìn)行特征提取和處理,但這種方法不僅要增加大量計算,識別性能也沒提升多少,屬實是事倍功半。

相比之下,MarS3D參數(shù)量只有約100K大小,卻能將主流點云分割模型的性能提升近5%

這究竟是怎么做到的?

首先要了解一下3D點云的兩種語義分割任務(wù),單掃描(single-scan)和多掃描(multi-scan)。

這兩種方法的核心差異,在于能否區(qū)分物體的運(yùn)動狀態(tài)。

單掃描任務(wù)只需要根據(jù)單幀點云,把場景中汽車、行人、道路等語義信息分割并標(biāo)注出來。像下圖,不同的顏色代表不同的物體,如藍(lán)色的點云代表車:

給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

多掃描任務(wù),則需要根據(jù)時序上的多幀點云,同時分割語義信息和運(yùn)動狀態(tài)。

換言之,不僅要學(xué)會區(qū)分汽車、行人、道路,還得識別這些物體是否在運(yùn)動。如汽車標(biāo)簽擴(kuò)展成“運(yùn)動的車”和“不動的車”,以及行人擴(kuò)展成“運(yùn)動的行人”和“不動的行人”:

給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

目前,自動駕駛做激光雷達(dá)點云數(shù)據(jù)的處理,主要還是通過單掃描語義分割方法。

雖然能通過擴(kuò)展標(biāo)簽、融合點云數(shù)據(jù),直接將單掃描模型訓(xùn)練成多掃描模型,從而讓AI掌握識別物體運(yùn)動狀態(tài)的能力,但存在兩個問題:

一個是性能收效一般;另一個是融合點云數(shù)據(jù)量大,導(dǎo)致這種模型復(fù)雜、計算時間長,而這正是“爭分奪秒”的自動駕駛系統(tǒng)無法接受的。

為了解決這兩個問題,讓語義分割模型又快又好地掌握識別“運(yùn)動物體”的方法,MarS3D橫空出世。

即使之前模型只能做單掃描語義分割,給它加個MarS3D后,不僅能大幅提升多掃描語義分割能力,區(qū)分物體“是否在運(yùn)動”,效果還比其他多掃描方法更好。

所以,MarS3D的核心思路是什么?

給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

具體來說,模型設(shè)計了一個基于2D CNN網(wǎng)絡(luò)的分支BEV Branch,這個模型能提取點云數(shù)據(jù)轉(zhuǎn)換的BEV(Bird’s Eye View)表征,即自上而下的鳥瞰視角。

之所以選用BEV,主要有兩個原因。

一方面,目前的運(yùn)動物體基本都是在地上跑(即使在空中飛,也幾乎不存在垂直上升的情況),也就是說,幾乎所有的運(yùn)動都在水平面上有位移,因此它能很好地反映物體在絕大部分場景中的運(yùn)動狀態(tài);

另一方面,BEV相比點云數(shù)據(jù)量更小,還能通過參考幀和特征圖相減,降低點云稀疏性帶來表征不穩(wěn)定的問題,即同樣靜態(tài)區(qū)域的表征近似,含有動態(tài)物體區(qū)域的表征距離更遠(yuǎn)。此外,多尺寸卷積對表征抽取特征圖,以保證模型對不同運(yùn)動速度的物體都有很強(qiáng)感知力。

隨后,將這個分支提取的運(yùn)動狀態(tài)信息特征、和其他被時序嵌入向量增強(qiáng)的單掃描任務(wù)模型分支3D Branch提取的語義信息特征結(jié)合起來,進(jìn)行特征融合,最終實現(xiàn)語義分割。

那么,這樣實現(xiàn)的3D點云語義分割,效果究竟怎么樣?

相比和其他輸入如RGB圖像進(jìn)行結(jié)合,論文重點測試了模型針對純點云輸入的分割效果。

從下表可見,對于SemanticKITTI數(shù)據(jù)集,在目前主流的單掃描點云分割模型如SPVCNN、SparseConv和MinkUNet上,MarS3D在只給模型增加0.1M的情況下(參數(shù)量增加不到0.5%),將性能(mIoU)分別提升了4.96%、5.65%和6.24%。

給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

同時,計算時間(延遲)只增加了19ms、14ms和28ms。

5%對于模型分割性能提升有多顯著?下圖是在兩個掃描場景中,模型增加MarS3D前和增加后的效果對比,其中左圖是增加前,中間是增加后,右邊是真實值:

給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

顯然,增加MarS3D后模型識別物體的效果要更好。

直接將分割效果和真實值對比,可見增加MarS3D后的“錯誤值”,比增加前要低不少:

給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

整個推理過程,只需要一塊英偉達(dá)GeForce RTX 3090 GPU就能搞定。

對MarS3D感興趣的小伙伴們,可以去試試了~

項目地址

https://github.com/CVMI-Lab/MarS3D

論文地址

https://arxiv.org/abs/2307.09316

本文來自微信公眾號“量子位”(ID:QbitAI),作者:蕭簫,36氪經(jīng)授權(quán)發(fā)布。

[免責(zé)聲明]

原文標(biāo)題: 給自動駕駛AI搞個“外掛”,0.1M就能顯著提升運(yùn)動狀態(tài)判別力,來自港大&TCL

本文由作者原創(chuàng)發(fā)布于36氪企服點評;未經(jīng)許可,禁止轉(zhuǎn)載。

資深作者量子位
0
消息通知
咨詢?nèi)腭v
商務(wù)合作
主站蜘蛛池模板: 被灌满精子的波多野结衣| 精品国产精品三级精品av网址| 少妇被粗大的猛烈进出96影院| h无码动漫在线观看| 亚洲精品欧美综合四区| 99久久伊人精品综合观看| 给我播放片在线| 我们高清日本免费观看| 老熟妇仑乱视频一区二区| 久久综合精品国产丝袜长腿| 少妇伦子伦情品无吗| 欧亚乱熟女一区二区三区在线| 午夜理论片yy8860y影院| 亚洲av无码av在线播放| 巨胸不知火舞露双奶头无遮挡 | 日本熟妇大乳| 国产成人av在线免播放观看更新| 亚洲精品人成无码中文毛片| 456亚洲影院| 色猫咪av在线观看| 无码毛片aaa在线| 巨人精品福利官方导航| 美女视频很黄很a免费| 天堂а√在线最新版中文下载| 美女视频| 污18禁污色黄网站免费| 后入到高潮免费观看| 国产 欧美 亚洲 中文字幕 | chinese熟女熟妇1乱| 国产三级无码内射在线看| 哒哒哒电影免费观看在线高清 | 亚洲人成在线影院| 国产第一页浮力影院入口| 女人乱人伦| 欧美极度残忍变态另类电影| japanese熟睡侵犯| 女做爰猛烈叫床99视频| 国产动作大片中文字幕| 国产丰满老熟女重口对白| a在线视频| 欧美成人性色生活片|