国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

牛津中國(guó)小哥提出“3D-BoNet”,比3D點(diǎn)云實(shí)例分割算法快10倍!

新聞 人工智能 算法
本文提出了一種基于邊界框回歸的高效點(diǎn)云實(shí)例分割算法,通過最小化關(guān)聯(lián)代價(jià)函數(shù)來實(shí)現(xiàn)大致的邊界框回歸,并通過point mask預(yù)測(cè)來實(shí)現(xiàn)最終的實(shí)例分割。

 [[286342]]

本文提出了一種基于邊界框回歸的高效點(diǎn)云實(shí)例分割算法,通過最小化關(guān)聯(lián)代價(jià)函數(shù)來實(shí)現(xiàn)大致的邊界框回歸,并通過point mask預(yù)測(cè)來實(shí)現(xiàn)最終的實(shí)例分割。3D-BoNet不僅在ScanNet和S3DIS數(shù)據(jù)集上達(dá)到了state-of-the-art的效果,比當(dāng)前大多數(shù)算法快了10倍以上。

Introduction

 

實(shí)現(xiàn)有效的三維場(chǎng)景理解(3D scene understanding)是計(jì)算機(jī)視覺和人工智能領(lǐng)域的關(guān)鍵問題之一。近年來,針對(duì)三維點(diǎn)云理解的研究取得了顯著的進(jìn)展,在諸如點(diǎn)云目標(biāo)檢測(cè),語義分割等任務(wù)上都展現(xiàn)出了很不錯(cuò)的效果。然而,針對(duì)于點(diǎn)云實(shí)例分割的研究還處于較為初級(jí)的階段。

 

Motivation

 

如下圖所示,當(dāng)前主流的點(diǎn)云實(shí)例分割算法可以分為以下兩類:1)基于候選目標(biāo)框(Proposal-based methods)的算法,例如3D-SIS[1],GSPN[2],這類方法通常依賴于兩階段的訓(xùn)練(two-stage training)和昂貴的非極大值抑制(non-maximum suppression, NMS)等操作來對(duì)密集的proposal進(jìn)行選擇。2)無候選目標(biāo)框的算法(Proposal-free methods),例如SGPN[3], ASIS[4], JSIS3D[5], MASC[6], 3D-BEVIS[7]等。這類算法的核心思想是為每個(gè)點(diǎn)學(xué)習(xí)一個(gè)discriminative feature embedding,然后再通過諸如mean-shift等聚類(clustering)方法來將同一個(gè)instance的點(diǎn)聚集(group)到一起。這類方法的問題在于最終聚類到一起的instance目標(biāo)性(objectness)比較差。此外,此類方法后處理步驟(post-processing)的時(shí)間成本通常較高。

 

圖1. 當(dāng)前主流的點(diǎn)云實(shí)例分割算法對(duì)比

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

不同于上述兩類方法,我們提出了一個(gè)single stage, anchor free并且end-to-end的基于邊界框回歸的實(shí)例分割算法(3D-BoNet)。該算法具有如下優(yōu)勢(shì)

 

  • 相比于proposal-free的方法,3D-BoNet顯式地去預(yù)測(cè)目標(biāo)的邊界框,因此最終學(xué)到的instance具有更好的目標(biāo)性(high objectness).
  • 相比于proposal-based的方法,3D-BoNet并不需要復(fù)雜耗時(shí)的region proposal network以及ROIAlign等操作,因此也不需要NMS等post-processing步驟。
  • 3D-BoNet由非常高效的shared MLP組成,并且不需要諸如非極大值抑制,特征采樣(feature sampling),聚類(clustering)或者投票(voting)等后處理步驟,因此非常高效。

 

Overview

 

3D-BoNet的總體框架如下圖所示,它主要由Instance-level bounding box prediction和Point-level mask prediction兩個(gè)分支組成。顧名思義,bounding box prediction分支用于預(yù)測(cè)點(diǎn)云中每個(gè)實(shí)例的邊界框,mask prediction分支用于為邊界框內(nèi)的點(diǎn)預(yù)測(cè)一個(gè)mask,進(jìn)一步區(qū)分邊界框內(nèi)的點(diǎn)是屬于instance還是背景。

 

圖2. 3D-BoNet的總體框架

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

看到這里,你可能會(huì)產(chǎn)生疑惑:這個(gè)看起來跟proposal-based的框架好像也沒什么區(qū)別?

 

先說結(jié)論:區(qū)別很大。但問題是區(qū)別到底在哪里呢?

 

首先,我們可以回顧下proposal-based方法是怎么產(chǎn)生邊界框的呢?沒錯(cuò),就是根據(jù)anchor用region proposal network (RPN)來產(chǎn)生大量密集的邊界框然后再進(jìn)一步refine,但這個(gè)顯然不夠高效,而且是否真的有必要產(chǎn)生這么多密集的邊界框呢?針對(duì)這個(gè)問題,我們可以來一個(gè)大膽的假設(shè):要不不用RPN,直接讓為每一個(gè)instance回歸(regress)一個(gè)唯一的,但可能不是那么準(zhǔn)確的邊界框呢(如圖3所示)?

 

圖3. 為每一個(gè)instance回歸一個(gè)大致的邊界框示例

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

考慮到3D點(diǎn)云本身就顯式地包含了每個(gè)物體的幾何信息,我們認(rèn)為這個(gè)目標(biāo)是可行的。然后再更大膽一點(diǎn),要不直接用global feature來regress每個(gè)instance的邊界框試試?如果能做到這點(diǎn),那問題不就解決一半了嗎?

 

但新的問題馬上又來了。。首先,每個(gè)三維場(chǎng)景中所包含的實(shí)例數(shù)目是不一樣的(如何讓網(wǎng)絡(luò)自適應(yīng)的輸出不同個(gè)數(shù)的邊界框?),而且每個(gè)點(diǎn)云中的實(shí)例還是無順序的。這就意味著我們即便用網(wǎng)絡(luò)regress了一系列邊界框,也難以將這些邊界框和ground truth的邊界框一一對(duì)應(yīng)的聯(lián)系起來,進(jìn)一步帶來的問題就是:我們無法實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)的有監(jiān)督的訓(xùn)練和優(yōu)化。

 

到這里,核心的問題就變成了:我們應(yīng)該怎么去訓(xùn)練這種網(wǎng)絡(luò)呢?

 

針對(duì)這個(gè)問題,我們提出了邊界框關(guān)聯(lián)層(bounding box association layer)以及multi-criteria loss 函數(shù)來實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)的訓(xùn)練。換句話說,我們要把這個(gè)預(yù)測(cè)邊界框和ground truth邊界框關(guān)聯(lián)(配對(duì))的問題建模為一個(gè)最優(yōu)分配問題。

 

圖4. 邊界框預(yù)測(cè)分支的結(jié)構(gòu)圖

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

如何關(guān)聯(lián)?

 

為了將網(wǎng)絡(luò)預(yù)測(cè)出來的每一個(gè)邊界框與ground truth 中的邊界框唯一對(duì)應(yīng)地關(guān)聯(lián)起來,我們將其建模為一個(gè)最優(yōu)分配問題。假定 是一個(gè)二值(binary)關(guān)聯(lián)索引矩陣,當(dāng)且僅當(dāng)?shù)?個(gè)預(yù)測(cè)的邊界框分配給ground truth的邊界框時(shí)。  是關(guān)聯(lián)代價(jià)矩陣, 代表將第 個(gè)預(yù)測(cè)的邊界框分配給ground truth的邊界框的關(guān)聯(lián)代價(jià)。一般來說,代表兩個(gè)邊界框的匹配程度,兩個(gè)邊界框越匹配也即代價(jià)越小。因此,邊界框的最優(yōu)關(guān)聯(lián)問題也就轉(zhuǎn)變成為尋找總代價(jià)最小的最優(yōu)分配索引矩陣  的問題,用公式表示如下:

下一步,如何計(jì)算關(guān)聯(lián)代價(jià)矩陣?

 

衡量?jī)蓚€(gè)三維邊界框的匹配程度,最簡(jiǎn)單直觀的評(píng)價(jià)指標(biāo)就是比較兩個(gè)邊界框的最小-最大頂點(diǎn)之間的歐式距離。然而,考慮到點(diǎn)云通常都非常稀疏且不均勻地分布在3D空間中,如圖4所示,盡管候選框#2(紅色)與候選框#1(黑色)與ground truth邊界框#0(藍(lán)色)都具有相同的歐式距離,但框#2顯然具有更多有效點(diǎn)(overlap更多)。因此,在計(jì)算代價(jià)矩陣時(shí),有效點(diǎn)的覆蓋率也應(yīng)該要考慮進(jìn)來。

 

圖5. 預(yù)測(cè)邊界框與真實(shí)邊界框點(diǎn)云覆蓋率示意圖

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

為此,我們考慮以下三個(gè)方面的指標(biāo):

 

(1) 頂點(diǎn)之間的歐式距離。舉例來說,第個(gè)預(yù)測(cè)的邊界框  分配給ground truth的邊界框 的代價(jià)為:

(2) Soft IoU。給定輸入點(diǎn)云  以及第 ground truth的實(shí)例邊界框  ,我們可以直接得到一個(gè)hard的二值(binary)矢量  來表征每個(gè)點(diǎn)是否在邊界框內(nèi)。然而,對(duì)于相同輸入點(diǎn)云的第  預(yù)測(cè)框,直接獲得類似的hard的二值矢量將導(dǎo)致框架不可微(non-differentiable)。因此,我們引入了一個(gè)可微但簡(jiǎn)單的算法來獲得類似但soft的二值矢量,稱為point-in-pred-box-probability,詳情見paper Algorithm 1。  所有值都在  范圍內(nèi),這個(gè)值越高代表點(diǎn)在框內(nèi)可能性越大,值越小則對(duì)應(yīng)點(diǎn)可能離框越遠(yuǎn)。因此,我們定義第個(gè)預(yù)測(cè)的邊界框以及第ground truth的邊界框的sIoU如下:

(3) 此外,我們還考慮了之間的交叉熵。交叉熵傾向于得到更大且具有更高覆蓋率的邊界框: 

總結(jié)一下,指標(biāo)(1)盡可能地使學(xué)到的框與ground truth的邊界框盡可能地重合,(2)(3)用于盡可能地覆蓋更多的點(diǎn)并克服如圖5所示的不均勻性。第 個(gè)預(yù)測(cè)的邊界框與第ground truth的邊界框的最終關(guān)聯(lián)代價(jià)為:

 Loss function如何定義?

 

在通過邊界框關(guān)聯(lián)層之后,我們使用關(guān)聯(lián)索引矩陣  對(duì)預(yù)測(cè)邊界框 及其對(duì)應(yīng)分?jǐn)?shù)  與groundtruth進(jìn)行匹配,使得靠前的  個(gè)邊界框(ground truth的總邊界框數(shù))及與ground truth的邊界框能匹配上。

 

針對(duì)邊界框預(yù)測(cè)我們采用了多準(zhǔn)則損失函數(shù),也即三者求和:

針對(duì)邊界框分?jǐn)?shù)預(yù)測(cè)我們采用了另外一個(gè)損失函數(shù)。預(yù)測(cè)框分?jǐn)?shù)旨在表征相應(yīng)預(yù)測(cè)框的有效性。在通過關(guān)聯(lián)索引矩陣 重新排序以后,我們?cè)O(shè)定前  個(gè)真實(shí)的邊界框?qū)?yīng)的分?jǐn)?shù)為1,剩余的無效的  個(gè)邊界框?qū)?yīng)的分?jǐn)?shù)為 0。我們對(duì)這個(gè)二元分類任務(wù)使用交叉熵?fù)p失

作為另外一個(gè)并行的分支,我們的方法可以采用任意現(xiàn)有的點(diǎn)云語義分割算法(比如Sparseconv, Pointnet++等等)作為對(duì)應(yīng)的語義分割模塊,整個(gè)網(wǎng)絡(luò)最終的loss function定義為

代表語義分割分支的loss,這里我們采用標(biāo)準(zhǔn)的交叉熵。網(wǎng)絡(luò)具體的優(yōu)化和求解過程我們采用Hungarian算法,詳情請(qǐng)見[8],[9]。

 

 

如何預(yù)測(cè)instance mask?

 

相比于bounding box prediction分支,這個(gè)分支就相對(duì)簡(jiǎn)單很多了,因?yàn)橹灰吔缈蝾A(yù)測(cè)的足夠好,這個(gè)分支就相當(dāng)于做一個(gè)二值分類問題,即便瞎猜也能有50%正確率。在這個(gè)分支中,我們將點(diǎn)的特征點(diǎn)與每個(gè)邊界框和分?jǐn)?shù)融合在一起,隨后為每一個(gè)實(shí)例預(yù)測(cè)一個(gè)點(diǎn)級(jí)別的二值mask??紤]到背景點(diǎn)與實(shí)例點(diǎn)數(shù)的不平衡,我們采用focal loss[10] 對(duì)這個(gè)分支進(jìn)行優(yōu)化。 

 

圖 6. Point mask prediction分支結(jié)構(gòu)圖。

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

Experiments

 

在ScanNet(v2) benchmark上,我們的方法達(dá)到了state-of-the-art的效果,相比于3D-SIS,MASC等方法都有顯著的提升。

 

圖7. 我們的方法在ScanNet(V2)的結(jié)果

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

在Ablation study中,我們也進(jìn)一步證實(shí)了各個(gè)分支以及l(fā)oss function各個(gè)評(píng)估指標(biāo)的作用。詳細(xì)的分析見paper。

 

圖 8. Ablation study結(jié)果 (S3DIS, Area5)

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

在計(jì)算效率方面,3D-BoNet是目前速度最快的方法,相比于SGPN, ASIS, 3D-SIS等方法,3D-BoNet快了十倍以上。

 

圖 9. 不同方法處理ScanNet validation set所需要的時(shí)間消耗。

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

此外,我們還在圖10中進(jìn)一步展示了我們提出的loss function在S3DIS數(shù)據(jù)集進(jìn)行訓(xùn)練時(shí)(Area1,2,3,4,6進(jìn)行訓(xùn)練,Area 5進(jìn)行測(cè)試)的變化曲線。從圖中可以看到,我們提出的loss function能夠比較一致的收斂,從而實(shí)現(xiàn)對(duì)語義分割分支,邊界框預(yù)測(cè)分支以及point mask預(yù)測(cè)分支端到端方式的優(yōu)化。

 

圖10. 我們的方法在S3DIS數(shù)據(jù)集上的training loss

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

在圖11中我們給出了預(yù)測(cè)邊界框和邊界框分?jǐn)?shù)的可視化結(jié)果??梢钥闯?,我們方法預(yù)測(cè)出來的框并不一定非常精準(zhǔn)和緊湊。相反,它們相對(duì)比較松弛(inclusive)并且具有比較高的目標(biāo)性(high objectness)。這也與本文一開始希望得到的大致邊界框的目標(biāo)相一致。

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

圖11. 我們的方法在S3DIS數(shù)據(jù)集Area 2上的預(yù)測(cè)邊界框和分?jǐn)?shù)的可視化。紅色框表示預(yù)測(cè)的邊界框,藍(lán)色的邊界框代表ground truth。

 

當(dāng)邊界框已經(jīng)預(yù)測(cè)好以后,預(yù)測(cè)每個(gè)框內(nèi)的point mask就容易很多了。最后我們可視化一下預(yù)測(cè)的instance mask,其中黑點(diǎn)代表屬于這個(gè)instance的概率接近為0,而帶顏色的點(diǎn)代表屬于這個(gè)instance的概率接近為1,顏色越深,概率越大。

 

圖12. 預(yù)測(cè)instance mask的可視化結(jié)果。輸入點(diǎn)云總共包含四個(gè)instance,也即兩個(gè)椅子,一個(gè)桌子以及地面。從左到右分別是椅子#1,椅子#2,桌子#1,地面#2的point mask.

牛津中国小哥提出“3D-BoNet”,比3D点云实例分割算法快10倍!

最后總結(jié)一下,我們提出了一種基于邊界框回歸的高效點(diǎn)云實(shí)例分割算法,通過最小化匹配代價(jià)函數(shù)來實(shí)現(xiàn)大致的邊界框回歸,并通過point mask預(yù)測(cè)來實(shí)現(xiàn)最終的實(shí)例分割。我們提出的3D-BoNet不僅在ScanNet和S3DIS數(shù)據(jù)集上達(dá)到了state-of-the-art的效果,并且比現(xiàn)有其他算法更加高效。

 

 

 

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-12-06 13:36:00

模型數(shù)據(jù)

2023-09-05 10:36:51

3D視覺

2025-05-07 10:09:49

3D模型生成

2021-03-05 16:14:08

AI 數(shù)據(jù)人工智能

2021-03-18 15:29:10

人工智能機(jī)器學(xué)習(xí)技術(shù)

2025-01-26 10:19:21

2024-12-10 09:40:00

AI3D模型

2011-10-06 13:30:45

宏碁投影儀

2025-11-20 10:25:07

2012-11-26 12:51:44

木材3D打

2025-11-20 16:42:51

2025-02-13 08:26:26

2011-05-26 10:05:07

優(yōu)派投影機(jī)

2025-11-03 08:00:00

3D模型AI

2025-01-14 09:24:46

2011-09-22 10:07:52

奧圖碼投影儀

2024-04-23 09:30:07

3D模型

2011-08-26 14:50:23

2011-04-26 14:21:20

3DJVC投影機(jī)

2015-09-25 13:49:55

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

成人a视频在线观看| 无码aⅴ精品一区二区三区浪潮| va天堂va亚洲va影视| 日韩欧美中文字幕在线播放| 日本成年人网址| 国产精品亚洲专一区二区三区| 久久精品国产一区二区三区日韩| 999久久久精品国产| 久久青草福利网站| av日韩在线免费观看| 一本一道久久a久久精品逆3p| 后进极品白嫩翘臀在线播放| 欧美三级电影在线看| 国产综合视频一区二区三区免费| 亚洲一区二区偷拍精品| 国产主播福利| 国产精品美女久久久久久2018| 极品美女扒开粉嫩小泬| 国产成人午夜精品5599| 热这里只有精品| 国产真实乱对白精彩久久| 自拍偷拍一区二区三区| 国产一区二区三区蝌蚪| 9色视频在线观看| 国产在线精品不卡| 男人草女人视频| 北条麻妃国产九九精品视频| 91黄色小网站| 国产精品久久久久久户外露出| 337p日本| 黄色成人av在线| 国产一区精品| 日韩一区二区中文字幕| 国产白丝在线观看| 国产午夜精品视频| 免费欧美网站| 国产精品精品国产| 欧美日韩91| 亚洲欧洲一区二区福利| 成人性色生活片| 亚洲一级片网站| 一本色道久久综合狠狠躁的推荐| 麻豆电影在线播放| 精品性高朝久久久久久久| 先锋影音一区二区| 国产91色在线| 亚洲免费观看| www.成年人视频| 中文字幕综合网| 超碰免费97在线观看| 亚洲美女激情视频| 欧美sss在线视频| 成人欧美视频在线| 国产精品123区| 羞羞小视频视频| 欧美性videosxxxxx| 在线人成日本视频| 午夜精品久久久久久久久久久久| 日本成人7777| 蜜桃91精品入口| 99久久国产综合精品女不卡| 日本成本人片免费观看| 欧美精品99久久久**| 超碰aⅴ人人做人人爽欧美| 欧美极品第一页| 欧美成人综合| 黑人糟蹋人妻hd中文字幕| 亚洲欧洲综合另类| 色综合999| 日本高清视频一区| 日本不卡高清视频| 国产美女免费观看| 日韩精品免费在线观看| 欧美美女在线| 久久免费一级片| 欧美日韩在线一区| 偷拍自拍亚洲| 久久国产精品久久精品国产| 久久久99精品免费观看| a√资源在线| 午夜精品在线观看| 久久99精品久久久久久国产越南| 神马午夜dy888| 国产一区二区三区视频| 欧美+日本+国产+在线a∨观看| 成人av在线播放观看| 欧美色视频日本版| 免费观看成人性生生活片| 亚洲永久免费观看| 国产欧美日韩精品a在线观看| 免费在线视频欧美| 青青草99啪国产免费| 国产麻豆精品95视频| 在线免费av电影| 国产精品福利网站| 久久久国际精品| 欧美第一视频| 日本欧美精品久久久| 欧美日韩国产综合新一区| jizz18欧美18| 人体内射精一区二区三区| 日韩一区二区三区电影在线观看 | 国产福利在线免费观看| 国产女人18毛片水18精品| 成av人片一区二区| bt在线麻豆视频| 成人国产精品免费视频| 欧美国产激情一区二区三区蜜月| 男人的天堂免费在线视频| 官网99热精品| 五月天精品一区二区三区| 精品国产一级| 国产精品视频网站在线观看| 91麻豆精品国产自产在线| 一区二区三区午夜视频| 日本免费一二区| 97超碰国产精品女人人人爽| 久久一区二区三区四区| www.久久| a√天堂在线观看| 中文字幕欧美精品日韩中文字幕| 久久国产精品99久久人人澡| 亚洲精品白浆| 欧美三日本三级少妇三99| 一本一本大道香蕉久在线精品 | 老司机午夜免费精品视频| 国产黄在线观看免费观看不卡| 欧美自拍视频在线| 国产欧美中文在线| 一区二区日韩| 久久久久国产一区| 性色av一区二区咪爱| 成人免费视频在线观看| 亚洲精品国产精品粉嫩| 老鸭窝av在线| 日韩免费观看视频| 亚洲国产精品麻豆| 亚洲国产老妈| 国模吧精品人体gogo| 国产区二精品视| 91精品国产综合久久香蕉麻豆| 免费在线成人| av最新在线| 131美女爱做视频| 欧美激情第6页| 一区二区三区在线高清| 国产精品久久久久9999赢消| 成年人在线免费观看| 精品亚洲欧美日韩| 亚洲福利在线观看| 国产成a人亚洲精| 日韩免费成人| 国产三级av在线| 国产精品一区二区三区在线观| 日韩午夜激情电影| 福利一区福利二区| 亚洲欧美专区| 裸体免费网站| 精品国产一区二区三区麻豆免费观看完整版 | 日韩av片永久免费网站| 亚洲综合偷拍欧美一区色| 日韩中文字幕高清在线观看| 黄色大片在线看| 伊人av成人| 欧美日韩爱爱视频| 亚洲一区在线观看免费 | 中文字幕第一区综合| 亚洲视频大全| 欧美成人a交片免费看| 久久久久久久久久久久久国产精品| av在线日韩国产精品| 欧美v日韩v国产v| 欧美网站一区二区| 亚洲国产中文在线| 国产网友自拍电影在线| 国产精品自拍首页| 亚洲女人天堂成人av在线| 91亚洲男人天堂| 国产一区二区三区四区| 777电影在线观看| 最新av网址在线观看| 97精品免费视频| 亚洲va欧美va人人爽| 日日骚欧美日韩| 草草视频在线一区二区| 男人天堂综合| 欧美黄网在线观看| 国产精品户外野外| 日韩一二三区视频| 国产精品蜜臀av| 久久亚洲精选| 丝袜连裤袜欧美激情日韩| 国产视频福利在线| 日本在线xxx| 国产成人免费电影| 久久69精品久久久久久国产越南| 欧美日韩久久久一区| 日本一区二区成人| 蜜臀av性久久久久蜜臀aⅴ流畅| 欧美精品一二|