国产精品天干天干,亚洲毛片在线,日韩gay小鲜肉啪啪18禁,女同Gay自慰喷水

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

60項(xiàng)基于深度學(xué)習(xí)的SLAM頂會(huì)開源方案匯總(上篇)

2023-02-01 11:06 作者:3D視覺工坊  | 我要投稿

0. 筆者個(gè)人體會(huì)

深度學(xué)習(xí)結(jié)合SLAM是近年來很熱門的研究方向,也因此誕生了很多開源方案。筆者最近在閱讀SLAM綜述論文“A Survey on Deep Learning for Localization and Mapping: Towards the Age of Spatial Machine Intelligence”,該綜述參考了255篇SLAM領(lǐng)域的頂會(huì)頂刊論文,并且涵蓋了VO、建圖、特征提取、定位、描述子提取、BA優(yōu)化、回環(huán)、數(shù)據(jù)集等多個(gè)方向,非常全面。也因此,筆者一直想整理下文章中出現(xiàn)的開源項(xiàng)目,用于在后續(xù)工作中進(jìn)行對(duì)比。本文將對(duì)該綜述中出現(xiàn)的開源方案進(jìn)行整理(2018年以后),并附上摘要和論文信息。雖然可能文章并不是最新的,但每項(xiàng)開源工作都是頂會(huì)頂刊,設(shè)計(jì)思路很巧妙,參考價(jià)值很高。由于方案較多,因此將分上下兩節(jié)進(jìn)行介紹。本節(jié)將介紹里程計(jì)、建圖、特征提取、SLAM、回環(huán)方案以及論文中提到的兩個(gè)數(shù)據(jù)集。

來源:微信公眾號(hào)「3D視覺工坊」

1. 里程計(jì)

里程計(jì)(VO/VIO/IO/LO/LIO)估計(jì)傳感器的自我運(yùn)動(dòng),并將傳感器之間的相對(duì)運(yùn)動(dòng)整合到全局姿態(tài)中。深度學(xué)習(xí)方法能夠從傳感器數(shù)據(jù)中提取高級(jí)特征表示,從而提供解決里程計(jì)問題的替代方法,而不需要手工設(shè)計(jì)的特征提取器?,F(xiàn)有的基于深度學(xué)習(xí)的里程計(jì)模型可以分為端到端里程計(jì)和混合里程計(jì),前者完全基于神經(jīng)網(wǎng)絡(luò),后者是經(jīng)典里程計(jì)算法和深度神經(jīng)網(wǎng)絡(luò)的組合。根據(jù)訓(xùn)練階段真實(shí)標(biāo)簽的可用性,端到端系統(tǒng)可以進(jìn)一步分為有監(jiān)督和無監(jiān)督。

1)GeoNet

標(biāo)題:GeoNet: Unsupervised Learning of Dense Depth, Optical Flow and Camera Pose作者:Zhichao Yin, Jianping Shi

單位:商湯研究院來源:2018 CVPR

原文鏈接:https://arxiv.org/abs/1803.02276

代碼鏈接:https://github.com/yzcjtr/GeoNet

摘要:我們提出了一個(gè)聯(lián)合無監(jiān)督學(xué)習(xí)框架GeoNet,用于從視頻中估計(jì)單目深度、光流和自運(yùn)動(dòng)。三個(gè)組件通過3D場(chǎng)景幾何的性質(zhì)耦合在一起,通過我們的框架以端到端的方式共同學(xué)習(xí)。具體來說,通過對(duì)單個(gè)模塊的預(yù)測(cè)提取幾何關(guān)系,然后將其組合為圖像重建損失,分別對(duì)靜態(tài)和動(dòng)態(tài)場(chǎng)景部分進(jìn)行推理。此外,我們提出了一種自適應(yīng)幾何一致性損失,以增加對(duì)異常值和非朗伯區(qū)域的魯棒性,有效地解決了遮擋和紋理模糊問題。在KITTI駕駛數(shù)據(jù)集上的實(shí)驗(yàn)表明,我們的方案在三個(gè)任務(wù)中都取得了最好的結(jié)果,性能優(yōu)于之前的無監(jiān)督方法,與有監(jiān)督方法相當(dāng)。

2)Depth-VO-Feat

標(biāo)題:Unsupervised Learning of Monocular Depth Estimation and Visual Odometry with Deep Feature Reconstruction

作者:Huangying Zhan, Ravi Garg, Chamara Saroj Weerasekera, Kejie Li, Harsh Agarwal, Ian Reid

單位:阿德萊德大學(xué)、澳大利亞機(jī)器人視覺中心、印度理工學(xué)院

來源:2018 CVPR

原文鏈接:arxiv.org/abs/1803.0389

代碼鏈接:github.com/Huangying-Zh

摘要:盡管基于學(xué)習(xí)的方法在單視圖深度估計(jì)和視覺里程計(jì)中顯示出有希望的結(jié)果,但是大多數(shù)現(xiàn)有的方法以監(jiān)督的方式處理任務(wù)。最近的單視圖深度估計(jì)方法通過最小化光度誤差探索了在沒有完全監(jiān)督的情況下學(xué)習(xí)的可能性。在本文中,我們探索了使用雙目序列學(xué)習(xí)深度和視覺里程計(jì)。雙目序列的使用使得能夠使用空間(在左右對(duì)之間)和時(shí)間(向前向后)光度扭曲誤差,并且將場(chǎng)景深度和相機(jī)運(yùn)動(dòng)約束在共同的真實(shí)世界比例中。在測(cè)試時(shí),我們的框架能夠從單目序列中估計(jì)單視圖深度和雙視圖里程計(jì)。我們還展示了如何通過考慮深度特征的扭曲來改善標(biāo)準(zhǔn)光度扭曲損失。我們通過大量實(shí)驗(yàn)表明:(I)針對(duì)單視圖深度和視覺里程計(jì)的聯(lián)合訓(xùn)練改進(jìn)了深度預(yù)測(cè),因?yàn)閷?duì)深度施加了額外的約束,并且實(shí)現(xiàn)了視覺里程計(jì)的有競(jìng)爭(zhēng)力的結(jié)果;(ii)對(duì)于單視圖深度估計(jì)和視覺里程計(jì),基于深度特征的扭曲損失改進(jìn)了簡(jiǎn)單的光度扭曲損失。在KITTI駕駛數(shù)據(jù)集上,我們的方法在兩個(gè)任務(wù)上都優(yōu)于現(xiàn)有的基于學(xué)習(xí)的方法。

3)CNN-SVO

標(biāo)題:CNN-SVO: Improving the Mapping in Semi-Direct Visual Odometry Using Single-Image Depth Prediction

作者:Shing Yan Loo, Ali Jahani Amiri, Syamsiah Mashohor, Sai Hong Tang, Hong Zhang

單位:阿爾伯塔大學(xué)、馬來西亞普特拉大學(xué)

來源:2019 ICRA

原文鏈接:arxiv.org/abs/1810.0101

代碼鏈接:github.com/yan99033/CNN

摘要:幀間可靠的特征對(duì)應(yīng)是視覺里程計(jì)(VO)和視覺同步定位與地圖創(chuàng)建(V-SLAM)算法的關(guān)鍵步驟。與現(xiàn)有的VO和V-SLAM算法相比,半直接視覺里程計(jì)(SVO)具有兩個(gè)主要優(yōu)點(diǎn),這兩個(gè)優(yōu)點(diǎn)導(dǎo)致了最先進(jìn)的幀速率相機(jī)運(yùn)動(dòng)估計(jì):直接像素對(duì)應(yīng)和概率映射方法的有效實(shí)現(xiàn)。根據(jù)單幅圖像深度預(yù)測(cè)網(wǎng)絡(luò)的深度預(yù)測(cè),初始化特征位置深度的均值和方差,從而改進(jìn)SVO映射。通過顯著降低初始化圖點(diǎn)的深度不確定性(即,以深度預(yù)測(cè)為中心的小方差),好處是雙重的:視圖之間的可靠特征對(duì)應(yīng)和快速收斂到真實(shí)深度以便創(chuàng)建新的圖點(diǎn)。我們用兩個(gè)室外數(shù)據(jù)集來評(píng)估我們的方法:KITTI數(shù)據(jù)集和Oxford Robotcar數(shù)據(jù)集。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的SVO映射提高了魯棒性和攝像機(jī)跟蹤精度。

4)RNN-Depth-Pose

標(biāo)題:Recurrent Neural Network for (Un-)supervised Learning of Monocular VideoVisual Odometry and Depth

作者:Rui Wang, Stephen M. Pizer, Jan-Michael Frahm

單位:北卡羅來納大學(xué)教堂山分校

來源:2019 CVPR

原文鏈接:arxiv.org/abs/1904.0708

代碼鏈接:github.com/wrlife/RNN_d

摘要:基于深度學(xué)習(xí)的單視角深度估計(jì)方法最近表現(xiàn)出非常有前景的結(jié)果。然而,這類方法忽略了人類視覺系統(tǒng)中確定深度最重要的特征之一,即運(yùn)動(dòng)。我們提出了一種基于學(xué)習(xí)的多視角稠密深度圖和里程計(jì)估計(jì)方法,該方法使用循環(huán)神經(jīng)網(wǎng)絡(luò)( Recurrent Neural Networks,RNN ),并利用多視角圖像重投影和前后向流一致性損失進(jìn)行訓(xùn)練。我們的模型可以在有監(jiān)督甚至無監(jiān)督的模式下進(jìn)行訓(xùn)練。它設(shè)計(jì)用于從輸入幀具有時(shí)間相關(guān)性的視頻中估計(jì)深度和視覺里程計(jì)。然而,它也推廣到單視角深度估計(jì)。在KITTI駕駛數(shù)據(jù)集上,我們的方法在基于單視角和多視角學(xué)習(xí)的深度估計(jì)上取得了優(yōu)于現(xiàn)有方法的結(jié)果。

5)DF-VO

標(biāo)題:Visual Odometry Revisited: What Should Be Learnt?

作者:Huangying Zhan, Chamara Saroj Weerasekera, Jiawang Bian, Ian Reid

單位:阿德萊德大學(xué)

來源:2020 ICRA

原文鏈接:arxiv.org/abs/1909.0980

代碼鏈接:github.com/Huangying-Zh

摘要:在這項(xiàng)工作中,我們提出了一種單目視覺里程計(jì)(VO)算法,該算法利用了基于幾何的方法和深度學(xué)習(xí)。大多數(shù)現(xiàn)有的具有優(yōu)越性能的VO/SLAM系統(tǒng)是基于幾何的,并且必須針對(duì)不同的應(yīng)用場(chǎng)景進(jìn)行精心設(shè)計(jì)。此外,大多數(shù)單目系統(tǒng)都存在尺度漂移問題。最近的一些深度學(xué)習(xí)作品以端到端的方式學(xué)習(xí)VO,但這些深度系統(tǒng)的性能仍然無法與基于幾何的方法相提并論。在這項(xiàng)工作中,我們重溫了VO的基礎(chǔ)知識(shí),并探索了將深度學(xué)習(xí)與核幾何和透視n點(diǎn)(PnP)方法相結(jié)合的正確方法。具體來說,我們訓(xùn)練兩個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)來估計(jì)單視圖深度和兩視圖光流作為中間輸出。通過深度預(yù)測(cè),我們?cè)O(shè)計(jì)了一種簡(jiǎn)單但魯棒的幀間VO算法(DF-VO ),該算法優(yōu)于純粹的基于深度學(xué)習(xí)和基于幾何的方法。更重要的是,我們的系統(tǒng)沒有受到尺度一致的單視圖深度CNN輔助的尺度漂移問題。在KITTI數(shù)據(jù)集上的大量實(shí)驗(yàn)顯示了我們系統(tǒng)的魯棒性,并且詳細(xì)的消融研究顯示了我們系統(tǒng)中不同因素的影響。

6)DPFs

標(biāo)題:Differentiable Particle Filters: End-to-End Learning with Algorithmic Priors

作者:Rico Jonschkowski, Divyam Rastogi, Oliver Brock

單位:柏林技術(shù)大學(xué)來源:2018 RSS

原文鏈接:arxiv.org/abs/1805.1112

代碼鏈接:github.com/tu-rbo/diffe

摘要:我們提出了可微分粒子濾波器(DPFs):一種具有可學(xué)習(xí)運(yùn)動(dòng)和測(cè)量模型的粒子濾波器算法的可微分實(shí)現(xiàn)。由于DPF是端到端可區(qū)分的,我們可以通過優(yōu)化端到端狀態(tài)估計(jì)性能來有效地訓(xùn)練它們的模型,而不是像模型準(zhǔn)確性這樣的代理目標(biāo)。DPFs對(duì)遞歸狀態(tài)估計(jì)的結(jié)構(gòu)進(jìn)行編碼,其中預(yù)測(cè)和測(cè)量更新對(duì)狀態(tài)的概率分布進(jìn)行操作。這種結(jié)構(gòu)代表了一種算法先驗(yàn),該算法先驗(yàn)提高了狀態(tài)估計(jì)問題中的學(xué)習(xí)性能,同時(shí)實(shí)現(xiàn)了所學(xué)習(xí)模型的可解釋性。我們?cè)谀M和真實(shí)數(shù)據(jù)上的實(shí)驗(yàn)顯示了具有算法先驗(yàn)的端到端學(xué)習(xí)的實(shí)質(zhì)性好處,例如將錯(cuò)誤率降低了約80%。我們的實(shí)驗(yàn)還表明,與長(zhǎng)短期記憶網(wǎng)絡(luò)不同,DPF以一種與策略無關(guān)的方式學(xué)習(xí)定位,從而大大提高了泛化能力。

7)RIDI

8)OriNet

9)Pyshoe

2. 建圖

10)RayNet

11)AtlasNet

12)Pixel2Mesh

……

詳情內(nèi)容可將文章標(biāo)題復(fù)制到微信公眾號(hào)「3D視覺工坊」查看原文

7. 結(jié)論

本節(jié)介紹了SLAM綜述論文“A Survey on Deep Learning for Localization and Mapping: Towards the Age of Spatial Machine Intelligence”中里程計(jì)、建圖、特征提取、SLAM、閉環(huán)檢測(cè)、數(shù)據(jù)集相關(guān)的開源項(xiàng)目,下一節(jié)我們將繼續(xù)介紹定位、描述子提取、BA優(yōu)化相關(guān)的開源項(xiàng)目。

本文僅做學(xué)術(shù)分享,如有侵權(quán),請(qǐng)聯(lián)系刪文。

3D視覺工坊精品課程官網(wǎng):3dcver.com
1.面向自動(dòng)駕駛領(lǐng)域的3D點(diǎn)云目標(biāo)檢測(cè)全棧學(xué)習(xí)路線!(單模態(tài)+多模態(tài)/數(shù)據(jù)+代碼)
2.徹底搞透視覺三維重建:原理剖析、代碼講解、及優(yōu)化改進(jìn)
3.國(guó)內(nèi)首個(gè)面向工業(yè)級(jí)實(shí)戰(zhàn)的點(diǎn)云處理課程
4.激光-視覺-IMU-GPS融合SLAM算法梳理和代碼講解
5.徹底搞懂視覺-慣性SLAM:基于VINS-Fusion正式開課啦
6.徹底搞懂基于LOAM框架的3D激光SLAM: 源碼剖析到算法優(yōu)化
7.徹底剖析室內(nèi)、室外激光SLAM關(guān)鍵算法原理、代碼和實(shí)戰(zhàn)(cartographer+LOAM +LIO-SAM)
8.從零搭建一套結(jié)構(gòu)光3D重建系統(tǒng)[理論+源碼+實(shí)踐]
9.單目深度估計(jì)方法:算法梳理與代碼實(shí)現(xiàn)
10.自動(dòng)駕駛中的深度學(xué)習(xí)模型部署實(shí)戰(zhàn)
11.相機(jī)模型與標(biāo)定(單目+雙目+魚眼)
12.重磅!四旋翼飛行器:算法與實(shí)戰(zhàn)
13.ROS2從入門到精通:理論與實(shí)戰(zhàn)
14.國(guó)內(nèi)首個(gè)3D缺陷檢測(cè)教程:理論、源碼與實(shí)戰(zhàn)
15.基于Open3D的點(diǎn)云處理入門與實(shí)戰(zhàn)教程
16.透徹理解視覺ORB-SLAM3:理論基礎(chǔ)+代碼解析+算法改進(jìn)
17.不斷更新中......
點(diǎn)擊進(jìn)入—>粉絲交流群

重磅!粉絲學(xué)習(xí)交流群已成立

交流群主要有3D視覺、CV&深度學(xué)習(xí)、SLAM、三維重建、點(diǎn)云后處理、自動(dòng)駕駛、多傳感器融合、CV入門、三維測(cè)量、VR/AR、3D人臉識(shí)別、醫(yī)療影像、缺陷檢測(cè)、行人重識(shí)別、目標(biāo)跟蹤、視覺產(chǎn)品落地、視覺競(jìng)賽、車牌識(shí)別、硬件選型、ORB-SLAM系列源碼交流、深度估計(jì)、TOF、求職交流等方向。

添加小助理微信(dddvisiona),一定要備注:研究方向+學(xué)校/公司+昵稱,例如:”3D視覺 + 上海交大 + 靜靜“。請(qǐng)按照格式備注,可快速通過且邀請(qǐng)進(jìn)群。原創(chuàng)投稿也請(qǐng)聯(lián)系。??

60項(xiàng)基于深度學(xué)習(xí)的SLAM頂會(huì)開源方案匯總(上篇)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
疏附县| 鄂尔多斯市| 深水埗区| 常州市| 玉环县| 晋江市| 兰西县| 长治县| 赣榆县| 普宁市| 周口市| 济南市| 辉南县| 山阳县| 得荣县| 连江县| 酒泉市| 山东省| 仪陇县| 建平县| 昂仁县| 大田县| 盐源县| 集贤县| 六枝特区| 南康市| 大荔县| 雷波县| 古田县| 黄浦区| 山东省| 枝江市| 鄄城县| 大悟县| 灌南县| 利辛县| 丽水市| 尼木县| 邓州市| 平泉县| 随州市|