3D Detection 论文及源码汇总

3D Detection 论文汇总 引用于 3D视觉工坊,原始链接见此.


一、论文分类汇总

1. 基于激光雷达点云的3D检测方法(LiDAR only)

方法名称方法类别发表年份代码是否开源
Part-A^2LiDAR onlyTPAMI 2020
PointRCNNLiDAR onlyCVPR 2019
STDLiDAR onlyICCV 2019
PV-RCNN++LiDAR onlyCVPR 2020
PointPillarLiDAR onlyCVPR 2019
MVPLiDAR onlyNIPS 2021
SE-SSDLiDAR onlyCVPR 2021
SA-SSDLiDAR onlyCVPR 2020
HVPRLiDAR onlyCVPR 2021
LiDAR RCNNLiDAR onlyCVPR 2021
SECONDLiDAR onlySensors 2018
3DIoUMatchLiDAR onlyCVPR 2021
CenterPointLiDAR onlyCVPR 2021
3DSSDLiDAR onlyCVPR 2021
CIA-SSDLiDAR onlyAAAI 2021

2. 基于多模态融合的3D检测方法(LiDAR+RGB)

方法名称方法类别发表年份代码是否开源
AVOD-FPNLiDAR+RGBIROS 2018
F-PointNetLiDAR+RGBCVPR 2018
F-ConvNetLiDAR+RGBIROS 2019
4D-NetLiDAR+RGBICCV 2021
MV3DLiDAR+RGBCVPR 2017
CM3DLiDAR+RGBWACV 2021
H^2 3D RCNNLiDAR+RGBTCSVT 2021
ContFuseLiDAR+RGBECCV 2018
MMFLiDAR+RGBCVPR 2019

3. 基于单目图像的3D检测方法(Monocular)

方法名称方法类别发表年份代码是否开源
AutoShapeMonocularICCV 2021
CaDDNMonocularCVPR 2021
MonoDLEMonocularCVPR 2021
DDMPMonocularCVPR 2021
GUPNetMonocularICCV 2021
FCOS3DMonocularICCVW 2021
PGDMonocularCoRL 2021
MonoGRNetMonocularTPAMI 2021

4. 基于双目图像的3D检测方法(Stereo)

方法名称方法类别发表年份代码是否开源
SIDEStereoWACV 2022
LIGA-StereoStereoICCV 2021
E2E-PLStereoCVPR 2020

5. 基于视角特征提取的3D检测方法

方法名称方法类别发表年份代码是否开源
H^2 3D RCNNFront & Bird viewTCSVT 2021
PointPillarBird viewCVPR 2019
F-PointNetFrustumCVPR 2018
F-ConvNetFrustumIROS 2019
TANetBird viewAAAI 2020

6. 基于特征补充/伪点云生成的3D检测方法(pseudo augment)

方法名称方法类别发表年份代码是否开源
PointPaintingpseudo augmentCVPR 2020
PointAugmentingpseudo augmentCVPR 2021
E2E-PLpseudo augmentCVPR 2020
Pseudo-LiDARpseudo augmentCVPR 2019
Pseudo-LiDAR++pseudo augmentICLR 2020
MVPpseudo augmentNIPS 2021

7. 基于transformer的3D检测方法 (Transformer)

方法名称方法类别发表年份代码是否开源
VoTrTransformerICCV 2021
CT3DTransformerICCV 2021
M3DETRTransformerArxiv
DETR3DTransformerCoRL 2021
PoinTrTransformerICCV 2021

8. 基于半监督学习的3D检测方法(Semi supervised)

方法名称方法类别发表年份代码是否开源
3DALSemi supervisedArxiv
3DIoUMatchSemi supervisedCVPR 2021
WS3DSemi supervisedTPAMI 2021

二、论文分类解读

由于篇幅限制,本文主要讲解基于激光雷达点云的3D检测方法(LiDAR only)。LiDAR only 指的是此类方法仅仅采用点云数据作为输入,方法的主要区分性在于对点云数据不同的特征提取方式。

1. Part-A^2 (TPAMI 2020)

论文地址:https://arxiv.org/pdf/1907.03670.pdf 作者单位:The Chinese University of Hong Kong 代码地址:GitHub - open-mmlab/OpenPCDet: OpenPCDet Toolbox for LiDAR-based 3D Object Detection. 一句话读论文:The ground-truth boxes of 3D object detection not only automatically provide accurate segmentation mask because of the fact that 3D objects are naturally separated in 3D scenes, but also imply the relative locations for each foreground 3D point within the ground truth boxes.

网络框架图:

wecom-temp-eeffb6e59bc25cac73ffb90382ac4792

KITTI testset 实验结果:

wecom-temp-79726a25c9e2dcb07e006c22ba1d9fc7

整体网络框架分为两个部分:Part-aware stage 和 Part-aggregation stage。

  • Part-aware stage:作者认为前景点的相对位置(intra-object part location)可以表征物体的形状信息。因此,通过估计前景点的相对位置,作者认为可以得到更具有辨别性的特征。

The part-aware network aims to extract discriminative features from the point cloud by learning to estimate the intra-object part locations of foreground points, since these part locations implicitly encode the 3D object’s shapes by indicating the relative locations of surface points of 3D objects.

  • Part-aggregation stage:既然是一个aggregation mechanism,作者具体聚合了哪些特征呢?文中作者主要融合了两部分特征,point-wise part location 以及 point-wise sementic features。利用融合后的特征,进一步预测每一个候选框的置信度和位置。

By considering the spatial distribution of the predicted intraobject part locations and the learned point-wise part features in a 3D box propsoal from stage-I, it is reasonable to aggregate all the information within a proposal for box proposal scoring and refinement.

2. Point RCNN (CVPR 2019)

论文地址:https://arxiv.org/pdf/1812.04244.pdf 作者单位:The Chinese University of Hong Kong 代码地址:https://github.com/sshaoshuai/PointRCNN 一句话读论文:The learned point representation from segmentation is not only good at proposal generation but is also helpful for the later box refinement.

网络框架:

wecom-temp-9896df15ab84581ccd673a4a7936b2f4

KITTI testset 实验结果:

wecom-temp-f8399d84ad3ba720a1184f4f970110e2

PointRCNN 整体为two-stage的框架,第一级生成proposal (Bottom-up 3D Proposal Generation),第二级对proposal进行微调并得到最终的检测结果 (Canonical 3D Box Refinement)。

  • Bottom-up 3D Proposal Generation:主要目的是做proposal的生成。对每一个point,提取point-wise feature,预测其属于前景点的概率和相应的proposal大小。对于生成的大量的proposal,利用NMS进行过滤,只保留其中的300个送入第二级进行微调。

  • Canonical 3D Box Refinement:提取第一级proposal更精细的特征用于分类回归。更精细的特征包括:点特征+空间位置特征+RoI特征。

3. STD (ICCV 2019)

论文地址:https://arxiv.org/pdf/1907.10471v1.pdf 作者单位:Youtu Lab, Tencent 等 一句话读论文:They propose a point-based proposal generation paradigm on point cloud with spherical anchors.

网络框架:

wecom-temp-480e1ce4a6ad97fcf4bf4c09df27e35a

KITTI testset 实验结果:

wecom-temp-2d6affaea0f35dc1a442e41d0157af99

整体框架依然属于two-stage的网络,第一级生成proposal,第二级提取更精细的proposal (point+voxel)特征用于微调。与其他工作相比,STD 网络最大的不同之处在于proposal generation的过程中使用了球形anchor (spherical anchors)。那么如何从球形anchor得到proposal呢?其具体步骤是:

为所有点设定球形anchor → 判断其为前景点的概率 → NMS 过滤冗余anchor → 预测余下的anchor对应的proposal。

作者认为这种球形anchor的优点在于:球形anchor可以不必考虑物体朝向问题,极大减小了计算量;

4. PV-RCNN/PV-RCNN++(CVPR 2020)

论文地址:https://arxiv.org/pdf/2102.00463.pdf 作者单位:The Chinese University of Hong Kong 代码地址:https://github.com/open-mmlab/OpenPCDet 一句话读论文:They propose a novel two-stage detection network for accurate 3D object detection through a two-step strategy of point-voxel feature aggregation.

网络框架:

wecom-temp-553860d456e0f4f5c9f22f654677e493

KITTI testset 实验结果:

wecom-temp-3453cd9a19335ea1f76ff8aacfd5a063

整体框架属于two-stage,有两个核心内容,第一个voxel feature → keypoints feature,第二个keypoints feature → proposal/grid feature。

  • voxel feature → keypoints feature

    将大量的voxel feature 整合在少量的keypoints上,整合的过程包括了:原始raw points feature + multi-scale voxel feature + bev feature;

  • keypoints feature → proposal/grid feature

    这一步其实就是利用之前整合的keypoints feature对每一个proposal做RoI Grid Pooling。只是需要额外注意的是,这个的grid 半径是多尺度的,作者认为这种方式可以提取更丰富的proposal feature。

5. PointPillar(CVPR 2019)

论文地址:https://arxiv.org/pdf/1812.05784.pdf 作者单位:Oscar Beijbom and nuTonomy: an APTIV company 一句话读论文:A novel encoder which utilizes PointNets to learn a representation of point clouds organized in vertical columns (pillars).

网络框架:

wecom-temp-6e83b2cc0d6e1485343d04947268ef60

KITTI testset 实验结果:

wecom-temp-d1591acdb5f03e37e292cc11354eadfe

本文仅做学术分享,如有侵权,请联系删文。

3D视觉精品课程推荐:

1.面向自动驾驶领域的多传感器数据融合技术

2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)

3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进

4.国内首个面向工业级实战的点云处理课程

5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解

6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦

7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化

8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)

9.从零搭建一套结构光3D重建系统[理论+源码+实践]

10.单目深度估计方法:算法梳理与代码实现

11.自动驾驶中的深度学习模型部署实战

12.相机模型与标定(单目+双目+鱼眼)


苏州索亚机器人技术有限公司版权所有 苏ICP备17076064号
地址:江苏省昆山市经济技术开发区前进东路科技广场12楼1203室 邮编:215300

苏ICP备17076064号-1

技术支持:米拓建站 8.0 ©2008-2025

企业联系方式

企业联系方式