个人博客 物体检测与位姿估计
针对刚性物体识别与位姿估计的方法主要分为三类:
- 基于模板匹配
- 基于三维局部特征
- 基于学习
下面来细讲:
- 网站:Detection and 6D Pose Estimation里面收录了很多文章和方法
- 没趣啊知乎:meiqua知乎
- 石头哥的目标检测(深度学习)笔记 stone
基于模板匹配的6D目标位姿估计方法的研究始于20世纪90年代的单目图像。
以不同视点下目标对象的整体外观作为模型模板,
基于线条特征[^3]、边缘轮廓[^4]、冲击图形和曲线[^5]进行模型与输入的匹配。
可用的开源项目:
在增加了深度信息后,使得6D目标位姿估计对背景杂波具有更强的鲁棒性。针对机器人应用提出了快速、鲁棒的RGB-D特性,
如VFH[6]和CVFH[7]。stoisser等[8,9]提出了以图像梯度离散化方向和表面法线为特征的linemod方法。相似度得分在预先计算的响应图上快速计算出来,他们表明它比现有的方法在杂乱的背景下更健壮,也更快。
开源项目linemod(opencv和PCL中均有接口):
- 6DPose
- PCL提供两个类LINEMOD和lineRGBD
在基于三维局部特征的方法中,六自由度位姿是根据局部特征的对应关系或Hough投票中恢复出来的。
早期提出了二维图像中提取的线条特征[^10]、边缘特征[^11]等多种局部特征。为了进行更稳健的估计,还提出了利用深度信息的局部描述符,如自旋图像[^12]和SHOT[^13]。
点对特性(PPF)[^14]是迄今为止最为成功和著名的三维局部描述符,并且已经提出了许多扩展版本。例如,选择边界或线[^15]点,计算分割点云[^16]上的PPF,改进点采样和投票[^17]。然而,与基于模板的方法相比,在6D位姿空间中进行模式搜索速度较慢。
(论文BOP: Benchmark for 6D Object Pose Estimation 中对15种方法进行了评估,得出结论是PPF表现最好,优于模板匹配方法(templates matching),基于学习(learning-based)的方法和基于3D local features的方法)
一般点云物体识别的流程是:
- 提取关键点(keypoints)。比如iss关键点,sift关键点。它们的数据形式是三维向量XYZ+其他信息
- 利用关键点keypoints作为种子计算特征描述子descriptors。比如3DSC描述子,LSP描述子。它们的数据形式是多维向量比如PFH的长度是125,SI的长度是225。
- 匹配:实际上是通过特征描述子(descriptors)进行对应点(correspondence)估计。如SAC-IA算法。
- 匹配后再通过一些点云的配准(registration)方法比如迭代最近点(ICP)进行精确配准。
- 假设验证
使用PCL中的方法:
3D_object_recognition_(pipeline)
典型方法:PPF
OPENCV和PCL中均有接口
hough transform霍夫变换
hough random forests霍夫随机森林
在基于学习的方法中,出现了很多利用机器学习技术提取识别特征,训练识别前景/背景、对象类和三维对象姿态的分类器。例如,学习模板匹配[^18]或投票[^19]的权重,学习潜在类分布[^20]和学习霍夫森林进行坐标回归[^21]。近年来,CNN被引入学习三维物体姿态[^22]的流形。提出了基于卷积自动编码器[^23]和自监督增强自动编码器[^24]的流形学习方法。Kehl等人提出了类似ssd的CNN架构,用于估计对象的二维位置、类和三维位姿。利用基于CNN的检测器检测三维控制点或包围盒角的投影二维点,而不是估计三维位姿类[^25,26,27]。虽然最近的基于CNN的方法与其他两种方法相比,对背景杂波和局部遮挡的鲁棒性更高,但是它们的训练需要大量的带注释的训练样本,并且在GPU上花费更长的时间。
- Datasets
- 3D Pose Estimation
- Courses
- Single Object Classification
- Multiple Objects Detection
- Scene/Object Semantic Segmentation
- 3D Geometry Synthesis/Reconstruction
- Texture/Material Analysis and Synthesis
- Style Learning and Transfer
- Scene Synthesis/Reconstruction
- Scene Understanding
A Tutorial on 3D Deep Learning
3D Convolutional Neural Networks — A Reading List
-
Mesh R-CNN https://arxiv.org/abs/1906.01140
TLNet:从单目到立体3D目标检测 《Triangulation Learning Network: from Monocular to Stereo 3D Object Detection》(CVPR2019) 论文:https://arxiv.org/abs/1906.01193
-
基于RGB和LiDAR融合的自动驾驶3D语义分割 《RGB and LiDAR fusion based 3D Semantic Segmentation for Autonomous Driving》
-
轻量级3D卷积网络,用于视频识别
-
MonoDIS :解构单目3D物体检测 《Disentangling Monocular 3D Object Detection》
-
Shift R-CNN:具有闭式几何约束的深度单目3D目标检测 《Shift R-CNN: Deep Monocular 3D Object Detection with Closed-Form Geometric Constraints》(ICIP 2019)
-
PoseRBPF:用于6D目标姿态跟踪的Rao-Blackwellized粒子滤波器
-
MonoDIS :解构单目3D物体检测 《Disentangling Monocular 3D Object Detection》
-
关键点几何推理的单目 3D 物体检测 《Monocular 3D Object Detection via Geometric Reasoning on Keypoints》
-
利用高分辨率传感器标记数据训用于LiDAR距离的快速目标检测器 《Training a Fast Object Detector for LiDAR Range Images Using Labeled Data from Sensors with Higher Resolution》
-
用于3D目标检测和语义分割的传感器融合 《Sensor Fusion for Joint 3D Object Detection and Semantic Segmentation》
-
RGB-D数据的可转移半监督3D目标检测 《Transferable Semi-supervised 3D Object Detection from RGB-D Data》
-
用于点云中3D目标检测的Hough Voting 《Deep Hough Voting for 3D Object Detection in Point Clouds》
-
学习2D到3D提升用于自动驾驶的3D目标检测 《Learning 2D to 3D Lifting for Object Detection in 3D for Autonomous Vehicles》
-
Complexer-YOLO:语义点云上的实时3D目标检测和跟踪 《Complexer-YOLO: Real-Time 3D Object Detection and Tracking on Semantic Point Clouds》
-
FVNet:用于从点云进行实时目标检测的3D前视图建议生成 《FVNet: 3D Front-View Proposal Generation for Real-Time Object Detection from Point Clouds》
-
伪LiDAR点云的单目3D目标检测 《Monocular 3D Object Detection with Pseudo-LiDAR Point Cloud》
-
LaserNet:一种用于自主驾驶的高效概率 3D目标检测器
-
基于立体R-CNN的3D目标检测 《Stereo R-CNN based 3D Object Detection for Autonomous Driving》
-
IXOR:点云的实时3D目标检测 《PIXOR: Real-time 3D Object Detection from Point Clouds》
-
. 3D-BoNet:学习点云上3D实例分割的目标边界框 《Learning Object Bounding Boxes for 3D Instance Segmentation on Point Clouds》
-
联合单目3D车辆检测与跟踪
-
PointRCNN+Frustum Pointnet
-
3D BAT:基于Web的3D标注工具(3D Box) 《3D BAT: A Semi-Automatic, Web-based 3D Annotation Toolbox for Full-Surround, Multi-Modal Data Streams》
-
FANTrack:具有特征关联网络的3D多目标跟踪 《FANTrack: 3D Multi-Object Tracking with Feature Association Network》IEEE Intelligent Vehicles Symposium (IV 19)
-
CenterNet:将目标视为点 《Objects as Points》
论文:https://arxiv.org/abs/1904.07850
github:https://github.com/xingyizhou/CenterNet
github:https://github.com/see--/keras-centernet
youtube:https://www.youtube.com/watch?v=M63gSMdco2c&feature=youtu.be
-
DISN:用于高质量单视图三维重建的深层隐式曲面网络 《DISN: Deep Implicit Surface Network for High-quality Single-view 3D Reconstruction》
-
(3D目标检测)Pseudo-LiDAR++:自主驾驶中3D目标检测的精确深度