??目前,深度图像的获取方法有:激光雷达深度成像法、计算机立体视觉成像、坐标测量机法、莫尔条纹法、结构光法等。针对深度图像的研究重点主要集中在以下几个方面:深度图像的分割技术,深度图像的边缘检测技术,基于不同视点的多幅深度图像的配准技术,基于深度数据的三维重建技术,基于深度图像的三维目标检测技术,深度数据的多分辨率建模和几何压缩技术等。在PCL中深度图像与点云最主要的区别在于,其近邻的检索方式不同,并且可以互相转换。
??本文首先对深度图像的概念以及表示方法进行简介,其次对PCL的两个RangeImage类进行简单介绍,最后通过如何从一个点云创建一个深度图像以及如何从深度图像中提取物体边界的两个应用实例,来展示如何对PCL中的RangeImage相关类进行灵活运用。
1 RangeImage概念及相关算法
1.1 深度图像简介
??深度图像(Depth Images),也被称为距离影像(Range Images),是指将图像采集器到场景中各点的距离(深度)值作为像素值的图像,它直接反映了景物可见表面的几何形状,利用它可以很方便的解决3D目标描述中的许多问题。深度图像经过坐标转换可以计算为点云数据,有规则及必要信息的点云数据也可以反算为深度图像数据。
??从数学模型上看,深度图像可以看作是标量函数
j
:
I
2
→
R
j:I^{2}\rightarrow R
j:I2→R 在集合
K
K
K 上的离散采样,得到
r
i
=
j
(
u
i
)
r_{i}=j(u_{i})
ri?=j(ui?), 其中
u
i
?
I
2
u_{i} \epsilon I^{2}
ui??I2 为二维网格(矩阵)的索引,
r
i
?
R
r_{i}\epsilon R
ri??R,
i
=
1
,
2
,
.
.
.
,
k
i = {1,2,...,k}
i=1,2,...,k,如下图所示:
1.2 PCL中RangeImage的相关类
??PCL中的range_image 库包含两个表达深度图像和对深度图像进行操作的类,其依赖于pcl::common 模块。深度图像(或距离图像)的像素值代表从传感器到物体的距离或者深度,如下图所示。深度图像是物体三维表示形式,一般通过立体相机或者ToF相机获取。如果知道相机的内标定参数,就可以将深度图像转化为点云。
2 从一个点云创建一个深度图像
??本小节将学习如何从点云和给定的传感器位置来创建深度图像。
??首先创建一个工作空间range_image_creation ,然后再在工作空间创建一个文件夹src 用于存放源代码:
mkdir -p range_image_creation/src
??接着,在range_image_creation/src 路径下,创建一个文件并命名为range_image_creation.cpp ,拷贝如下代码:
#include <pcl/range_image/range_image.h>
int main (int argc, char** argv)
{
pcl::PointCloud<pcl::PointXYZ> pointCloud;
for (float y=-0.5f; y<=0.5f; y+=0.01f)
{
for (float z=-0.5f; z<=0.5f; z+=0.01f)
{
pcl::PointXYZ point;
point.x = 2.0f - y;
point.y = y;
point.z = z;
pointCloud.points.push_back(point);
}
}
pointCloud.width = (uint32_t) pointCloud.points.size();
pointCloud.height = 1;
float angularResolution = (float) ( 1.0f * (M_PI/180.0f));
float maxAngleWidth = (float) (360.0f * (M_PI/180.0f));
float maxAngleHeight = (float) (180.0f * (M_PI/180.0f));
Eigen::Affine3f sensorPose = (Eigen::Affine3f)Eigen::Translation3f(0.0f, 0.0f, 0.0f);
pcl::RangeImage::CoordinateFrame coordinate_frame = pcl::RangeImage::CAMERA_FRAME;
float noiseLevel=0.00;
float minRange = 0.0f;
int borderSize = 1;
pcl::RangeImage rangeImage;
rangeImage.createFromPointCloud(pointCloud,
angularResolution,
maxAngleWidth,
maxAngleHeight,
sensorPose,
coordinate_frame,
noiseLevel,
minRange,
borderSize);
std::cout << rangeImage << "\n";
}
【解释说明】
for (float y=-0.5f; y<=0.5f; y+=0.01f)
{
for (float z=-0.5f; z<=0.5f; z+=0.01f)
{
pcl::PointXYZ point;
point.x = 2.0f - y;
point.y = y;
point.z = z;
pointCloud.points.push_back(point);
}
}
pointCloud.width = (uint32_t) pointCloud.points.size();
pointCloud.height = 1;
??这段程序首先创建一组数据作为点云的数据内容,再设置点云头的信息,整个实现生成一个呈现矩形形状的点云,如下图所示:
float angularResolution = (float) ( 1.0f * (M_PI/180.0f));
float maxAngleWidth = (float) (360.0f * (M_PI/180.0f));
float maxAngleHeight = (float) (180.0f * (M_PI/180.0f));
Eigen::Affine3f sensorPose = (Eigen::Affine3f)Eigen::Translation3f(0.0f, 0.0f, 0.0f);
pcl::RangeImage::CoordinateFrame coordinate_frame = pcl::RangeImage::CAMERA_FRAME;
float noiseLevel=0.00;
float minRange = 0.0f;
int borderSize = 1;
??这部分定义了创建深度图像时需要的设置参数,将角度分辨率angularResolution 定义为1°,意味着邻近的像素点所对应的每个光束之间相差1°;maxAngleWidth = 360 和 maxAngleHeight = 180 意味着,我们进行模拟的距离传感器对周围的环境拥有一个完整的360°视角,用户在任意数据集下都可以使用此设置,因为最终获取的深度图像将被裁剪到有空间物体存在的区域范围。但是,用户可以通过减小数值来节省一些计算资源,例如:当传感器后面没有可以观测的点时,一个水平视角为180°的激光扫描仪,即maxAngleWidth = 180 就足够了,这样只需要观察距离传感器前面就可以了,因为后面没有需要观察的场景。 sensorPose 定义了模拟深度图像获取传感器的6自由度位置,其原始值横滚角roll、俯仰角pitch、偏航角yaw都为0。coordinate_frame = pcl::RangeImage::CAMERA_FRAME 说明系统的X轴是向右的,Y轴是向下的,Z轴是向前的。另外一个选择是LASER_FRAME ,其X轴向前,Y轴向左,Z轴向上。noiseLevel = 0 是指使用一个归一化的Z缓冲器来创建深度图像,但是如果想让邻近点集都落在同一像素单元,用户可以设置一个较高的值,例如noiseLevel = 0.05 可以理解为,深度距离值是通过查询点半径为5cm的圆内包含的点以平均计算而得到的。如果minRange > 0 ,则所有模拟器所在的位置半径minRange 内的邻近点都将被忽略,即为盲区。在裁剪图像时,如果borderSize > 0 ,将在图像周围留下当前视点不可见点的边界。
pcl::RangeImage rangeImage;
rangeImage.createFromPointCloud(pointCloud,
angularResolution,
maxAngleWidth,
maxAngleHeight,
sensorPose,
coordinate_frame,
noiseLevel,
minRange,
borderSize);
std::cout << rangeImage << "\n";
??最后,使用上述设定的参数,从点云创建深度图像,并且打印一些信息。
??深度图像继承于PointCloud类,它的点类型具有x,y,z和range距离字段,共有三种类型的点集,有效点集是距离大于0的点集,当前视点不可见点集x = y = z = NAN且值域为负无穷大,远距离点集x = y = z = NAN且值域为无穷大。
【编译和运行程序】 ??在工作空间根目录range_image_creation 下,编写CMakeLists.txt 文件如下:
cmake_minimum_required(VERSION 2.6 FATAL_ERROR)
project(range_image_creation)
find_package(PCL 1.2 REQUIRED)
include_directories(${PCL_INCLUDE_DIRS})
link_directories(${PCL_LIBRARY_DIRS})
add_definitions(${PCL_DEFINITIONS})
add_executable (${PROJECT_NAME}_node src/range_image_creation.cpp)
target_link_libraries (${PROJECT_NAME}_node ${PCL_LIBRARIES})
??在工作空间根目录range_image_creation 下创建一个build 文件夹,用于存放编译过程中产生的文件,然后执行编译:
mkdir build
cd build
cmake ..
make
??此时,会在build 文件夹下生成一个可执行文件range_image_creation_node ,运行该可执行文件:
./range_image_creation_node
??在终端中可以看到如下输出结果:
header:
seq: 0 stamp: 0 frame_id:
points[]: 1360
width: 40
height: 34
sensor_origin_: 0 0 0
sensor_orientation_: 0 0 0 1
is_dense: 0
angular resolution: 1deg/pixel in x and 1deg/pixel in y.
3 从深度图像中提取边界
??本小节将学习如何从深度图像中提取边界(从前景跨越到背景的位置定义为边界)。一般,我们只对三种类型的点集感兴趣:物体边界,这是物体最外层和阴影边界的可见点集;阴影边界:毗连于遮挡的背景上的点集;Veil点集,在被遮挡物边界和阴影边界之间的内插点,它们是由激光雷达获取的3D距离数据中的典型数据类型。这三类数据及深度图像的边界如下图所示:
|