目录
- 目的
- 如何实现
- kitti数据集简介
- kitti数据集的raw_data
- 利用kitti提供的devkit以及相应数据集的calib文件
- 解读calib文件夹
- 解读devkit
使用雷达点云提供的深度信息
将雷达的三维点云投影到相机的二维图像上
kitti的数据采集平台,配置有四个摄像机和一个激光雷达,四个摄像机中有两个灰度摄像机,两个彩色摄像机。
从图中可看出,关于相机坐标系(camera)的方向与雷达坐标系(velodyne)的方向规定:
camera: x = right, y = down, z = forward
velodyne: x = forward, y = left, z = up
那么velodyne所采集到的点云数据中,各点的x轴坐标,即为所需的深度信息。
更多详细的简介网络上都能搜索到,这里只列举了与当前目的相关的必要信息。
raw_data对于每个序列都提供了同步且校准后的数据、标定数据。
同步且校准后的数据:
https://blog.51cto.com/u_/imageXX 包含有各个摄像机采集到的图像序列
https://blog.51cto.com/u_/velodyne_points 包含有雷达扫描到的数据,点云形式,每个点以 (x,y,z,i) 格式存储,i为反射值
(雷达采集数据时,是绕着竖直轴旋转扫描,只有当雷达旋转到与相机的朝向一致时会触发相机采集图像。不过在这里无需关注这一点,直接使用给出的同步且校准后的数据即可,它已将雷达数据与相机数据对齐,也就是可以认为同一文件名对应的图像数据与雷达点云数据属于同一个场景。)
标定数据:
https://blog.51cto.com/u_/cam_to_cam 包含有各个摄像机的标定参数
https://blog.51cto.com/u_/velo_to_cam 包含有雷达到摄像机的变换参数
对于raw_data,kitti还提供了样例工具,方便读取各种数据文件并输出,参见官网raw_data下载页的development kit
解读calib文件夹
cam_to_cam,包含各相机的标定参数
这里只用到最后两个矩阵R_rect和P_rect
velo_to_cam,从雷达坐标系到0号相机坐标系的转换
由此可以得出从雷达坐标系变换到xx号相机的图像坐标系的公式:
设X为雷达坐标系中的齐次坐标 X = [x y z 1]',对应于xx号相机的图像坐标系的齐次坐标Y = [u v 1]',则:
其中
解读devkit
官网提供的样例代码中 run_demoVelodyne.m 实现了将雷达点云投影到相机图像
代码流程
- 从所给路径中读取标定文件,获取具体矩阵数值
- 根据上述公式,计算投影矩阵 P_velo_to_img,即 Y = P_velo_to_img * X
- 从所给路径中读取相机图片,并加载雷达的点云数据。由于只做展示用,为了加快运行速度,对于雷达点云,每隔5个点只保留1个点
- 移除那些距离雷达5米之内(雷达的x方向)的点 (猜测这些点落在相机和雷达之间,故不会出现在图像平面上)
- 作投影计算,得到投影到二维图像上的点
6.在图像上画出投影后的点,按照深度(雷达点的x方向值)确定颜色,彩色则是暖色越近,冷色越远;灰度则是深色越近,浅色越远。
若需要从深度图获取深度值,应按照画投影点时深度值到颜色(灰度)值的转换。
到此这篇pointnet和pointnet++区别(point和pointf)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!
版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/cjjbc/47397.html