基于视觉深度估计的伪激光雷达: 从2D图像到自动驾驶3D目标检测 (IROS)
2019-07-09 09:33:16AI云资讯1503
三维目标检测是自动驾驶中的一项重要任务。如果三维输入数据是从精确但昂贵的激光雷达技术中获得的,那么最新的技术具有很高的准确检测率。到目前为止,基于更便宜的单目或双目图像数据的方法已经导致了精确度大大降低——这一差距通常归因于基于图像的深度估计不佳。然而,在本文中,我们认为,数据的质量并不是数据本身的质量问题,而是数据的表示性能,这是造成差异的主要原因。考虑到卷积神经网络的内部工作,我们建议将基于图像的深度图转换为伪激光雷达表示——本质上模拟激光雷达信号。通过这种表示,我们可以应用不同的现有的Lidarbased检测算法。在广受欢迎的Kitti基准测试中,我们的方法在基于图像的性能方面取得了显著的改进,使30米范围内的物体检测精度从以前的22%提高到目前的74%。提交时,我们的算法在基于立体图像的方法的Kitti 3D物体检测排行榜上占有最高的位置。
主要贡献
首先,我们根据经验证明,立体和基于激光雷达的三维目标检测之间性能差距的主要原因不是估计深度的质量,而是它的表示。其次,我们提出了伪激光雷达作为一种新的三维物体探测深度估计的建议表示,并表明它导致了最先进的立体三维物体探测,有效地将现有技术提高了三倍。我们的研究结果指向了在自动驾驶汽车中使用立体摄像机的可能性——可能会大幅降低成本和/或提高安全性。
算法流程
我们提出了一种基于立体的三维物体检测的两步方法。我们首先将立体或单目图像的估计深度图转换成三维点云,我们称之为伪激光雷达,因为它模拟激光雷达信号。然后,我们利用现有的基于激光雷达的三维目标检测管道框架,我们直接在伪激光雷达表示上进行训练。通过将三维深度表示改为伪激光雷达,使基于图像的三维目标检测算法的精度得到前所未有的提高。
尽管基于图像的三维物体识别有许多优点,但在图像的最新检测率和基于激光雷达的方法之间仍存在着明显的差距。人们很容易将这一差距归因于激光雷达和照相机技术之间明显的物理差异及其影响。我们提出了一种基于立体的三维物体检测的两步方法。我们首先将立体或单目图像的估计深度图转换成三维点云,我们称之为伪激光雷达,因为它模拟激光雷达信号。然后,我们利用现有的基于激光雷达的三维目标检测管道框架,我们直接在伪激光雷达表示上进行训练。通过将三维深度表示改为伪激光雷达,使基于图像的三维目标检测算法的精度得到前所未有的提高。
1.深度估计
使用基于图像合成的深度估计算法,双目相机和单目相机可以在框架中使用.
2.伪激光雷达的产生
我们不需要像通常那样将深度d作为多个附加通道合并到RGB图像中,而是可以在左相机坐标系中导出每个像素(u;v)的三维位置(x;y;z),如下所示:

激光雷达与伪激光雷达。为了最大限度地兼容现有的激光雷达检测管道,我们对伪激光雷达数据应用了一些额外的后处理步骤。由于真实的激光雷达信号只存在于一定的高度范围内,我们忽略了超出该范围的伪激光雷达点。

3.3D目标检测
利用估计的伪激光雷达点,我们可以将现有的基于激光雷达的三维目标探测器应用于自主驾驶。在第一个步骤中,我们将伪激光雷达信息视为三维点云。这里,我们使用截锥点网,它将二维对象检测投影到三维截锥中,然后应用点网提取每个三维截锥的点集特征。
在第二个步骤中,我们从鸟瞰图(BEV)中查看伪激光雷达信息。尤其是,三维信息从上下视图转换为二维图像:宽度和深度成为空间尺寸,高度记录在通道中。AVOD将视觉功能和BEV激光雷达功能连接到3D盒子方案中,然后将两者结合起来进行盒子分类和回归。
4.数据表示问题
尽管伪激光雷达传输的信息与深度图相同,但我们认为它更适合于基于深度卷积网络的三维目标检测管道。为此,考虑卷积网络的核心模块:二维卷积。在图像或深度图上操作的卷积网络在图像深度图上执行二维卷积序列。尽管可以学习卷积的过滤器,但中心假设是双重的:(a)图像中的局部邻里有意义,并且网络应该查看局部区域;(b)所有邻里都可以以相同的方式操作。
在左列中,我们显示了原始深度图和图像场景的伪激光雷达表示。场景中的四辆车以彩色突出显示。然后,我们在深度图(右上角)上用一个盒子滤波器执行一个11×11的卷积,它与5层3×3卷积的接收场相匹配。然后我们将得到的(模糊的)深度图转换为一个伪激光雷达表示(右下角)。从图中可以明显看出,这种新的伪激光雷达表示受到了模糊的影响。
主要结果
我们通过不同的深度估计和目标检测方法,评估了在不同设置下有无伪激光雷达的三维目标检测。在整个过程中,我们将突出显示蓝色的伪激光雷达和灰色的实际激光雷达的结果。
1.3D目标检测结果
表1KITTI目标检测结果
2.对比
表2 frontal 和伪激光雷达对比
3.比较立体视差和三维目标检测算法的不同组合,使用伪激光雷达。在IOU=0.7时,我们报告了中等车辆类别的APBEV/AP3D(百分比)。每列的最佳结果是粗体。

表3比较立体视差和三维目标检测算法的不同组合
4.验证集上行人和自行车手类别的三维对象检测。我们报告的apbev/ap3d为iou=0.5(标准度量),并将f-pointnet与psmnet(蓝色)和lidar(灰色)估计的伪激光雷达进行比较。

图2 3D目标检测效果

图33D目标检测效果2

图4 PSMNET* 与PSMNET对比
相关文章
- 卓特视觉成为中国版权协会理事单位,深化“正版+AI”战略布局
- 沃旭VSL-340叉车数字化终端:让每台叉车都拥有“视觉大脑”
- 潜行创新发布全球首款融合“激光雷达+AI视觉 ”泳池机器人 L1 Ultra——以颠覆性双智融合技术开启水下智能清洁新纪元
- 逐点半导体与芯视元达成战略合作 硅基微显示技术引领AI视觉革新
- 虹软科技AI视觉赋能BOLON AI Glasses重磅发布,与Rokid乐奇深度合作打造创新体验
- AI视觉重塑质检“智慧之眼”,聚焦四大核心应用场景
- Lecoo来酷猛禽电竞显示器品牌战略升级:正式更名为“来酷猛禽星舰”,开启视觉新纪元
- 韦达ai快讯丨从视觉出发,让AI真正落地——韦达新版网站上线与AI视觉商业化实践
- Vision China 2025 深圳机器视觉展圆满闭幕!
- 国科微精彩亮相CPSE安博会2025,以视觉AI洞见未来
- 奥比中光居韩国移动机器人3D视觉市场第一,超越RealSense
- 苹果计划收购计算机视觉公司Prompt AI
- 鸿蒙版高德地图重磅更新,VLM交通视觉语言大模型、天气提醒护航十一出行
- 强强联合!艾利特机器人与思看科技达成战略合作,共筑“机器人+视觉”新生态!
- 中科亿海微Link-Sea-H6A图像处理套件:高性能图像加速,赋能多场景视觉终端系统
- 虚拟预演所见即所得!青瞳视觉虚拟摄影机CMVCS,让创作更高效
人工智能企业
更多>>人工智能硬件
更多>>- CES 2026 机器人最大黑马!让“个人机器人”从概念变现实
- 光本位科技研发出玻璃光计算芯片,算力有望超传统AI推理芯片的千倍
- 拓斯达荣膺高工金球奖“工业具身全面布局标杆企业”,领跑人形机器人产业化赛道
- CES 2026 爆火出圈,Vbot超能机器狗开启全球消费级具身智能时代
- 韶音CES 2026新品发布:OpenFit Pro推出开放式滤噪新方案
- MUNIK秒尼科助力芯洲科技荣获ISO26262 ASIL-C功能安全产品认证证书
- 迈向AGI时代,网络运力新保障,沐创发布100G智能网络控制器芯片 N20
- MUNIK秒尼科助力导远科技MEMS芯片成功通过ISO 26262 ASIL-D汽车功能安全产品认证









