Command Palette
Search for a command to run...
Lei Yang Kaicheng Yu Tao Tang Jun Li Kun Yuan Li Wang Xinyu Zhang Peng Chen

摘要
尽管当前大多数自动驾驶系统专注于基于本车传感器的感知方法,人们往往忽视了一种替代性思路:利用智能路侧摄像头将感知范围扩展至视觉盲区之外。我们发现,现有的以视觉为中心的鸟瞰图(bird’s eye view, BEV)检测方法在路侧摄像头数据上表现不佳。其根本原因在于,这些方法主要致力于恢复以相机中心为基准的深度信息,而随着距离增加,车辆与地面之间的深度差异迅速减小,导致深度估计失真。针对这一问题,本文提出一种简单而有效的解决方案——BEVHeight。其核心思想是:不再预测像素级深度,而是回归目标物体到地面的高度,从而构建一种与距离无关的建模方式,有效简化仅依赖摄像头的感知方法的优化过程。在多个主流路侧摄像头3D检测基准测试中,我们的方法显著超越了以往所有以视觉为中心的方法。代码已开源,地址为:https://github.com/ADLab-AutoDrive/BEVHeight。
代码仓库
adlab-autodrive/bevheight
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 | 
|---|---|---|
| 3d-object-detection-on-dair-v2x-i | BEVHeight | AP|R40(easy): 77.8 AP|R40(hard): 65.9 AP|R40(moderate): 65.8  | 
| 3d-object-detection-on-rope3d | BEVHeight | AP@0.7: 45.73  |