感知传感器
传感器是自动驾驶系统的"感官",负责将物理世界的信息转化为可计算的数字信号。与人类依赖视觉、听觉、触觉等多种感知通道类似,自动驾驶汽车也需要多种传感器相互配合,才能在复杂多变的道路环境中实现可靠感知。
多传感器互补原则:任何单一传感器都存在局限性——摄像头在夜间或雨雾中性能下降,激光雷达无法读取交通标志文字,毫米波雷达横向分辨率不足,超声波只在近距离有效。通过将不同传感器的优势叠加,可以覆盖各自的盲区,实现全天候、全场景的鲁棒感知。
主要传感器类型概览
| 传感器 | 测量范围 | 精度 | 受天气影响 | 成本 | 典型用途 |
|---|---|---|---|---|---|
| 摄像头(Camera) | 50–200 m | 像素级 | 中 | 低 | 车道线检测、交通标志识别、语义理解 |
| 激光雷达(LiDAR) | 30–300 m | ±2 cm | 中–高 | 高 | 三维建图、障碍物检测与分类 |
| 毫米波雷达(mmWave Radar) | 30–300 m | ±0.1 m | 低 | 中 | 自适应巡航、碰撞预警、速度测量 |
| 超声波(Ultrasonic) | 0.2–6 m | ±1 cm | 低 | 极低 | 泊车辅助、近距离障碍物检测 |
| IMU(惯性测量单元) | — | μg 级加速度 | 无 | 中 | 姿态估计、高频运动补偿 |
| GNSS/RTK | 全局 | 米级–厘米级 | 低 | 中 | 绝对定位 |
一、激光雷达(LiDAR)
1.1 工作原理
激光雷达(Light Detection And Ranging)通过发射激光脉冲并测量光子返回时间(Time of Flight,ToF)来获取目标的三维坐标。测距公式为:
其中 \(c\) 为光速(\(3 \times 10^8\) m/s),\(\Delta t\) 为从发射到接收的时间间隔。通过旋转或扫描机构改变激光方向,可以在三维空间中构建稠密的点云(Point Cloud)。
1.2 机械旋转式 LiDAR
机械旋转式 LiDAR 通过整机或顶部旋转实现 360° 水平扫描。核心指标包括线束数(垂直方向激光发射器数量)、转速和单圈点云密度。
代表产品:
- Velodyne HDL-64E:64 线束,转速 10–20 rpm,水平角分辨率 0.08°–0.35°,探测距离 120 m(反射率 80% 目标),点频约 130 万点/秒。曾是 DARPA 挑战赛的标配,但价格高达数万美元,难以前装量产。
- Velodyne VLP-16(Puck):16 线束,垂直 FOV ±15°,探测距离 100 m,点频约 30 万点/秒,体积小、成本约数千美元,广泛用于研究样车。
- Velodyne VLS-128:128 线束,垂直 FOV 40°,点频 960 万点/秒,探测距离 300 m,是机械式旋转 LiDAR 的巅峰产品之一。
优点:360° 全向扫描,点云均匀,视场角大。 缺点:机械旋转结构可靠性存疑,体积大,量产成本高。
1.3 混合固态 LiDAR
混合固态 LiDAR 使用棱镜转镜或 MEMS 微振镜实现局部扫描,减少了机械旋转部件,兼顾可靠性与扫描能力。
代表产品:
- 速腾聚创 RS-M1 / RS-MX:非重复扫描模式,随时间积累点云密度,水平 FOV 120°,垂直 FOV 25°,探测距离 150 m(反射率 10% 目标),点频 1440 万点/秒(MX),已量产前装。
- 禾赛科技 AT128:128 线等效,水平 FOV 120°,垂直 FOV 25.6°,探测距离 200 m(反射率 10%),帧率 10 Hz,是首款量产的混合固态高线束 LiDAR,搭载于理想 L9 等车型。
- 华为 96 线 LiDAR:搭载于极狐阿尔法 S HI 版,水平 FOV 120°,垂直 FOV 40°,探测距离 200 m,是华为智能汽车解决方案的核心传感器之一。
1.4 MEMS 固态 LiDAR
MEMS(微机电系统)LiDAR 使用微振镜偏转激光束,无宏观旋转部件,理论上可靠性更高、成本更低。
- Innoviz One / InnovizTwo:以色列 Innoviz 公司产品,InnovizTwo 探测距离 300 m,FOV 100°×25°,点频 300 万点/秒,BMW 等车企采用。
- Luminar Iris:美国 Luminar 公司,使用 1550 nm 波长激光(人眼安全且可大功率发射),探测距离 250 m,点频 250 万点/秒,沃尔沃 EX90 前装量产。
1.5 FMCW 调频连续波 LiDAR
FMCW(Frequency Modulated Continuous Wave)LiDAR 通过发射线性调频连续激光并分析回波的频率偏移来同时获取距离和速度信息:
其中 \(f_d\) 为多普勒频移,\(\lambda\) 为激光波长。
主要优势:
- 直接测速:无需帧间差分,可获取每个点的瞬时径向速度,利于动态目标追踪。
- 抗干扰性强:对脉冲式干扰(如太阳光、其他 LiDAR)天然免疫。
- 灵敏度高:相干探测方式信噪比更高,探测距离更远。
代表厂商包括 Aeva(已在纽交所上市)、Mobileye(Delphi/Intel 旗下,自研 FMCW LiDAR)、Aurora(Blackmore 团队技术)等。
1.6 主流 LiDAR 产品对比
| 厂商 | 型号 | 技术路线 | 等效线数 | 探测距离(10%反射率) | 水平 FOV | 点频(万点/s) | 参考价格 | 量产状态 |
|---|---|---|---|---|---|---|---|---|
| Velodyne | VLP-16 | 机械旋转 | 16 | 100 m | 360° | 30 | ~$4,000 | 已量产(研究/测试) |
| Velodyne | HDL-64E | 机械旋转 | 64 | 120 m | 360° | 130 | ~$75,000 | 已量产(研究/测试) |
| 禾赛科技 | AT128 | 混合固态 | 128 | 200 m | 120° | 153 | ~$500(目标) | 前装量产 |
| 速腾聚创 | RS-MX | 混合固态 | — | 150 m | 120° | 1440 | 待定 | 前装量产 |
| Luminar | Iris | MEMS固态 | — | 250 m | 120°×30° | 250 | ~$500(目标) | 前装量产 |
| Innoviz | InnovizTwo | MEMS固态 | — | 300 m | 100°×25° | 300 | 待定 | 前装量产 |
| Aeva | Aeries II | FMCW | — | 300 m | 120°×30° | — | 待定 | 研发/测试 |
1.7 LiDAR 关键性能指标解读
- 角分辨率(Angular Resolution):水平和垂直方向上相邻激光束之间的夹角,越小则点云越密集。对于机械旋转式,水平分辨率可通过提高转速或增加线束来改善。
- 最远探测距离(Max Detection Range):通常以特定反射率(如 10% 或 80%)的漫反射目标为基准。反射率越低(如黑色轮胎),探测距离越短。
- 最近盲区(Minimum Range / Blind Zone):传感器前方存在无法探测的近距离盲区,机械旋转式 LiDAR 盲区约 0.5–1 m,固态 LiDAR 通常更大,需配合超声波弥补。
- 点频(Point Rate):每秒产生的点云数量,影响目标检测的密集程度与算法实时性。
二、毫米波雷达(mmWave Radar)
2.1 FMCW 工作原理
车载毫米波雷达普遍采用调频连续波(FMCW)体制。雷达发射线性调频信号,与目标反射回波混频后产生差频信号(拍频),通过 FFT 分析可同时获得:
- 距离:\(d = \frac{f_{beat} \cdot c}{2S}\),其中 \(S\) 为调频斜率,\(f_{beat}\) 为拍频频率
- 速度:\(v = \frac{f_d \cdot \lambda}{2}\),多普勒效应
- 角度:通过多天线(MIMO)技术及数字波束成形(DBF)获取目标方位角,4D 成像雷达还可获取俯仰角
2.2 77 GHz 频段的优势
目前主流车载雷达采用 77 GHz 频段(76–81 GHz),相比早期 24 GHz 频段的优势:
- 波长更短(约 4 mm),天线尺寸更小,便于集成
- 带宽更宽(最大 4 GHz),距离分辨率可达约 4 cm
- 速度测量分辨率更高
- 受欧美监管机构批准,频谱资源充足
2.3 关键参数
| 参数 | 典型范围 | 说明 |
|---|---|---|
| 探测距离 | 0.2–300 m | 因型号分为短/中/长程 |
| 距离分辨率 | 0.04–0.5 m | 取决于带宽 |
| 速度范围 | ±70 m/s | 覆盖高速场景 |
| 速度分辨率 | 0.1–0.5 m/s | — |
| 水平 FOV | 10°–170° | 长程窄角,短程宽角 |
| 目标数量 | 32–256 个 | 同时追踪 |
| 刷新率 | 10–50 Hz | — |
2.4 短程/中程/长程雷达分类
- 短程雷达(SRR,Short Range Radar):探测距离 0.2–30 m,水平 FOV 可达 170°,用于盲点监测(BSD)、开门预警(DOW)、后方穿越预警(RCTA)等。
- 中程雷达(MRR,Medium Range Radar):探测距离 30–80 m,水平 FOV 约 60°–90°,用于城区低速跟车、变道辅助。
- 长程雷达(LRR,Long Range Radar):探测距离 80–300 m,水平 FOV 约 10°–20°,用于高速公路自适应巡航(ACC)和前方碰撞预警(FCW)。一台典型乘用车前方配置 1 个 LRR,四角配置 4 个 SRR/MRR。
2.5 4D 成像雷达
传统 3D 雷达(距离 + 速度 + 水平角)缺少高度信息,无法区分地面杂波、桥梁、天桥等。4D 成像雷达在垂直方向增加了天线阵列,实现俯仰角测量,输出包含高度维度的稀疏点云,大幅提升分辨率与感知能力。
代表产品: - Arbe Robotics Phoenix(以色列):虚拟 48TX × 48RX MIMO 天线,水平角分辨率 1°,垂直角分辨率 2°,同时追踪 1000+ 目标,支持超分辨率 CFAR 处理。 - Oculii Eagle(美国,已被安波福收购):AI 驱动自适应波形,分辨率随速度自适应提升,水平 FOV 130°,探测距离 450 m。 - 大陆 ARS548:前向 4D 成像雷达,水平 FOV ±60°,垂直 FOV ±14°,同时追踪 200+ 动态目标,OEM 量产配套。 - 华为 C300 4D 毫米波雷达:96 虚拟天线,水平角分辨率约 1.5°,已随华为 ADS 系统量产。
2.6 主流毫米波雷达产品
| 厂商 | 型号 | 类型 | 探测距离 | 水平 FOV | 特点 |
|---|---|---|---|---|---|
| 博世(Bosch) | LRR5 | 长程 | 250 m | ±9° | 高可靠性,OEM 广泛配套 |
| 博世 | MRR1Plus | 中程 | 160 m | ±45° | 城区 AEB |
| 大陆(Continental) | ARS410 | 长程 | 250 m | ±9° | 乘用车标配 |
| 大陆 | ARS548 | 4D成像 | 300 m | ±60° | 俯仰角测量 |
| 安波福(Aptiv) | RACam | 融合 | 180 m | ±45° | 雷达+摄像头集成 |
| 安波福 | Eagle(Oculii) | 4D成像 | 450 m | ±65° | AI自适应波形 |
| 德尔福(Delphi/Aptiv) | ESR 2.5 | 长程+中程 | 174 m / 60 m | ±10° / ±45° | 双模切换 |
三、摄像头(Camera)
3.1 前视单目摄像头
前视摄像头是 ADAS 和自动驾驶的核心传感器,承担车道线检测、交通灯识别、行人/车辆检测等语义理解任务。
特斯拉 HW3/HW4 采用三目前视方案(长焦 + 标准 + 广角),分工明确:
| 摄像头 | 焦距(等效) | 水平 FOV | 探测距离 | 用途 |
|---|---|---|---|---|
| 主摄(Standard) | 约 50 mm | 35° | 160 m | 综合感知,车道线、行人 |
| 长焦(Narrow/Telephoto) | 约 150 mm | 约 25° | 250 m | 远距离目标识别 |
| 广角(Wide) | 约 25 mm | 120° | 60 m | 近距离交叉路口、行人 |
3.2 环视鱼眼摄像头
环视摄像头通常安装于车辆前后左右,水平 FOV 达 180°–200°,实现全周拼接俯视图(AVM,Around View Monitor),主要用于:
- 泊车辅助:低速近距离障碍物可视化
- 盲区监测:侧方摄像头覆盖侧向盲区
- APA 自动泊车:结合超声波实现无人自主泊车
由于极大畸变(桶形畸变),鱼眼摄像头需进行标定和畸变校正后才能用于精确测距,通常使用 Scaramuzza 全向相机模型或多项式径向畸变模型。
3.3 立体双目摄像头(Stereo)
双目摄像头通过计算左右图像的视差(Disparity)来恢复深度信息:
其中 \(f\) 为焦距,\(B\) 为基线距离(左右相机间距),\(d\) 为视差像素数。深度精度随距离平方衰减,典型有效测距范围为 0.5–80 m(基线 12 cm)。
代表产品: - Mobileye EyeQ 双目方案:集成于 EyeQ SoC,用于前装 AEB/LKA - ZED 系列(Stereolabs):科研场景常用,基线 12–12 cm,最远 20 m 有效深度
3.4 红外/热成像摄像头(Thermal IR)
热成像摄像头工作在 8–14 μm 长波红外波段,探测目标自身热辐射,不依赖可见光,在夜间行人检测方面具有显著优势:
- 夜间行人检测距离:可达 150 m+,远超可见光摄像头在无灯光环境下的能力
- 人体/动物高亮:温血动物体温(37°C)与背景形成鲜明对比
- 典型应用:奔驰/宝马 Night Vision 系统,Waymo/自动驾驶研究车辆
主要供应商:FLIR Systems(泰科)、DRS Technologies(莱昂纳多公司旗下)、高德红外。
3.5 事件相机(Event Camera)
事件相机(Dynamic Vision Sensor,DVS)是一种仿生传感器,每个像素独立监测亮度变化,仅在亮度变化超过阈值时异步触发输出事件(event),而非传统帧同步方式。
主要特性:
- 微秒级响应时间(约 1 μs),远超传统摄像头的帧周期(约 30 ms)
- 高动态范围(HDR)达 140 dB,传统摄像头约 60 dB
- 极低功耗和数据量:静止场景几乎不输出数据
- 无运动模糊:高速运动场景优势明显
代表产品:Prophesee(法国)Metavision EVK 系列、Sony IMX636、iniVation DAVIS 346。目前事件相机仍处于研究阶段,量产前装应用较少。
3.6 摄像头分辨率演进
| 阶段 | 代表时期 | 典型分辨率 | 代表产品/方案 |
|---|---|---|---|
| VGA 时代 | 2010 年前 | 640×480 | 早期 ADAS |
| 1MP 时代 | 2015–2018 | 1280×960 | Mobileye EyeQ3 |
| 1.2MP 时代 | 2018–2022 | 1920×1280 | 特斯拉 HW3,大众 MQB |
| 5MP 时代 | 2022 年起 | 2880×1860 | 特斯拉 HW4(OX08BC) |
| 8MP 趋势 | 2024 年起 | 3840×2160 | 高阶智驾旗舰车型 |
3.7 摄像头关键参数
| 参数 | 说明 |
|---|---|
| 分辨率 | 影响远距离小目标识别精度,趋势向 5MP 及以上发展 |
| 帧率(FPS) | 通常 30–60 Hz,高速场景需 60+ Hz 避免运动模糊 |
| 动态范围(HDR) | 普通摄像头约 60 dB,HDR 摄像头可达 120 dB,应对逆光场景 |
| 快门类型 | 全局快门(Global Shutter)无果冻效应,优于卷帘快门(Rolling Shutter) |
| 像素尺寸 | 越大感光能力越强,低照度性能越好(如 3 μm vs 1.4 μm) |
| 接口类型 | MIPI CSI-2、GMSL2(长距离,100 m 级),影响布线方案 |
四、超声波传感器(Ultrasonic)
4.1 测量原理
超声波传感器通过压电晶体发射 40–70 kHz 的声波脉冲,并测量声波从发射到遇到障碍物返回的时间,计算距离:
其中 \(v_s\) 为声速(约 343 m/s,受温度影响,\(v_s \approx 331 + 0.6T\) m/s,\(T\) 为温度 °C)。超声波受气温影响,通常需温度补偿以保持精度。
4.2 探测特性
- 有效探测范围:0.2–6 m(近距离性能优于 LiDAR)
- 盲区(Blind Zone):0–0.2 m 为换能器收发切换盲区,目标过近无法检测
- 视场角:水平约 60°–120°,取决于换能器设计
- 精度:±1 cm(近距离),远距离误差随距离增大
- 受影响因素:强风、吸声材料(如雪)、倾斜表面(声波反射方向偏离)会降低探测可靠性
4.3 泊车场景应用
自动泊车(APA,Automatic Parking Assist)需要在车身周围布置 12 个以上超声波传感器,实现车位检测与近距离障碍物感知:
- 前保险杠:2–4 个,近距离前方障碍物检测
- 后保险杠:2–4 个,倒车辅助
- 侧面(前后翼子板):4–8 个,车位扫描与侧方间距测量
超声波传感器成本极低(单颗 5–20 元人民币),是迄今最具性价比的近距离传感器,即便 L4 无人驾驶系统也会保留超声波用于近场感知。
4.4 主要厂商
| 厂商 | 代表产品 | 特点 |
|---|---|---|
| 博世(Bosch) | USS5、USS5.1 | 全球最大供应商之一,OEM 广泛配套 |
| 法雷奥(Valeo) | Fisheye + USS 集成 | 环视+超声波一体化方案 |
| 京西重工(BWAS) | 自研超声波传感器 | 中国市场主要供应商 |
| 斯坦雷电气 | — | 日系 OEM 配套 |
| 明峰科技 | — | 国产替代,性价比高 |
五、IMU(惯性测量单元)
5.1 基本组成
IMU 通常由三轴加速度计(Accelerometer)和三轴陀螺仪(Gyroscope)组成,部分型号还集成磁力计(Magnetometer)(构成 9 轴 IMU)。
- 加速度计:测量沿三轴方向的比力(specific force),扣除重力后得到线加速度
- 陀螺仪:测量角速率(rad/s),积分后得到姿态角变化
- 磁力计:测量地磁场方向,辅助偏航角(Yaw)修正,但易受车体铁磁干扰
5.2 误差模型
IMU 主要误差来源包括:
| 误差类型 | 说明 |
|---|---|
| 零偏(Bias) | 静止时输出的非零偏置,分固定偏置和随机游走 |
| 随机游走噪声(Random Walk) | 角度/速度随机游走,符合白噪声积分特性,表征为 \(°/\sqrt{h}\) |
| 标度因数误差(Scale Factor) | 输出值与真实值之间的比例误差 |
| 轴间耦合(Cross-Axis Coupling) | 一轴运动在其他轴产生的虚假输出 |
| 温度效应 | 偏置和标度因数随温度变化 |
长时间纯 IMU 积分会产生误差漂移,必须与 GNSS、LiDAR 等绝对定位传感器融合以修正累积误差。
5.3 IMU 等级对比
| 等级 | 典型用途 | 陀螺仪零偏稳定性 | 加速度计零偏稳定性 | 参考价格 |
|---|---|---|---|---|
| 消费级(Consumer) | 手机、玩具 | 10–1000 °/h | 1–10 mg | < ¥100 |
| 工业级(Industrial) | ADAS、无人机 | 1–10 °/h | 0.1–1 mg | ¥1,000–10,000 |
| 战术级(Tactical) | 无人驾驶、测量 | 0.1–1 °/h | 0.01–0.1 mg | ¥10,000–100,000 |
| 导航级(Navigation) | 高端自动驾驶 | 0.001–0.1 °/h | < 0.01 mg | ¥100,000–500,000 |
| 惯导级(Inertial Navigation) | 航空/航天 | < 0.001 °/h | < 0.001 mg | > ¥500,000 |
5.4 MEMS IMU vs 光纤陀螺(FOG)
| 特性 | MEMS IMU | 光纤陀螺(FOG) |
|---|---|---|
| 原理 | 微机电振动质量块 | Sagnac 光干涉效应 |
| 精度 | 工业/战术级 | 导航/惯导级 |
| 体积与重量 | 极小(cm³ 量级) | 较大(dm³ 量级) |
| 成本 | 低(¥百–万) | 高(¥十万–百万) |
| 量产适用性 | 高,已大量前装 | 低,限高端测量车 |
| 代表产品 | Bosch BMI088,Analog Devices ADIS16470 | iXblue ATLANS,诺瓦泰 SPAN |
5.5 预积分理论基础
在视觉惯性里程计(VIO)和激光惯性里程计(LIO)中,IMU 预积分(Pre-integration)技术将两帧关键帧之间的 IMU 测量量积分为相对运动约束,避免每次迭代重复积分,显著提高优化效率。Forster 等人于 2015 年提出的 Manifold 预积分理论已成为现代 SLAM 系统的标准组件(如 VINS-Mono、LIO-SAM)。
六、GNSS/GPS 定位
6.1 主要卫星导航系统
| 系统 | 国家/地区 | 卫星数 | 频段 | 特点 |
|---|---|---|---|---|
| GPS(全球定位系统) | 美国 | 31 颗 | L1/L2/L5 | 最成熟,全球覆盖 |
| GLONASS | 俄罗斯 | 24 颗 | L1/L2 | 高纬度地区优势 |
| BeiDou(北斗) | 中国 | 45 颗(三代) | B1/B2/B3 | 亚太精度高,B1C/B2a 现代化 |
| Galileo | 欧盟 | 30 颗(目标) | E1/E5 | 民用精度最高,开放服务 |
多系统融合(GPS+GLONASS+BeiDou+Galileo)可增加可见卫星数量,改善遮挡场景下的可用性。
6.2 定位精度等级
| 方法 | 原理 | 典型精度 | 实时性 | 应用场景 |
|---|---|---|---|---|
| 单点定位(SPP) | 伪距测量 | 5–10 m(水平) | 实时 | 导航地图 |
| SBAS(差分) | 广域差分(如 WAAS) | 1–3 m | 实时 | 航空、精密农业 |
| RTK(实时动态差分) | 载波相位差分,需基站 | 1–3 cm | 实时(< 1 s) | 高精定位,L3+ 自动驾驶 |
| PPP(精密单点定位) | 精密星历+钟差 | 5–10 cm | 收敛需 10–30 min | 低依赖基站场景 |
| PPP-RTK | PPP + 区域增强 | 1–5 cm | 快速收敛(< 1 min) | 新一代高精定位 |
6.3 GNSS+IMU 紧耦合融合
单独 GNSS 在城市峡谷、隧道、立交桥等场景频繁失锁,单独 IMU 长时间漂移。紧耦合(Tight Coupling)融合将 GNSS 原始伪距/载波相位测量值直接输入卡尔曼滤波器,与 IMU 预积分量共同优化,具有以下优势:
- 少于 4 颗可见卫星时仍可工作(松耦合需 ≥ 4 颗)
- GNSS 失锁时 IMU 短时间惯导推算维持连续性
- 高频姿态输出(100–500 Hz),满足控制系统需求
6.4 典型车载 GNSS/INS 产品
| 厂商 | 型号 | 精度(RTK) | IMU 等级 | 特点 |
|---|---|---|---|---|
| u-blox | ZED-F9P | 1 cm(水平) | 外接 | 低成本 RTK,广泛用于测试车 |
| 天宝(Trimble) | BX992 | 1 cm | 外接 | 专业测量级 |
| 华测导航 | CGI-610 | 2 cm | 战术级 MEMS | 国产高性价比方案 |
| 诺瓦泰(NovAtel/Hexagon) | SPAN CPT7 | 2 cm | 战术级 | 工业标准,精度可靠 |
| 博世 | SMI130 + GNSS | 1–5 m | 消费级 | 前装量产 ADAS |
七、传感器选型指导
7.1 不同自动驾驶等级典型传感器配置
L2+ 典型配置(摄像头主导):以成本优先、辅助驾驶为目标。
| 传感器 | 数量 | 配置说明 |
|---|---|---|
| 前视摄像头 | 1–3 | 单目或三目前视,1.2–5 MP |
| 前向长程毫米波雷达 | 1 | LRR,用于 ACC/AEB |
| 角雷达(SRR) | 4 | 四角,BSD/DOW/RCTA |
| 超声波 | 8–12 | 前后保险杠,泊车辅助 |
| GNSS+IMU | 1 | 消费级,车道级定位 |
代表车型:特斯拉 Model 3/Y(FSD HW3,全纯视觉方案去除雷达),大众 IQ.Drive,比亚迪 DiPilot 100。
L4 Robotaxi 典型配置(全传感器融合):以安全冗余、全天候能力为目标,成本通常 10–50 万元。
| 传感器 | 数量 | 配置说明 |
|---|---|---|
| 顶置旋转/混合固态 LiDAR | 1–2 | 360° 主激光雷达,128 线等效 |
| 前/侧补盲 LiDAR | 2–4 | 短距固态 LiDAR,覆盖盲区 |
| 前视摄像头(三目) | 3 | 长/标准/广角分工 |
| 环视鱼眼摄像头 | 4–6 | 环视 AVM + 侧方感知 |
| 前向长程毫米波雷达 | 1 | LRR,冗余感知 |
| 角雷达 | 4–6 | SRR/MRR,全向感知 |
| 超声波 | 12+ | 近场补盲 |
| 高精 GNSS+INS | 1 | RTK 厘米级,战术级 IMU |
代表车型:Waymo One(基于 Jaguar I-PACE),百度 Apollo RT6,小马智行 L4 测试车。
7.2 成本与能力权衡
| 方案 | 传感器套件参考成本 | 感知能力 | 适用等级 |
|---|---|---|---|
| 超声波 + 单摄像头 | ¥500–2,000 | 泊车辅助、LDW | L1 |
| 摄像头主导(多摄 + 前向雷达) | ¥3,000–10,000 | ACC/AEB/LKA | L2–L2+ |
| 摄像头 + 多雷达 + 超声波 | ¥10,000–30,000 | 高速 NOA/城区辅助 | L2+–L3 |
| LiDAR + Camera + Radar 全配 | ¥100,000–500,000 | 全天候自动驾驶 | L4 |
7.3 恶劣天气下各传感器表现对比
| 场景 | 摄像头 | LiDAR | 毫米波雷达 | 超声波 |
|---|---|---|---|---|
| 夜间无路灯 | 差(需 HDR/红外) | 良好 | 良好 | 良好 |
| 小雨(< 10 mm/h) | 中等(水雾影响) | 中等(点云稀疏) | 良好 | 良好 |
| 大雨(> 25 mm/h) | 差(严重遮挡) | 差(散射衰减大) | 良好 | 中等 |
| 大雾(能见度 < 50 m) | 差 | 差 | 良好 | 良好 |
| 降雪 | 差(雪花遮挡) | 差(雪花散射) | 良好 | 差(积雪吸声) |
| 强烈逆光 | 差(过曝) | 良好 | 良好 | 良好 |
| 隧道出入口 | 差(明暗切换) | 良好 | 良好 | 良好 |
| 玻璃/镜面 | 差(误检) | 差(镜面反射) | 中等 | 差(镜面反射) |
结论:毫米波雷达在各类恶劣天气中表现最稳定,是全天候感知的"最后底线";LiDAR 和摄像头在晴天/轻天气下感知能力最强但受恶劣天气影响较大;超声波在低速近距离场景可靠性高。多传感器冗余融合是实现全天候 L4 自动驾驶的必要条件。
参考资料
- Velodyne Lidar. HDL-64E LiDAR Sensor Product Description, 2019.
- Mahon, I., Sirault, X., Saleem, W. et al. "A Comparison of 3D Lidar Technologies for Near-Range Obstacle Detection". Sensors, 2021.
- Bilik, I., Longman, O., Villeval, S. et al. "The Rise of Radar for Autonomous Vehicles". IEEE Signal Processing Magazine, 2019.
- Geiger, A., Lenz, P., Urtasun, R. "Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite". CVPR, 2012.
- Forster, C., Carlone, L., Dellaert, F., Scaramuzza, D. "IMU Preintegration on Manifold for Efficient Visual-Inertial Maximum-a-Posteriori Estimation". RSS, 2015.
- 徐贵力, 毛志华. 《卫星导航原理与应用》. 国防工业出版社, 2020.