跳转至

自动驾驶计算芯片

本页系统介绍自动驾驶领域的计算芯片架构,涵盖架构分类、主流平台对比、算力需求分析、功耗散热、功能安全认证、软件生态以及未来发展趋势。


1. 开篇介绍

自动驾驶系统对计算能力的需求正以指数级增长。从 L2 级辅助驾驶到 L4 级城区自动驾驶,所需算力从个位数 TOPS 跃升至数百甚至上千 TOPS。计算芯片已成为自动驾驶系统的核心瓶颈之一,直接决定了感知精度、决策速度和系统安全性。

1.1 算法复杂度与硬件能力的博弈

自动驾驶算法持续向更大、更深的模型演进。以 BEV(Bird's Eye View)感知为例,早期基于 CNN 的检测模型仅需数十 GFLOPS,而如今主流的 BEV Transformer 模型单次推理即需数百 GFLOPS,叠加多传感器融合后系统总算力需求可达数十 TOPS。

算法工程师追求更高精度,硬件工程师受限于功耗和散热——这一矛盾推动着芯片架构的持续创新。

1.2 TOPS 与真实性能

TOPS(Tera Operations Per Second,每秒万亿次运算)是衡量 AI 加速器算力的通用指标,但标称 TOPS 与实际推理性能之间存在显著差距:

\[\eta_{\text{eff}} = \frac{T_{\text{actual}}}{T_{\text{peak}}} \times 100\%\]

其中 \(T_{\text{actual}}\) 为实际推理吞吐,\(T_{\text{peak}}\) 为标称峰值算力。实际利用率通常仅为 30%--70%,受以下因素影响:

  • 算子支持率:模型中若存在不被 NPU 加速的算子,需回退到 CPU/GPU 执行
  • 内存带宽瓶颈:大模型的权重和激活值搬运耗时可能超过计算本身
  • 数据精度格式:标称 TOPS 通常以 INT8 计算,FP16/FP32 推理吞吐大幅降低

1.3 车规级要求

自动驾驶芯片不同于消费级芯片,必须满足严苛的车规级认证:

认证标准 覆盖范围 关键要求
AEC-Q100 芯片可靠性 -40°C~125°C 工作温度、振动、湿热循环、ESD 等
ISO 26262 功能安全 ASIL-A 至 ASIL-D 等级,覆盖系统/硬件/软件全生命周期
ISO 21434 网络安全 威胁分析与风险评估(TARA)、安全启动、密钥管理
IATF 16949 质量管理 供应链质量体系、PPAP、FMEA

核心原则

选择自动驾驶计算芯片时,不能仅看标称 TOPS,还需综合评估有效推理性能、功耗效率、工具链成熟度、功能安全认证等级以及供应链稳定性。


2. 计算架构基础

2.1 五大计算架构

自动驾驶系统中涉及的核心计算架构包括 CPUGPUNPU/TPUFPGAASIC,各有其适用场景。

CPU(中央处理器):通用串行处理器,擅长复杂逻辑和控制流程。在自动驾驶中主要承担任务调度、决策逻辑和异常处理。

GPU(图形处理器):大规模并行处理器,拥有数千个计算核心。擅长矩阵运算和深度学习训练/推理,是当前自动驾驶感知算法的主要执行单元。

NPU/TPU(神经网络处理器/张量处理器):专为深度学习推理设计的加速器,通常支持 INT8/INT4 低精度运算,在功耗效率上远超 GPU。

FPGA(现场可编程门阵列):硬件可重构的半定制芯片,兼具灵活性和较高性能。适合算法快速迭代阶段或特殊算子加速。

ASIC(专用集成电路):为特定功能完全定制的芯片,性能和功耗效率最优,但开发周期长、灵活性最低。

2.2 架构对比

指标 CPU GPU NPU/TPU FPGA ASIC
灵活性 最高 最低
峰值吞吐 中高 最高
功耗效率 中高 最高
推理延迟 最低
单位成本 低(量产后)
开发周期 长(12-24 月)
适用场景 控制/调度 训练/推理 推理部署 原型验证 大规模量产

2.3 异构计算:为什么自动驾驶需要混合架构

单一架构无法满足自动驾驶的全部计算需求。异构计算将不同类型的处理器整合到同一 SoC 中,按任务特性分配计算资源:

传感器数据输入
    │
    ├─ ISP:相机图像预处理(去噪/HDR/去畸变)
    ├─ NPU:神经网络推理(目标检测/语义分割/BEV 感知)
    ├─ GPU:复杂模型推理(Transformer/扩散模型)
    ├─ CPU:决策逻辑、轨迹规划、系统调度
    ├─ DSP:雷达信号处理、音频处理
    └─ MCU(安全岛):功能安全监控、看门狗、ASIL-D 任务

异构计算的核心优势在于:每种计算单元在其擅长领域都能以最高效率运行,系统整体功耗效率远超单一架构方案。


3. 主流芯片平台

3.1 NVIDIA(英伟达)

NVIDIA 是自动驾驶计算平台的领导者,凭借 CUDA 生态和持续的硬件迭代构建了强大的竞争壁垒。

Orin 系列:当前量产主力,基于 Ampere GPU 架构,已被蔚来、小鹏、理想、比亚迪等众多车企采用。

Thor(原 Atlan):下一代平台,基于 Blackwell GPU 架构,算力跃升至 2000 TOPS,支持多域融合(自动驾驶 + 智能座舱 + 泊车),预计 2025-2026 年量产上车。

参数 Orin N Orin X Thor
CPU 6× Arm A78AE 12× Arm A78AE 16× Arm A78AE(Grace)
GPU 架构 Ampere 1024 core Ampere 2048 core Blackwell
NPU 算力 84 TOPS 254 TOPS ~2000 TOPS
内存 LPDDR5 102 GB/s LPDDR5 256 GB/s HBM/LPDDR5X
功耗(TDP) 25 W 60 W ~100-150 W
制程 7 nm 7 nm 4 nm
功能安全 ASIL-B ASIL-B(SEooC) ASIL-B+
目标等级 L2+/L3 L3/L4 L3/L4/L5

3.2 Qualcomm(高通)

高通凭借在移动 SoC 领域的深厚积累进入自动驾驶市场,Snapdragon Ride 平台主打座舱与 ADAS 的域融合。

参数 SA8295P SA8650P SA9000P
CPU Kryo(8 核) Kryo(8 核增强) Kryo(高性能)
NPU Hexagon DSP Hexagon(增强) 高性能 NPU
算力(INT8) ~30 TOPS ~50 TOPS ~100 TOPS
制程 5 nm 4 nm 4 nm
功耗 ~20 W ~25 W ~40 W
功能安全 ASIL-B ASIL-B ASIL-B/D
通信集成 5G/Wi-Fi/BT 5G/Wi-Fi 7 5G/Wi-Fi 7

特色: 5G/Wi-Fi 通信模组原生集成,是唯一在单芯片上实现座舱 + ADAS + 连接的方案,适合域融合架构。

3.3 Tesla(特斯拉)

特斯拉是全球唯一自研自动驾驶芯片并大规模量产的整车厂,走出了"全栈自研"的独特路径。

HW3(FSD Computer):2019 年量产,双芯片冗余设计,专注纯视觉方案。

HW4:2023 年开始搭载于 Model S/X/Cybertruck,算力大幅提升,支持更多摄像头输入。

Dojo:特斯拉自研的云端训练超级计算机芯片(D1),采用 7 nm 工艺,单芯片 362 TFLOPS(BF16),不用于车端推理,但对车端模型的训练效率至关重要。

参数 HW3(FSD Computer) HW4
NPU 算力 72 TOPS(双芯片 144) ~300-500 TOPS
CPU 12× Arm A72 增强型多核
内存 LPDDR4 68 GB/s LPDDR5
摄像头支持 8 路 12 路
制程 14 nm 7 nm
功耗 ~72 W(双芯片) ~100 W
冗余设计 双芯片互校验 增强冗余

3.4 Mobileye(英特尔子公司)

Mobileye 是 ADAS 领域的先驱,以极低功耗和高度集成的视觉处理能力著称。

参数 EyeQ5H EyeQ6H EyeQ Ultra
算力 24 TOPS ~34 TOPS 176 TOPS
功耗 5-10 W ~10 W ~50 W
制程 7 nm 7 nm 5 nm
功能安全 ASIL-B/D ASIL-B/D ASIL-B/D
目标等级 L2+/L3 L2+/L3 L4
特点 超低功耗视觉加速 增强 AI 能力 支持 L4 全自动驾驶

特色: Mobileye 在功耗效率上处于行业领先,EyeQ5H 以不到 10W 功耗实现 ADAS 所需的全部感知功能。其 RSS(Responsibility Sensitive Safety)安全模型也是独特的竞争力。

3.5 华为(Ascend/MDC 平台)

华为以 昇腾(Ascend) AI 芯片为基础,构建了 MDC(Mobile Data Center) 智能驾驶计算平台。

参数 MDC 300F MDC 610 MDC 810
算力 96 TOPS 352 TOPS 800+ TOPS
CPU 鲲鹏(Arm) 鲲鹏(增强) 鲲鹏(高性能)
功耗 ~60 W ~100 W ~150 W
功能安全 ASIL-B ASIL-B ASIL-B
工具链 AscendCL/MindSpore AscendCL/MindSpore AscendCL/MindSpore
合作车企 长安、北汽 阿维塔、问界 极狐

特色: 搭配华为全栈智驾方案(ADS),与 MindSpore/CANN 工具链深度集成;国产供应链自主可控。

3.6 地平线(Horizon Robotics)

地平线是中国领先的车规级 AI 芯片企业,征程(Journey) 系列已在国内多家车企量产上车。

参数 征程 5 征程 6E 征程 6M
NPU 架构 BPU(贝叶斯架构) BPU(增强) BPU(增强)
算力 128 TOPS 128 TOPS 256 TOPS
功耗 ~30 W ~15 W ~35 W
制程 16 nm 16 nm 16 nm
功能安全 ASIL-B ASIL-B ASIL-B
目标等级 L2+/L3 L2+ L3
量产车企 理想、比亚迪、大众 多家车企 量产推进中

特色: 国产自研 BPU 架构,天工开物工具链持续迭代;性价比高,适合中国市场大规模量产。

3.7 黑芝麻智能(Black Sesame)

黑芝麻智能是国内另一家专注车规级 AI 芯片的企业,华栾(Hualuan) 系列芯片定位高性能自动驾驶。

参数 A1000 A1000L A2000
算力 58 TOPS(INT8) 16 TOPS 250+ TOPS
功耗 ~25 W ~8 W ~45 W
制程 16 nm 16 nm 7 nm
功能安全 ASIL-B/D ASIL-B ASIL-B/D
目标等级 L2+/L3 L2 L3/L4

特色: A1000 是国内首个通过 ASIL-B 和 ASIL-D 双认证的车规级 AI 芯片。

3.8 主流平台综合对比

芯片平台 峰值算力(TOPS) 制程 功耗(W) TOPS/W 目标等级 量产车企(代表)
NVIDIA Orin X 254 7 nm 60 4.2 L3/L4 蔚来、小鹏、理想
NVIDIA Thor ~2000 4 nm ~150 ~13.3 L3-L5 2025-2026 量产
高通 SA8650P ~50 4 nm ~25 ~2.0 L2+ 长城、极氪
Tesla HW4 ~300-500 7 nm ~100 ~4.0 L3/L4 Tesla 全系
Mobileye EyeQ Ultra 176 5 nm ~50 3.5 L4 极氪、蔚来(ADAS)
华为 MDC 610 352 7 nm ~100 3.5 L3/L4 问界、阿维塔
地平线征程 5 128 16 nm ~30 4.3 L2+/L3 理想、比亚迪
黑芝麻 A1000 58 16 nm ~25 2.3 L2+/L3 一汽、东风

4. 算力需求分析

4.1 模型计算量评估

深度学习模型的计算量通常以 FLOPs(浮点运算次数)衡量。对于一个卷积层:

\[\text{FLOPs}_{\text{conv}} = 2 \times C_{\text{in}} \times K^2 \times C_{\text{out}} \times H_{\text{out}} \times W_{\text{out}}\]

其中 \(C_{\text{in}}\)\(C_{\text{out}}\) 分别为输入和输出通道数,\(K\) 为卷积核尺寸,\(H_{\text{out}}\)\(W_{\text{out}}\) 为输出特征图尺寸。

对于 Transformer 的自注意力层:

\[\text{FLOPs}_{\text{attn}} = 4 \times N \times d^2 + 2 \times N^2 \times d\]

其中 \(N\) 为序列长度(token 数量),\(d\) 为特征维度。当 \(N\) 很大时(如高分辨率 BEV 特征图),自注意力的计算量呈二次增长,这也是 BEV Transformer 计算需求高的根本原因。

4.2 传感器数据吞吐量

传感器产生的原始数据量决定了系统的 I/O 和预处理算力需求:

摄像头数据吞吐量:

\[D_{\text{cam}} = N_{\text{cam}} \times W \times H \times C \times B \times \text{FPS}\]

例如 8 路摄像头、分辨率 1920×1280、RGB 3 通道、8 bit 色深、30 FPS:

\[D_{\text{cam}} = 8 \times 1920 \times 1280 \times 3 \times 1 \times 30 \approx 1.77 \text{ GB/s}\]

LiDAR 点云数据吞吐量:

以 128 线激光雷达为例,每秒约 200 万个点,每个点包含 \((x, y, z, \text{intensity}, \text{timestamp})\) 共 20 字节:

\[D_{\text{lidar}} = 2{,}000{,}000 \times 20 \approx 40 \text{ MB/s}\]

多个 LiDAR 叠加后约 100-200 MB/s。

毫米波雷达: 数据量较小,通常 < 10 MB/s。

4.3 系统总算力预算

一个完整的 L4 自动驾驶系统包含多个模型和模块并行运行,总算力预算可按如下方式估算:

\[T_{\text{total}} = \sum_{i=1}^{n} \frac{\text{FLOPs}_i \times f_i}{\eta_i}\]

其中 \(\text{FLOPs}_i\) 为第 \(i\) 个模型的单次推理计算量,\(f_i\) 为该模型的推理频率(Hz),\(\eta_i\) 为该模型在目标硬件上的有效利用率。

功能模块 模型规模(GFLOPs) 推理频率(Hz) 所需算力(TOPS)
BEV 感知骨干网络 200-500 10 2-5
目标检测 Head 50-100 10 0.5-1
语义分割 100-200 10 1-2
LiDAR 3D 检测 100-300 10 1-3
传感器融合 50-100 10 0.5-1
轨迹预测 20-50 10 0.2-0.5
规划决策 10-30 20 0.2-0.6
占据网格生成 100-200 10 1-2
合计 ~6-15 TOPS(有效算力)

考虑到有效利用率仅 30%-70%,实际所需标称算力为:

\[T_{\text{peak}} = \frac{T_{\text{total}}}{\eta_{\text{avg}}} = \frac{15}{0.5} = 30 \text{ TOPS}\]

再加上 30%-50% 的冗余余量(应对 OTA 升级和新功能扩展),L4 级系统的推荐标称算力为 50-250 TOPS,复杂场景需更高。

算力估算的复杂性

上述估算基于简化假设。实际场景中,多模型并发调度、内存带宽竞争、热降频等因素会进一步降低有效算力,需要通过实际 benchmark 验证。


5. 功耗与散热

5.1 TOPS/Watt:核心效率指标

TOPS/Watt 是衡量计算芯片能效比的关键指标,直接影响散热方案复杂度和整车续航。

\[\text{TOPS/W} = \frac{\text{峰值算力(TOPS)}}{\text{热设计功耗 TDP(W)}}\]

不同芯片的能效比差异显著:

芯片 算力(TOPS) TDP(W) TOPS/W 能效等级
Mobileye EyeQ5H 24 8 3.0 优秀
地平线征程 5 128 30 4.3 优秀
NVIDIA Orin X 254 60 4.2 良好
华为 MDC 610 352 100 3.5 良好
NVIDIA Thor ~2000 ~150 ~13.3 卓越

能效比的演进

随着制程从 16 nm 缩小至 4 nm,TOPS/W 指标持续改善。NVIDIA Thor 的 13+ TOPS/W 代表了当前 4 nm 制程的能效前沿,但实际部署中的有效 TOPS/W 仍需以真实工作负载为准。

5.2 热设计功耗(TDP)

TDP(Thermal Design Power) 定义了芯片在最大负载下持续散发的热量,是散热方案设计的基准:

自动化级别 典型 TDP 散热挑战
L2/L2+ 10-30 W 低,被动散热或小风扇即可
L3 城区 30-80 W 中,需要强制风冷或简单液冷
L4 Robotaxi 80-200 W 高,通常需要液冷方案
L4+ 多芯片方案 200-500 W 极高,需要整车热管理系统集成

5.3 散热方案

被动散热(Passive Cooling):利用散热片和自然对流,无运动部件。适用于低功耗芯片(< 25 W),优点是无噪声、无维护,缺点是散热能力有限。

主动风冷(Active Air Cooling):在散热片基础上增加风扇。适用于中等功耗(25-80 W),但在车内密封环境中面临灰尘积聚和噪声问题。

液冷(Liquid Cooling):使用冷却液通过水冷板或热管带走热量。分为两种方案:

  • 冷板式液冷:冷却液在封闭回路中流过冷板,适用于 80-200 W 级芯片
  • 浸没式液冷:芯片完全浸入绝缘冷却液中,散热效率最高,但在车载场景中尚不成熟

5.4 电动车功耗约束

对于纯电动汽车,计算平台的功耗直接影响续航里程:

\[\Delta R = \frac{P_{\text{compute}} \times t}{E_{\text{battery}}} \times R_{\text{total}}\]

其中 \(P_{\text{compute}}\) 为计算平台功耗,\(t\) 为行驶时间,\(E_{\text{battery}}\) 为电池总容量,\(R_{\text{total}}\) 为标称续航。

以 100W 计算平台、75 kWh 电池容量、500 km 续航为例:

\[\Delta R = \frac{100 \times 1}{75{,}000} \times 500 \approx 0.67 \text{ km/h}\]

即每小时因计算平台消耗约 0.67 km 续航。虽然看似不大,但在实际使用中(含散热系统、通信模组等),智驾系统的总功耗可达 300-500 W,对续航的影响不可忽视。


6. 功能安全与车规认证

6.1 ASIL 等级要求

ISO 26262 定义了四个 ASIL(Automotive Safety Integrity Level) 等级,从 ASIL-A(最低)到 ASIL-D(最高):

功能 所需 ASIL 等级 说明
AEB(自动紧急制动) ASIL-D 直接影响生命安全
车道保持辅助(LKA) ASIL-B L2 级功能
L3 自动驾驶(主链路) ASIL-B + ASIL-B(分解) 通过冗余达到 ASIL-D
L4 Robotaxi ASIL-D(核心链路) 完全冗余架构

6.2 ASIL 分解

高等级的 ASIL-D 要求难以由单一芯片直接达到,通常采用 ASIL 分解 策略:

\[\text{ASIL-D} = \text{ASIL-B(D)} + \text{ASIL-B(D)}\]

即两个独立的 ASIL-B 子系统通过独立性论证,可组合达到 ASIL-D 等级。例如主计算 SoC(ASIL-B)加独立安全岛 MCU(ASIL-B),共同实现系统级 ASIL-D。

6.3 关键安全机制

锁步核(Lockstep Cores):两个 CPU 核执行相同指令序列,每个时钟周期比较输出。若结果不一致则立即触发故障响应。检测覆盖率 > 99%,代价是算力减半。

ECC 内存:使用 SECDED(Single Error Correct, Double Error Detect)编码,可纠正 1 位错误、检测 2 位错误。存储开销约 12.5%(每 64 位数据附加 8 位校验位)。

看门狗定时器(Watchdog Timer):主处理器需定期发送"喂狗"信号,超时未响应则触发系统复位或安全降级。

安全岛(Safety Island)架构

主 SoC(CPU + GPU/NPU,ASIL-B)
    │ 心跳/状态上报(周期 < 10 ms)
    ↓
安全岛 MCU(独立供电,ASIL-D 认证)
    ├─ 心跳超时 → 触发主 SoC 复位 / 最小风险动作(MRC)
    ├─ 输出异常 → 触发接管请求(TOR)
    └─ 自身故障 → 安全输出(使能制动保持)

安全岛与主 SoC 拥有完全独立的电源域和时钟域,确保主 SoC 发生故障时仍能执行安全动作。

6.4 SEooC 方法

SEooC(Safety Element out of Context) 是芯片厂商在不知道最终系统集成环境的情况下,对芯片进行功能安全开发的方法。

芯片厂商基于假设的安全需求进行设计和认证,系统集成商(OEM/Tier 1)在实际集成时验证这些假设是否成立。这种方法允许芯片提前完成安全认证,大幅缩短整车开发周期。

NVIDIA Orin 即采用 SEooC 方式通过了 ASIL-B 认证,OEM 在集成时需搭配经过 ASIL-D 认证的安全岛 MCU 来满足系统级安全需求。


7. 软件生态

7.1 CUDA 生态与锁定效应

NVIDIA 的 CUDA 是 GPU 通用计算的事实标准,拥有最庞大的开发者生态和工具链:

  • TensorRT:推理优化引擎,支持图优化、算子融合、INT8/FP16 量化
  • cuDNN:深度神经网络加速库,覆盖卷积、池化、归一化等核心算子
  • CUDA Toolkit:编译器、调试器、性能分析器全套工具
  • Nsight Systems/Compute:端到端性能分析和瓶颈定位

CUDA 生态的成熟使得大量自动驾驶算法首先在 NVIDIA 平台开发和验证,形成了强大的 锁定效应(Vendor Lock-in):一旦模型深度优化于 CUDA/TensorRT,迁移到其他平台需要重新适配算子、调整量化策略并验证精度。

7.2 其他平台工具链

平台 推理引擎 量化工具 模型格式 生态成熟度
NVIDIA TensorRT 内置 PTQ/QAT ONNX/TensorRT Engine 最高
高通 SNPE/QNN AIMET DLC/QNN 模型
华为 AscendCL/CANN AMCT OM 模型 中高
地平线 BPU SDK(天工开物) 内置 HBM 模型 中高
Mobileye 专有工具链 专有 专有格式 封闭但完整
Intel(OpenVINO) OpenVINO Runtime POT/NNCF IR/ONNX 高(通用场景)

7.3 模型部署优化

将深度学习模型从训练环境部署到车端芯片,需要经过一系列优化步骤:

量化(Quantization):将 FP32 权重和激活值转换为 INT8 或更低精度,减少计算量和内存占用。

\[W_{\text{int8}} = \text{round}\left(\frac{W_{\text{fp32}}}{s}\right) + z\]

其中 \(s\) 为缩放因子(scale),\(z\) 为零点偏移(zero-point)。主要方法包括:

  • PTQ(Post-Training Quantization):训练后量化,使用校准数据集确定量化参数,无需重新训练
  • QAT(Quantization-Aware Training):量化感知训练,在训练过程中模拟量化效果,精度损失更小

剪枝(Pruning):移除模型中贡献小的权重或通道,减小模型规模。结构化剪枝(整个通道或层)比非结构化剪枝更适合硬件加速。

编译器优化:芯片厂商的编译器将模型计算图转化为硬件可执行的指令序列,常见优化包括:

  • 算子融合:将相邻算子合并为一个核函数,减少内存读写
  • 内存规划:优化中间特征图的内存分配,减少峰值内存占用
  • 指令调度:充分利用硬件并行度,提高计算单元利用率

8. 发展趋势

8.1 Chiplet 架构

Chiplet(芯粒) 架构将单一大芯片拆分为多个独立制造的小芯片,通过先进封装技术互连。这一趋势正在改变自动驾驶芯片的设计范式:

  • 良率提升:小芯片良率远高于大芯片,降低制造成本
  • 灵活组合:不同功能模块可使用不同制程节点(如 CPU 用 5 nm、I/O 用 12 nm)
  • 算力可扩展:通过堆叠更多 Chiplet 线性扩展算力

NVIDIA Thor 和 AMD MI300 系列均采用了 Chiplet 设计理念。未来自动驾驶芯片有望通过 Chiplet 实现从 L2+ 到 L4 的灵活算力配置。

8.2 车载 AI 加速器演进

车载 AI 加速器的演进路线呈现以下趋势:

  • 专用化:从通用 GPU 向专用 NPU/DLA 演进,针对 Transformer、BEV 等特定模型结构优化微架构
  • 稀疏化支持:硬件原生支持稀疏矩阵运算,在相同算力下处理更大模型
  • 大模型支持:随着端到端大模型上车,芯片需支持更大的权重存储和更高的内存带宽
  • 多模态融合加速:硬件层面支持视觉、点云、文本等多模态数据的高效融合处理

8.3 中央计算架构

传统的分布式 ECU 架构正在向 中央计算架构 演进:

传统架构(分布式):
  ADAS ECU + 座舱 ECU + 车身 ECU + 底盘 ECU + ... (数十个 ECU)

中央计算架构:
  中央计算单元(HPC)
    ├─ 自动驾驶域
    ├─ 智能座舱域
    ├─ 车身控制域
    └─ 底盘动力域

中央计算架构要求单一芯片或芯片组具备 多域融合 能力,同时处理自动驾驶、座舱交互、车身控制等多种任务。NVIDIA Thor 和高通 SA9000P 正是面向这一趋势设计的。

8.4 云-边-端协同计算

自动驾驶的计算不仅发生在车端,云-边-端协同 正在成为新的范式:

  • 云端:大规模模型训练、数据挖掘、仿真测试、OTA 模型更新
  • 边缘端(路侧):V2X 路侧计算单元(RSU),提供超视距感知和交通信号协同
  • 车端:实时推理、决策和控制,延迟敏感型任务

核心挑战在于如何在保证实时性的前提下,合理分配计算任务到不同节点。安全关键功能(如紧急制动)必须完全在车端完成,而非安全关键的辅助功能(如高精地图更新)可以利用云端算力。

8.5 前沿技术展望

光子计算(Photonic Computing):利用光信号进行矩阵乘法运算,理论上可实现超低延迟和极高能效比。目前处于实验室阶段,但已有初创公司(如 Lightmatter、Lightelligence)展示了原型芯片。

存算一体(Computing-in-Memory):将计算逻辑嵌入存储单元中,消除数据搬运的能耗和延迟。RRAM/MRAM 等新型存储器为存算一体提供了硬件基础,有望在未来 5-10 年进入车规级应用。

类脑计算(Neuromorphic Computing):模拟生物神经网络的事件驱动计算模式,在处理稀疏事件数据(如事件相机输出)时具有极高的能效比。Intel Loihi 2 和 IBM 的 NorthPole 是代表性芯片。


参考资料

  1. NVIDIA. NVIDIA DRIVE Orin Technical Reference Manual. NVIDIA Developer Documentation.
  2. NVIDIA. NVIDIA DRIVE Thor Architecture Overview. NVIDIA GTC Conference, 2024.
  3. Tesla. Tesla AI Day 2022: FSD Computer and Dojo. Tesla Official Presentation.
  4. Mobileye. EyeQ Product Family Technical Specifications. Mobileye Official Documentation.
  5. Qualcomm. Snapdragon Ride Platform: Scalable Autonomous Driving Solutions. Qualcomm Technologies.
  6. Horizon Robotics. 征程系列芯片技术白皮书. 地平线官方文档.
  7. 华为. 昇腾 MDC 智能驾驶计算平台技术规格. 华为官方文档.
  8. Black Sesame Technologies. 华栾 A1000 系列产品手册. 黑芝麻智能官方文档.
  9. ISO 26262:2018. Road vehicles — Functional safety. International Organization for Standardization.
  10. AEC-Q100 Rev. J. Failure Mechanism Based Stress Test Qualification for Integrated Circuits. Automotive Electronics Council.
  11. 邓志东 等. 自动驾驶技术概论. 清华大学出版社, 2023.
  12. S. Liu et al. "A Survey on Computing Architectures for Autonomous Driving." IEEE Transactions on Intelligent Transportation Systems, 2023.
  13. Y. Li et al. "BEVFormer: Learning Bird's-Eye-View Representation from Multi-Camera Images via Spatiotemporal Transformers." ECCV, 2022.
  14. A. Jouppi et al. "In-Datacenter Performance Analysis of a Tensor Processing Unit." ISCA, 2017.