中央计算单元 (CCU / 车载AI芯片)
自动驾驶系统需要在毫秒级时间窗口内完成"感知—理解—决策—控制"的完整闭环,这一切依赖中央计算单元(Central Computing Unit,CCU)提供的强大算力支撑。CCU 是自动驾驶汽车的"大脑",其算力规模、实时响应能力与功能安全等级共同决定了智能驾驶的能力上限。从 L2 辅助驾驶的数十 TOPS,到 L4 无人驾驶所需的数百乃至数千 TOPS,算力需求正以指数级增长,推动着车载计算芯片持续演进。
1. 处理器类型对比
现代自动驾驶计算平台并非依赖单一处理器,而是将多种异构计算单元集成于同一 SoC 或计算板卡,各司其职、协同运作。
1.1 CPU(通用处理器)
CPU 擅长顺序执行、分支判断与操作系统调度,是整个计算平台的"总指挥"。车规级 CPU 通常采用 ARM Cortex-R 系列(实时处理)或 ARM Cortex-A 系列(高性能应用)。
- Cortex-R 系列:具有硬实时特性,中断响应时间可低至微秒级,适用于制动、转向等安全关键控制任务。
- Cortex-A 系列(如 A78AE):支持运行 Linux / Hypervisor,负责系统管理、路径规划算法(如 A*、RRT)、V2X 通信协议栈处理等非实时或软实时任务。
- "AE"(Automotive Enhanced)版本支持硬件拆分模式(Split Lock),一颗物理核心可在两个隔离分区中独立运行,满足 ASIL-B/D 安全需求。
1.2 GPU(图形处理单元)
GPU 含有数千至数万个轻量级着色器核心,擅长对大规模数据进行相同操作的并行计算(SIMD/SIMT 模式),天然匹配深度学习推理中的矩阵乘法与卷积运算。
- 车载 GPU 通常采用 CUDA 架构(NVIDIA)或 GPU 计算单元(高通 Adreno 等)。
- 主要承担:多路摄像头实时感知模型推理、BEV(鸟瞰图)特征提取、3D 目标检测。
- 相比 CPU,GPU 在同等功耗下处理深度学习任务的吞吐量高出 10~100 倍。
1.3 NPU / DLA(神经网络处理单元 / 深度学习加速器)
NPU/DLA 是专为神经网络推理设计的固定功能加速器,硬件电路固化了矩阵乘法、激活函数、批归一化等常见算子。
- 能效比(TOPS/W)通常是 GPU 的 3~10 倍,非常适合车载功耗受限场景。
- 局限性:灵活性低,对非标准算子(如自定义注意力机制)支持较差,需提前编译模型至专用格式(如 ONNX → TensorRT Engine 或厂商私有格式)。
- 典型实现:NVIDIA DLA v2.0(Orin 内置 × 2)、地平线 BPU、Tesla NPU。
1.4 FPGA(现场可编程门阵列)
FPGA 通过可重配置逻辑门阵列实现硬件级并行,延迟极低(纳秒级),支持运行时重新编程。
- 主要应用于传感器数据预处理:LiDAR 点云解码与过滤、雷达原始信号 FFT、摄像头 ISP 流水线加速。
- 量产车中较少独立部署 FPGA 计算板,但部分 SoC 内置专用硬件加速器,其设计理念与 FPGA 相近。
- 代表方案:赛灵思 (AMD Xilinx) Versal 系列,集成 ARM CPU + FPGA LUT + AI Engine。
1.5 ASIC(专用集成电路)
ASIC 是为特定算法量身定制的芯片,在功耗、面积和性能上全面优化,代价是完全丧失灵活性。
- Tesla D1 训练芯片:专为神经网络训练设计,单芯片 362 TFLOPS(BF16),64 颗 D1 组成 Dojo Training Tile,算力达 1.1 PFLOPS,用于离线训练 FSD 视频推理模型。
- Mobileye EyeQ 系列:高度定制的图像处理 ASIC,集成专用视觉加速核心,超低功耗(< 15W)实现 L2+ 功能。
1.6 处理器类型综合对比
| 处理器类型 | 灵活性 | AI 算力 | 功耗效率 | 单位成本 | 开发难度 | 典型应用场景 |
|---|---|---|---|---|---|---|
| CPU | ★★★★★ | ★★ | ★★ | ★★★ | ★ | 系统调度、路径规划 |
| GPU | ★★★★ | ★★★★ | ★★★ | ★★ | ★★ | 感知推理、BEV 特征提取 |
| NPU/DLA | ★★ | ★★★★★ | ★★★★★ | ★★★★ | ★★★★ | 固定神经网络推理 |
| FPGA | ★★★★ | ★★★ | ★★★★ | ★ | ★★★★★ | 传感器预处理、低延迟逻辑 |
| ASIC | ★ | ★★★★★ | ★★★★★ | ★★★★★ | ★★★★★ | 量产专用加速(训练/推理) |
(★越多代表该维度越强;成本★越多代表成本越低)
2. 主流自动驾驶 SoC 详解
2.1 NVIDIA Orin(AGX Orin / Drive Orin)
- 制程:12nm(三星)
- AI 算力:254 TOPS(INT8)
- CPU:12 核 ARM Cortex-A78AE
- GPU:2048 核 Ampere 架构 GPU
- DLA:2 × NVDLA v2.0(专用深度学习加速器)
- ISP/PVA:支持最多 16 路摄像头输入,内置可编程视觉加速器(PVA)
- 内存:最大 64 GB LPDDR5,内存带宽 204 GB/s
- 功耗:45 W(典型),最大 60 W
- 量产客户:理想汽车(AD Max 平台,双 Orin)、蔚来 ET7/ES7、小鹏 G9/P7i、比亚迪海豹 DM-i 等
- 特点:CUDA/TensorRT 生态完整,支持多芯片 NVLink 级联;具备硬件虚拟化,可同时运行 QNX 安全域与 Linux 功能域。
2.2 NVIDIA Thor
- 制程:4nm(台积电 N4)
- AI 算力:2000 TOPS(单芯片)
- GPU:Blackwell 架构,支持 FP8 推理
- 目标场景:L4/L5 完全自动驾驶,中央计算架构(将座舱与驾驶计算合并)
- 接口:支持以太网 TSN、PCIe Gen5、DisplayPort 2.1
- 发布时间:2025 年量产车型预计首发搭载
- 特点:相比 Orin 算力提升近 8 倍,支持端到端大模型在车端实时推理。
2.3 Tesla FSD Chip(HW3,硬件三代)
- 制程:14nm(三星)
- AI 算力:144 TOPS(双芯片合计 288 TOPS)
- CPU:12 核 ARM A72
- GPU:Mali G71 MP12(主要用于显示)
- NPU:2 × 自研 NNA(Neural Network Accelerator),每颗支持 72 TOPS
- 功耗:72 W(整个计算硬件)
- 存储:LPDDR4,内存带宽 68 GB/s
- 设计亮点:双 SoC 热备冗余(两颗独立运行,互相监控输出),自研 NPU 对 Tesla 特有卷积网络高度优化
- 应用范围:Autopilot / FSD Beta,仅支持摄像头视觉方案(无雷达、无激光雷达)
2.4 Tesla AI5(HW4)
- AI 算力:300+ TOPS(具体数据未完全公开)
- 摄像头支持:支持 5MP 高分辨率摄像头(HW3 为 1.2MP)
- 制程:据报道采用台积电 7nm 以下制程
- 量产时间:2023 年下半年开始搭载于 Model S/X/3/Y 改款
- 特点:算力大幅提升,为 FSD V12 端到端神经网络架构(视频级输入直接输出控制量)提供支撑。
2.5 Mobileye EyeQ6(High / Low)
- 制程:7nm(台积电)
- AI 算力:EyeQ6H:34 TOPS;EyeQ6L:10 TOPS
- 功耗:EyeQ6H < 15 W;EyeQ6L < 5 W
- 架构:多核 MIPI VMP(Vector Microcode Processor)+ 标量处理器 + 深度学习加速核心
- 软件闭环:Mobileye 采用完整软硬件垂直整合模式,仅开放有限 API 给主机厂
- 量产客户:宝马、通用、Stellantis 等,搭载于 SuperVision 辅助驾驶系统
- 特点:极低功耗、符合严苛车规要求,适合无独立散热设计的车型
2.6 Mobileye Chauffeur(L4 平台)
- 架构组成:EyeQ6H × 2 + EyeQ6L × 1 + 激光雷达处理单元
- 目标算力:约 100 TOPS 组合算力
- 冗余设计:三模冗余(TMR),具备 ASIL-D 安全完整性
- 目标场景:Robotaxi、无人配送车等 L4 级商业化运营
- 合作方:与 Volkswagen ID.Buzz 自动驾驶出租车项目合作
2.7 地平线征程 5
- 制程:16nm(台积电)
- AI 算力:128 TOPS(INT8)
- CPU:8 核 ARM Cortex-A55
- BPU:地平线自研 BPU(Brain Processing Unit)第三代架构,专为视觉感知网络优化
- 功耗:30 W(典型)
- 内存:支持 LPDDR4X,带宽 51.2 GB/s
- 量产客户:理想 L 系列(入门版)、长城、奇瑞、大众(合资智驾项目)等
- 特点:提供较开放的 SDK(OpenExplorer),支持第三方算法部署,国内适配生态较完善
2.8 地平线征程 6 系列
- 制程:8nm(三星)
- 型号矩阵:J6E(128 TOPS)、J6M(256 TOPS)、J6H(560 TOPS)
- 发布时间:2024 年开始陆续量产
- 架构升级:BPU 第四代,支持 Transformer 类模型加速,显著提升端到端模型推理效率
- 内存带宽:J6H 达 153.6 GB/s(LPDDR5)
- 目标场景:覆盖 L2+ 至 L3 全场景,J6H 面向旗舰高阶智驾
2.9 高通 Snapdragon Ride Elite(SA8775P 等)
- 制程:4nm(台积电)
- AI 算力:60+ TOPS(ADAS 专用引擎)
- 架构:Kryo CPU(ARM V9)+ Adreno GPU + Hexagon DSP + Sensing Hub
- 集成度:座舱域与驾驶域芯片融合(Cockpit + ADAS 合一 SoC)
- 量产客户:吉利、上汽、宝马(座舱域)
- 特点:高通 5G 通信基带集成,支持 V2X C-V2X 标准;AI 算力相对偏低,主要定位 L2+
2.10 华为昇腾(MDC 810 计算平台)
- 核心芯片:昇腾 610 + 昇腾 310(异构组合)
- AI 算力:整板算力 400 TOPS
- CPU:鲲鹏 ARM 核心
- 功耗:约 100 W
- 接口:支持 8 路摄像头、3 路激光雷达、6 路毫米波雷达
- 量产客户:北汽极狐 αS HI 版、阿维塔 11、问界 M9(HarmonyOS 智驾)
- 特点:MindSpore 框架 + Atlas 平台完整闭环;华为提供"硬件+软件+算法"整体解决方案
2.11 主流 SoC 全面对比
| 芯片型号 | 厂商 | 制程 | AI 算力 | 功耗 | 内存带宽 | 量产客户(代表) | 市场定价区间 |
|---|---|---|---|---|---|---|---|
| Orin X | NVIDIA | 12nm | 254 TOPS | 45 W | 204 GB/s | 理想、蔚来、小鹏 | ~$200(芯片裸价) |
| Thor | NVIDIA | 4nm | 2000 TOPS | ~100 W | 1 TB/s(预估) | 2025+ 旗舰车型 | 未公开 |
| FSD(HW3) | Tesla | 14nm | 144 TOPS | 72 W | 68 GB/s | Tesla 自用 | 内部成本 |
| AI5(HW4) | Tesla | 7nm 以下 | 300+ TOPS | ~80 W | 未公开 | Tesla 自用 | 内部成本 |
| EyeQ6H | Mobileye | 7nm | 34 TOPS | < 15 W | 未公开 | 宝马、通用 | < $100 |
| 征程 5 | 地平线 | 16nm | 128 TOPS | 30 W | 51.2 GB/s | 理想(低配)、长城 | ~¥300 |
| 征程 6H | 地平线 | 8nm | 560 TOPS | 50 W | 153.6 GB/s | 2024+ 量产车 | 未公开 |
| Ride Elite | 高通 | 4nm | 60+ TOPS | 35 W | 未公开 | 吉利、上汽 | 中等 |
| MDC 810 | 华为 | N/A | 400 TOPS | 100 W | 未公开 | 极狐、阿维塔、问界 | 较高 |
3. 异构计算架构详解
3.1 SoC 内部架构层次
以 NVIDIA Orin 为例,一颗 SoC 内部集成的功能单元包括:
┌─────────────────────────────────────────────────────────┐
│ NVIDIA AGX Orin SoC │
│ ┌────────────┐ ┌────────────┐ ┌────────────────────┐ │
│ │ CPU Cluster│ │ GPU │ │ DLA × 2 │ │
│ │ (12× A78AE)│ │ (2048 CUDA)│ │ (NVDLA v2.0) │ │
│ └────────────┘ └────────────┘ └────────────────────┘ │
│ ┌────────────┐ ┌────────────┐ ┌────────────────────┐ │
│ │ ISP │ │ PVA │ │ Video Codec │ │
│ │ (16ch 摄像)│ │ (可编程视觉)│ │ (H.265/VP9 编解码) │ │
│ └────────────┘ └────────────┘ └────────────────────┘ │
│ ┌────────────┐ ┌────────────────────────────────────┐ │
│ │ MCU │ │ 安全岛(Lockstep Cortex-R52) │ │
│ │ (实时控制) │ │ (ISO 26262 ASIL-D 隔离域) │ │
│ └────────────┘ └────────────────────────────────────┘ │
│ 片上互联:NVSwitch / AMBA CHI 网格总线 │
└─────────────────────────────────────────────────────────┘
3.2 任务分配策略
异构计算的核心优势在于让"合适的任务跑在合适的硬件上",从而同时优化延迟与能效:
| 任务类型 | 推荐处理单元 | 典型时延要求 | 原因 |
|---|---|---|---|
| 摄像头感知(目标检测/分割) | NPU / DLA | < 30 ms | 固定 CNN 结构,NPU 能效最优 |
| LiDAR 点云预处理(解码、过滤) | FPGA / DSP | < 5 ms | 数据量大,需确定性低延迟 |
| BEV 特征融合 | GPU | < 20 ms | Transformer 算子多样,GPU 灵活性强 |
| 路径规划(A* / Lattice Planner) | CPU | < 50 ms | 分支逻辑复杂,CPU 单线程性能更优 |
| 传感器数据同步与时间戳对齐 | MCU / 实时 CPU | < 1 ms | 硬实时需求 |
| 摄像头降噪 / HDR 处理 | ISP | < 3 ms | 专用硬件管线效率最高 |
| OTA 升级包校验 | HSM | 离线批处理 | 安全隔离环境,防篡改 |
3.3 内存层次架构
高吞吐量计算需要匹配的内存带宽,车载 SoC 通常采用多级存储层次:
- 片上 SRAM(L1/L2 Cache):容量 4~32 MB,带宽 > 1 TB/s,延迟 < 5 ns,CPU/GPU 核心私有缓存
- 片上 SRAM(NPU 专用):NPU 激活缓存,直接影响网络推理的批处理效率
- LPDDR5 / LPDDR5X:主内存,带宽 68~256 GB/s,延迟约 40~80 ns,CPU+GPU+NPU 共享
- HBM2E(高带宽内存):部分高端平台(如 Tesla D1)采用,单通道带宽 > 460 GB/s,但成本更高
- NAND Flash / UFS 3.1:持久存储,用于操作系统镜像、模型文件、行车记录
3.4 带宽需求分析
一个典型 L3 自动驾驶感知系统的原始数据带宽估算:
| 传感器 | 数量 | 分辨率/帧率 | 单路带宽 | 合计带宽 |
|---|---|---|---|---|
| 前向高分辨率摄像头 | 1 | 8MP @ 30fps | ~720 Mbps | ~720 Mbps |
| 环视摄像头 | 7 | 2MP @ 30fps | ~180 Mbps | ~1.26 Gbps |
| 固态激光雷达 | 1 | 100 线 @ 10Hz | ~200 Mbps | ~200 Mbps |
| 毫米波雷达 | 5 | 原始 ADC 数据 | ~20 Mbps | ~100 Mbps |
| 合计(传感器原始) | - | - | - | ~2.3 Gbps |
在 ISP 解码、点云过滤后进入 SoC 主内存的有效带宽约为 5~15 GB/s(考虑中间特征图的内存读写),这也是为何车载 SoC 必须配备超过 100 GB/s 的内存带宽。
4. 车规级要求
4.1 AEC-Q100 可靠性认证
AEC-Q100(汽车电子委员会 Q100 标准)是集成电路进入汽车供应链的基础门槛:
| 测试项目 | 要求 | 目的 |
|---|---|---|
| 工作温度范围 | Grade 1:-40°C ~ +125°C | 覆盖高温暴晒与极寒启动 |
| 高温运行寿命(HTOL) | 1000 小时 @ 最高结温 | 验证长期热应力下芯片可靠性 |
| 湿热偏压测试(H3TRB) | 85°C / 85% RH,1000 小时 | 防止潮湿导致金属腐蚀与漏电 |
| 振动与冲击 | 符合 AEC-Q100-002/012 | 模拟路面颠簸对焊点的疲劳 |
| 静电放电(ESD) | HBM ≥ 2 kV | 防止装配过程中的静电损伤 |
4.2 ISO 26262 功能安全(ASIL 等级)
ISO 26262 是汽车功能安全国际标准,定义了汽车安全完整性等级(ASIL)从 A 到 D,D 级要求最严苛。
- ASIL-B:适用于辅助驾驶(L2)中的感知计算部分,允许单点故障检测概率 ≥ 99%
- ASIL-D:适用于制动、转向等执行机构的实时控制 MCU,要求硬件故障度量指标(SPFM)≥ 99%,LFM ≥ 90%
CCU 满足 ISO 26262 的常见硬件手段: - ECC 内存(Error Correcting Code):检测并纠正单比特错误,防止宇宙射线引起的软错误(SEU) - 锁步(Lockstep)双核:两颗相同核心同步执行,输出结果实时比较,任何差异触发安全告警 - 看门狗定时器(Watchdog):若软件死锁未及时喂狗,硬件强制复位系统 - BIST(内建自测试):上电时对 CPU 缓存、NPU SRAM 执行自检,保证硬件初始状态正确
4.3 SOTIF(ISO 21448)对算法平台的要求
SOTIF(Safety Of The Intended Functionality,预期功能安全)关注系统在"没有故障"情况下,因功能局限或感知不足导致的危险。
对 CCU 硬件平台的影响: - 需要足够算力以支持冗余感知模型(主模型 + 安全监督模型同时运行,互相校验输出) - 需要提供高精度时间戳(< 1μs 精度),支持传感器数据融合的时间对齐 - 需要支持数据记录(黑匣子功能),用于事故后的 SOTIF 验证分析
4.4 硬件安全模块(HSM)与可信执行环境(TEE)
网联自动驾驶面临网络攻击风险,CCU 必须内置安全机制:
- HSM(Hardware Security Module):芯片内独立安全核心(如 ARM TrustZone-M),管理密钥存储、安全启动(Secure Boot)、数字签名验证,与主计算区域物理隔离
- TEE(Trusted Execution Environment):基于 ARM TrustZone-A 的隔离执行环境(如 OP-TEE),保护 OTA 升级包校验、车辆身份认证、敏感用户数据处理
- 安全启动链:BootROM → BL1(HSM 签名验证)→ BL2(U-Boot)→ OS 内核,每一层验证下一层的数字签名,防止固件篡改
- 运行时完整性检测:通过内核完整性度量(IMA)持续监控关键软件模块的哈希值,发现篡改立即告警
5. 算力趋势与展望
5.1 L2+ → L4 算力需求增长规律
自动驾驶等级提升对算力的需求近似遵循"算力摩尔定律"——每提升一个主要自动驾驶等级,所需算力增长约 5~10 倍:
| 自动驾驶等级 | 代表功能 | 典型算力需求 | 代表平台 |
|---|---|---|---|
| L1 | AEB 紧急制动、LKA 车道保持 | < 1 TOPS | Mobileye EyeQ2 |
| L2 | 高速领航辅助(NOA) | 5~30 TOPS | EyeQ4、Orin 小算力配置 |
| L2+ | 城市 NOA、记忆泊车 | 30~100 TOPS | 征程 5、Orin 单芯 |
| L3 | 特定场景有条件自动驾驶 | 100~500 TOPS | 双 Orin、MDC 810 |
| L4 | 特定区域完全自动驾驶 | 500~2000 TOPS | Thor、多芯级联 |
| L5 | 全场景无人驾驶 | > 2000 TOPS | 未来架构 |
从 L2 到 L4,算力需求约增长 100 倍,而这一跨越通常在 6~10 年内完成,对应芯片算力年均增长约 60%,远超传统消费芯片的摩尔定律速率(~40%/年)。
5.2 端到端大模型对车端算力的新需求
2023 年以来,Tesla FSD V12、华为 GOD 网络(通用障碍物检测)、UniAD 等端到端自动驾驶架构开始从学术走向量产,对车端 CCU 提出全新挑战:
- 模型参数量:端到端模型参数量通常为 100M~10B,而传统模块化感知模型约 10M~100M,推理计算量增加 10~100 倍
- 输入模态:直接以视频帧(而非单帧图像)作为输入,时序上下文窗口 4~16 帧,进一步放大计算需求
- Transformer 算子:多头自注意力机制的计算复杂度为 O(n²),对 NPU 的 Transformer 加速能力要求更高
- 对策:模型量化(INT8 → INT4)、剪枝、知识蒸馏、以及芯片侧专用 Transformer 加速单元(如征程 6 的 BPU v4)
5.3 车端推理 vs 云端训练的分工
┌──────────────────────────────────────────────────────────┐
│ 云端(数据中心) │
│ ┌─────────────────────────────────────────────────────┐ │
│ │ 海量行车数据(PB 级)→ 数据清洗 → 自动标注 │ │
│ │ GPU 集群训练(A100/H100/D1)→ 模型优化 → OTA 推送 │ │
│ └─────────────────────────────────────────────────────┘ │
└────────────────────────┬─────────────────────────────────┘
│ OTA(Over-The-Air 更新)
┌────────────────────────▼─────────────────────────────────┐
│ 车端(CCU) │
│ ┌─────────────────────────────────────────────────────┐ │
│ │ 实时推理(< 100ms 端到端延迟) │ │
│ │ 数据采集(Corner Case 上传) │ │
│ │ 本地增量学习(未来趋势) │ │
│ └─────────────────────────────────────────────────────┘ │
└──────────────────────────────────────────────────────────┘
当前阶段,车端 CCU 专注于推理,训练完全在云端完成。未来随着片上学习(On-Device Learning)技术成熟,车端可能支持小规模个性化增量训练,进一步降低对云端依赖、保护用户隐私。
5.4 国产芯片追赶进度
| 厂商 | 旗舰产品 | 当前量产算力 | 主要差距 | 追赶路径 |
|---|---|---|---|---|
| 地平线 | 征程 6H | 560 TOPS | 软件生态成熟度 | 深化 BPU SDK、扩展国际客户 |
| 华为 | 昇腾 MDC 810 | 400 TOPS | 供应链受限(先进制程) | 国内自主制程突破 |
| 黑芝麻智能 | 华山 A2000 | 256 TOPS | 量产客户规模偏小 | 与主机厂深度绑定 |
| 芯驰科技 | X9SP | 8 TOPS | 定位 L2,算力较低 | 向 L2+ 升级 |
| 寒武纪行歌 | 思元 590(车规版) | 256 TOPS(非车规) | 车规认证进行中 | AEC-Q100 认证突破 |
国产车规芯片在 2024~2025 年已在中低端智驾市场形成一定竞争力,但在最先进制程(4nm 以下)、软件生态完整度和全球量产经验方面仍与 NVIDIA 存在明显差距。随着国内主机厂对供应链安全的重视,"国产替代"战略将持续加速国产 CCU 芯片的商业化进程。
参考资料
- NVIDIA. "DRIVE AGX Orin Technical Brief." NVIDIA Developer Documentation, 2023. https://developer.nvidia.com/drive/agx
- Tesla. "Tesla AI Day 2021: FSD Computer Architecture." Tesla Technical Presentations, 2021. https://youtu.be/j0z4FweCy4M
- Mobileye. "EyeQ6 Product Brief." Mobileye Technology White Papers, 2023. https://www.mobileye.com/technology/eyeq-chip/
- 地平线. 《征程 6 系列芯片技术白皮书》. 地平线官方技术文档, 2024. https://www.horizon.ai
- ISO. "ISO 26262:2018 — Road vehicles — Functional safety." International Organization for Standardization, 2018.
- 工业和信息化部. 《智能网联汽车车载计算平台参考架构》. 中国智能网联汽车产业创新联盟(CAICV)标准白皮书, 2023.