
通往完全自动驾驶的道路注定漫长而曲折。每一项提升车辆自主能力的新技术,都必须经过严苛的安全性和耐久性测试,才能真正驶上公共道路。这不是一场短跑,而是一场马拉松。
高级驾驶辅助系统(ADAS)是当前自动驾驶技术的核心载体。它整合了电源、传感器和电子设备,实现紧急制动、自适应巡航、自动泊车等功能。系统的有效性取决于两个关键因素:传感器的精度和车载控制器的分析速度。
这正是人工智能大显身手的地方。
根据IDTechEx发布的《边缘应用的AI芯片2024–2034》报告,能够高效处理机器学习任务的AI芯片预计到2034年将创造超过220亿美元的市场收入。其中,汽车行业将成为增长最快的领域,复合年增长率达到13%。
汽车AI芯片通常部署在集中式微控制器(MCU)中,与摄像头、雷达、激光雷达等传感器协同工作,构成完整的ADAS系统。
车载AI计算的应用场景相当广泛:
驾驶员监控:识别特定驾驶员并调整控制装置,监测头部和身体姿态以检测疲劳,事故发生时优化座椅位置
驾驶辅助:负责物体检测,实时调整转向和制动
车载娱乐:提供类似智能手机的语音助手功能
其中最关键的是驾驶辅助——AI系统的稳健性和响应速度,直接决定了车辆能达到的自动驾驶等级。
自2014年发布以来,SAE驾驶自动化分级标准已成为行业最权威的参考框架,将自动驾驶分为六个等级:
| 等级 | 描述 |
|---|---|
| 0级 | 无自动化,完全人工驾驶 |
| 1级 | 驾驶辅助,如定速巡航 |
| 2级 | 部分自动化,可同时控制转向和加减速 |
| 3级 | 有条件自动化,特定场景下可脱手 |
| 4级 | 高度自动化,限定区域内无需人工干预 |
| 5级 | 完全自动化,任何场景下均可自主驾驶 |
目前私人乘用车市场能达到的最高水平是2级。而从2级跃升至3级,意味着系统必须能够在特定情境下独立完成驾驶决策,这背后是技术难度的指数级跃升。
车内传感器——包括激光雷达、视觉摄像头、毫米波雷达等——持续向主处理单元传递环境信息。计算单元分析这些数据后,对车辆做出相应调整。
为了确保处理的有效性,AI芯片采用的机器学习算法必须在部署前经过海量数据训练。训练结束后,算法需要能够准确检测物体、识别类别,并判断物体与背景的景深关系。
根据系统的反馈方式,ADAS可分为两类:
被动ADAS:通过声音、灯光或振动提醒驾驶员采取行动。比如倒车雷达会用"滴滴"声告诉你离障碍物还有多远。
主动ADAS:系统直接替驾驶员做出调整,比如自动紧急制动。由于这些调整是实时发生的,必须考虑车速、天气等动态变化,因此对芯片的计算速度要求极高。
用于自动驾驶的系统级芯片(SoC)虽然出现时间不长,但演进方向已经非常清晰:更小的制程工艺、更强的算力。
这符合逻辑——自动驾驶等级越高,需要处理的计算量就越大,因为原本由人类完成的判断正在被"外包"给半导体电路。
目前市场上最强劲的汽车SoC包括:
英伟达DRIVE Thor:预计2025年量产,算力高达2000 TOPS(每秒万亿次运算)
高通骁龙Ride Flex:预计2024年发布,算力700 TOPS
然而,追求更先进制程意味着更高的制造成本。深紫外(DUV)和极紫外(EUV)光刻设备价格不菲,这为大多数芯片厂商设置了难以逾越的门槛。如今,越来越多的集成设备制造商(IDM)选择将高性能芯片外包给台积电等具备尖端制造能力的代工厂。
芯片设计师在规划架构时,必须考虑系统的可扩展性。自动驾驶的普及是一个渐进过程,如果当前设计缺乏弹性,未来每次升级都意味着重新投入高昂的研发成本。
从目前的发展轨迹来看,4nm和3nm芯片在SAE 5级实现之前应当具备足够的性能余量。设计师需要考虑的是:硬件能否适应日益复杂的AI算法迭代?
距离真正的5级全自动驾驶汽车上路,可能还需要数年时间。但支撑这一愿景的核心技术——AI芯片、传感器融合、边缘计算——正在加速成熟。
接下来几年,将是汽车行业最关键的窗口期。谁能在这场算力与算法的竞赛中抢占先机,谁就有可能定义下一个时代的出行方式。