"); //-->
实现L4级自动驾驶究竟需要多少算力?目前并没有一个明确的答案,车企不轻易下结论,似乎算力越高越有安全感;芯片厂商们的口径一直在变,从几百TOPS上涨到几千TOPS……
对于未来智能汽车的想象,业内有一种说法是“A Data Center on Wheels”,即“轮子上的数据中心”,在可预见的将来,一辆汽车甚至可以相当于现在数据中心的算力级别。整个自动驾驶芯片领域的厂商们,都在向算力指数级翻倍和更先进芯片制程的道路上策马扬鞭。这个高度“内卷”的赛道,是什么在背后推动?算力的无限膨胀和制程的持续提升,什么时候才能“卷”到尽头?
自动驾驶系统之重
AI域控制器
自动驾驶域控制器是自动驾驶系统的中央计算单元,它需要高算力来实现感知、规划和决策等关键任务,是未来智能汽车的“大脑”。受益于汽车的智能化发展,以及汽车电子电气架构由分布走向集中的趋势,域控制器市场正在快速增长。
同时,自动驾驶域控制器之所以越来越重要,主要原因是全车算力向驾驶域集中。驾驶域算力追加的主要驱动因素,则是传感器输入信号的复杂程度逐步提升,使底层 SoC 需要同步提升自身的计算能力、传输带宽、存储能力。
例如,L2 级别侧视摄像头的加入,导致需要预处理的视频数据成倍增加,L3+级别激光雷达的加入又不断地生成千万级的待处理点云信息……这都使得自动驾驶域控制器成为车上算力需求最高的计算中心。同时,出于安全性要求,自动驾驶域还需要布设冗余,甚至驾驶域未来还将逐步整合座舱域、车身域等功能域。
那么,在人工智能发展下所催生的AI域控制器,和传统意义上的控制器有什么差别?
传统控制器称作ECU,每一辆车包括多个ECU,每个ECU负责固定的功能。AI域控制器通过AI算法做传感器感知,对物体、路径进行识别判断。相对于传统控制器,。AI域控制器一是减少了ECU的数量,二是大幅优化了传统车辆的线束问题。
目前,AI域控制器功能主要由主控芯片、系统软件(操作系统、中间件)和应用算法协同实现。从目前车企的做法来看,业内普遍认为以主控芯片为代表的高性能硬件会率先上车,而操作系统及应用软件等则会随着算法模型不断迭代持续更新,逐步释放预埋硬件的利用率,保证汽车功能的迭代升级。
蔚然成风的“硬件预埋”趋势
在探讨自动驾驶域控制器的芯片升级之前,要先谈谈现在流行的“硬件预埋”。正如本文开头所说,L4级自动驾驶究竟需要多少算力,没有一个唯一的答案。事实上,这个“多少才算够用”的标准,正在持续升级。
主机厂纷纷推动“硬件预埋”概念,也就是说,虽然目前可能用不到这么高算力的芯片,但是超前地先把硬件做足,将来通过OTA升级,一步步在该硬件平台上叠加更多的算法,实现新的功能。
当然,这和智能手机的堆料、比拼硬件配置还有本质的不同, 因为汽车寿命更长,而芯片的迭代周期远远短于汽车的寿命周期,因此通过“硬件预埋”的方式为下一步的升级做好前瞻规划,也是一种合理的路径。同时,如果预埋的硬件不能满足更高等级自动驾驶功能对数据处理的需求时,就需要对硬件升级,这需要车辆设计之初便预留好相应的硬件接口。
当前在国内市场,很多公司基本都是这样的思路,硬件在能力范围内做到最高端,能对标L4更好,然后软件和算法再慢慢迭代,在L2+、L3慢慢突破,未来通过OTA达到L4。
快速变化的AI域控制器市场格局
在这些趋势下,自动驾驶域控制器芯片开始高度“内卷”,不论是算力、功耗还是制程。随着AI域控制器时代的到来,SoC 需要的芯片复杂度更高,在高算力SoC芯片竞争中,市场格局迅速变化。
在刚刚结束的CES上,英伟达推出第八代 DRIVE Hyperion 平台,该平台由两颗NVIDIA DRIVE Orin芯片构成,每颗算力达254TOPS; Mobileye发布了专为L4自动驾驶打造的新一代EyeQ Ultra芯片,算力达176TOPS,性能为上一代 Eye Q5 的 10 倍以上;安霸则推出AI域控制器芯片CV3系列SoC,算力达500 eTOPS,比上一代芯片CV2足足提高了42倍……
从当前域控制器芯片玩家中不难发现,在自动驾驶的算力军备赛中,选手类型越来越丰富,既有NXP、英飞凌、TI这样的资深玩家,也有英伟达、高通、华为这样的实力型选手,还有年轻的AI芯片企业,以及像安霸这样,在视觉图像处理领域扎根多年的后来者。
从AI视觉感知到AI域控制器
安霸凭什么?
提起安霸,最广为人知的一个标签是它在安防监控市场的地位,凭借低功耗、超高清视频解压缩、机器视觉图像处理SoC芯片等,其安防监控芯片被全球前二十名的安防摄像机品牌采用,并成为市场主流。
但事实上,安霸在2015年就进军智能汽车领域,目前已经量产了10nm制程CV2x的六大芯片系列,带有安霸独有的AI加速引擎设计,应用场景覆盖ADAS、智能电子后视镜、智能座舱驾驶员的监测以及舱内的感知,以及行泊一体的方案。
可以看到,从早期不带AI硬件加速的芯片,到10nm的 CV2x系列,再到5nm的CV5,安霸已经在智能汽车领域跋涉了相当长的一段路。
在今年的CES上,安霸最新推出了基于CVflow架构的AI域控制器CV3系列SoC,采用5nm超低功耗制程,单芯片AI算力达到500 eTOPS,预计将在今年上半年提供首批样品。该系列算力比上一代CV2提高了42倍,同时支持高分辨率摄像头、毫米波雷达、激光雷达和超声波雷达,据称单芯片即可实现ADAS及L4级自动驾驶。
CV3搭载了16个Arm Cortex-A78AE CPU内核,在支持自动驾驶系统的软件应用所需的CPU性能上,比上一代芯片CV2提高了30倍。通过单一芯片集成多传感器,CV3可进行集中化AI感知处理(包括高像素视觉处理、毫米波雷达、激光雷达和超声波雷达)、多传感器深度融合以及自动驾驶车的路径规划,从而打造ADAS系统和L2+至L4级自动驾驶系统。
CV3的升级,可以说将自动驾驶赛道的高算力“内卷”推向了高潮。安霸为什么选择在这个时候推出一款旗舰版的AI域控制器芯片,从而在自动驾驶高算力SoC赛道上进行角逐?
安霸中国区总经理冯羽涛表示,相比上一代CV2系列,CV3在纯粹神经网络人工智能算力上提升了40多倍,这是一个较大的跳跃。此外,之前包括CV5在内的所有芯片,主要还是用于视觉感知,主要的应用场景是带一个或多个摄像头,做一定的智能处理。从算力的角度、以及对多传感器的连接和处理角度来看,离真正的中央域控制器还是有一定的差距。
视觉处理技术是安霸从成立之初就专注的领域,近年来也大力投入AI视觉芯片,这被认为是其核心竞争力。冯羽涛表示,自动驾驶分析虽然需要多传感器融合感知,但视觉是最重要的感知系统,是人类现阶段驾驶汽车最重要的感知能力;另一方面,来自于视觉系统的信息量最密集。
“之所以决定进入这个赛道,是基于对市场发展趋势的判断以及对神经网络、人工智能算法的研究”,冯羽涛表示,“我们希望结合在视觉感知处理方面积累的包括ISP、低功耗SoC芯片的积累,加入高算力的基于CVflow架构的全新设计,能在智能驾驶汽车未来高速发展的5-10年间,给汽车行业提供好的选择。
算法优先
芯片为算法服务
在安霸的设计策略中,“算法优先”是一个核心要素,主要体现在四方面:
通过其17年的图像处理和视频压缩经验,能够以低功耗实现高分辨率的视频处理;
收购VisLab,这是一家在自动驾驶领域有25年经验积累的公司,通过收购,使得安霸进一步从自动驾驶算法对芯片的需求出发,有了更深刻地理解;
收购4D成像雷达算法公司傲酷,通过将其算法与原有的视觉技术进行融合,能够占用较少的硬件资源实现非常清晰的雷达成像,实现更有效率的视觉和雷达感知的融合;
CVflow——这是安霸CV系列芯片的核心,是一套自研的AI算法加速引擎的芯片架构,它并非通用的计算平台,而是专门为视觉感知以及其它感知算法设计的,但同时具备一定的通用性,在功耗和运算效率方面实现了较好的平衡。
也正是因为采用了特殊的芯片架构,而非通用的GPU等架构,安霸用eTOPS来度量自身芯片的算力情况。这个eTOPS中的“e”有何涵义?与TOPS有何不同?冯羽涛介绍,“e”指的是Equivalent,意思是等价的、等效的TOPS。安霸一贯的设计思路就是在通用编程适应性和提升功耗、成本的比例之间取得一个平衡点,CVflow就是采用特殊的架构专门针对卷积神经网络和常见的神经网络运算进行了优化。他指出,GPU采用标准的TOPS计量,如果运行同样的算法实现等效的性能,就可以说是Equivalent TOPS(ETOPS)。
写在最后
在自动驾驶比拼高算力的发展背景之下,芯片厂商所面临的机遇和挑战都在相应增长。随着AI域控制器时代的到来,SoC 芯片复杂度更高,需要支持多任务的复杂操作系统和应用,芯片厂商与域控制器企业合作,是加快研发、实现快速落地的重要保证。此外,在汽车芯片供应链危机的映照下,芯片厂商稳定的供货能力也愈发关键。
除此之外,要打造一个高算力平台适应现在和未来诸多的算法需求,同时又要兼顾功耗和成本,本身就不是一件易事。因为真正进入应用中,可能还会遇到新的瓶颈,所以设计之初就需要同时兼顾性能、成本、功耗等,做出适合落地的综合权衡的SoC设计,这对芯片厂商的设计能力、量产能力都是较大的挑战。
归根结底,一辆汽车最终还是要考虑成本、功耗等问题。算力的飙升,什么时候是最好的平衡点?也许现在暂时没有答案,但总不会无限地扩张下去。采访中,冯羽涛谈到,“在可预见的未来五到十年,汽车自动驾驶算力的竞争不至于再以翻N倍的方式发展,芯片的算力能效比将成为很重要的度量指标,一款芯片的算力、制程、功耗会是最核心的三个指标,代表着更好的算力平衡点。”
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。