• 发文
  • 评论
  • 微博
  • 空间
  • 微信

百度Apollo智驾感知方案又有新动作,将在2023年搭载集度ROBO-01落地

赛博汽车 2023-01-12 10:22 发文

高阶智驾量产落地战役即将打响,百度牵手集度ROBO-01参战。

作者 | 章涟漪

截至2022年9月累计订单超过140万单,百度“萝卜快跑”在北京、上海等10多个城市运营,并在重庆和武汉开放了全无人商业化运营。

1月10日,第五届百度 Create AI开发者大会上,百度创始人、董事长兼首席执行官李彦宏公布了百度L4级自动驾驶落地进展。

与此同时,当天百度L2+智能驾驶技术也有新动作,车路一体解决方案UniBEV发布。

百度方面称,这是业内首创车路一体BEV(Bird's Eye View,视觉为中心的俯视图)感知方案,将落地应用于百度Apollo高阶智驾产品ANP3.0,后者将搭载在集度ROBO-01上,于2023年正式交付。

01

什么是UniBEV技术?

“UniBEV支持多传感器、多模态、多任务、时序融合等端到端感知能力,是自动驾驶和车路协同的重要底层方案。”百度智能驾驶事业群组技术委员会主席王亮如是总结道。

众所周知,人类驾驶员主要是依靠眼睛观察道路和周边情况,而智能汽车搭载了激光雷达、毫米波雷达和高分辨率摄像头等传感器,配合AI算法帮助智能汽车拥有“千里眼”。

不同自动驾驶系统背后的感知方法也不尽相同。

王亮表示,传统的图像空间感知方法是将汽车上的雷达、摄像头等不同传感器采集来的数据分别进行分析运算,然后再把各路分析结果融合到统一的空间坐标系,用于规划车辆的行驶轨迹。

“过程中每个独立传感器收集到的数据和人眼类似,受特定视角局限,经过各自的分析运算后,在后处理融合阶段会导致误差叠加。”王亮称,这将难以精准拼凑出道路实际全貌,给车辆的决策规划带来困难。

Δ 百度UniBEV方案

百度的BEV自动驾驶感知不同于传统方式,好比是一个从高处统观全局的“上帝视角”,车身多个传感器采集的数据,会输入到统一模型进行整体推理,这样生成的鸟瞰图,有效地避免了误差叠加。

与此同时,BEV方案还能够支持时序融合,不仅是收集一个时刻的数据,分析一个时刻的数据,而是支持把过去一个时间片段中的数据都融合进模型做环境感知建模,时序信息的引入让感知到的结果更稳定,使得车辆对于道路情况的判断更加准确、让自动驾驶更安全。

正是基于BEV自动驾驶感知方案,百度提出了车路一体的解决方案UniBEV,其主要有三个特点:端到端、多任务多模态融合感知、车路一体。

“其中集成了车端多相机、多传感器的在线建图、动态障碍物感知,以及路侧视角下的多路口多传感器融合等任务,是业内首个车路一体的端到端感知解决方案。”王亮认为,基于统一的BEV空间,更容易实现多模态、多视角、多时刻的时空特征融合。

02

百度ANP3.0将于2023年面市

UniBEV技术率先落地的主要产品是ANP3.0。

ANP 3.0全称“ANP Apollo Navigation Pilot 3.0”,是百度Apollo推出的L2+级智能驾驶软硬一体产品方案,将于2023年推向市场,支持复杂城市道路场景,并且衔接融通高速和泊车场景。

Δ 百度ANP 3.0可实现多项智驾功能

其中,智能驾驶计算单元,采用的是百度自主研发的智驾域控制器ACU和含城市的全域智能驾驶软件系统。

硬件层面搭载了2颗英伟达Orin-x芯片,AI算力超500 TOPS;软件层面:ANP3.0 拥有支持城市、高速、泊车、全域场景的智驾功能模块;自研的完整数据闭环体系。可实现城市和高速高级领航辅助驾驶、AVP自主泊车、AP辅助驾驶等功能。

传感器方案方面,百度的判断是:激光雷达和视觉感知具备相同的重要性和不可替代性,缺一不可。ANP3.0以视觉方案为主,同时系统也搭配激光雷达。ANP3.0视觉、激光雷达两套系统独立运作、低耦合。

具体来看,ANP3.0采用11V5R12S2L方案。包括:2颗前向高线固态激光雷达,覆盖180度视场角,最远可检测180米;7颗800万像素高清摄像头、4颗300万像素高感光环视专用摄像头;5颗毫米波雷达和12颗超声波雷达。

Δ Apollo Lite项目

ANP3.0视觉感知技术始于2019年启动的Apollo Lite项目,采用了“单目感知”加“环视后融合”的技术框架。

初期,Lite感知系统基于深度学习的2D目标检测与3D位姿估计;模型输出的观测经过单相机跟踪、多相机融合等步骤,输出最终的感知结果。

该模型是基于规则的跟踪、融合方案,更适合小规模测试。随着数据量增加,在需要多相机协同解决的Corner case中逐渐疲软。

2022年百度对视觉感知框架进行了升级,推出了第二代纯视觉感知系统Lite++。它通过Transformer把前视特征转到BEV,在特征层面对相机观测进行前融合后,直接输出三维感知结果,并融合时序特征实现运动估计自动学习。

在模型设计层面,它基于transformer结构,实现时空特征融合。由于相机分布于车辆不同位置,每个相机收集到的数据都在单一区域,需要对其进行空间融合。

在这个阶段,百度的做法是将位置编码变换从全局BEV空间转换到局部相机坐标系,消除相机内外参差异带来的差异。时序上尽可能多的融合主车运动与多帧信息,提升障碍物检测稳定性。同时基于时序特征,可直接输出障碍物的速度、意图、未来轨迹预测等关键信息。

此外,BEV的环视时序感知更强调训练数据的标注品质与数量。它需要海量数据来“喂养”,而这恰好是百度强项。

官方数据显示,百度L4 Robotaxi已经累积了4000万公里测试里程,覆盖了不同城市、不同季节和时间段,保证了数据的多样性。测试运营过程中实时传感器数据全量落盘上云。这些都可以直接为百度的Lite++所用。

针对原始传感器记录的4D数据,即space-time的时序数据。百度还专门搭建了离线pipeline,进行感知计算。全计算流程在云上完成,自动化率达到90%以上,数据生产速度可达到每周数百万帧,以支撑BEV模型研发。

根据王亮此前介绍,ANP3.0已进入北上广深多地泛化测试阶段,将在2023年夏天随着第一个客户车型上市与大家见面。

03

集度ROBO-01承载百度高阶智驾落地重任

集度首款汽车机器人ROBO-01,将会是率先全栈应用ANP3.0高阶智能驾驶全套能力和安全体系的车型。

2022年底,广州车展上集度ROBO-01正式亮相。百度方面称,新车将于2023年交付,基于ANP 3.0产品可实现“三域融合”,即高速,城市、泊车全场景贯通。

Δ 集度ROBO-01

“三域融通”目前已经已经是业内大趋势,小鹏、华为、毫末等企业都已经进入量产。随着城市领航辅助功能在今年落地,“三域融通”也成了考验车企综合水平的重要一环。

未来,伴随着ROBO-01的量产上市,百度更高阶智驾产品也将接受市场的考验。

作为国内较早布局自动驾驶的企业,百度已经实现了多场景布局,包括Robotaxi、自动驾驶卡车、无人公交、无人小巴等。

其中,Robotaxi赛道最具商业价值,也是百度布局的主战场。通过近10年时间布局,百度在国内玩家中走在了前面,车辆测试运营规模和布局城市均超过了其他玩家。

虽然在自动驾驶领域,百度在国内处于排头兵位置,但受限于技术、政策等因素,自动驾驶距离真正的商业回报期还有较远的距离。

因此,面向量产车的智能化赋能,才是百度现阶段最具有商业价值的事情。这也是百度Apollo计划推出的主要原因,所谓“勇攀珠峰,沿途下蛋”,就是希望在突破高阶自动驾驶的同时,能够将一些技术拆解落地,赋能车企智能化转型。

正如前文所言,百度Apollo于2019年6月发布L4级自动驾驶纯视觉城市道路闭环解决方案百度Apollo Lite。并基于此在当年12月举办的百度在Apollo生态大会上,发布了两款面向量产车的产品ANP(百度领航辅助驾驶系统)和AVP(自主泊车系统)。

2021年10月,百度ANP领航辅助驾驶系统与AVP自主泊车系统在威马W6上进行搭载。不过,截止目前,威马W6只能使用百度的AVP自主泊车,ANP领航辅助一直没有OTA上车。

因此,外界对百度即将落地的高阶智能驾驶产品ANP3.0保持好奇和关注。

实际上,不止百度,更多自动驾驶企业将高阶智能驾驶的量产时间锁定在2023年,到时候各家的产品表现,高阶智能驾驶的市场格局,都会随着量产而明晰,我们也将持续关注。

-END-

声明:本文为OFweek维科号作者发布,不代表OFweek维科号立场。如有侵权或其他问题,请及时联系我们举报。
2
评论

评论

    相关阅读

    暂无数据

    赛博汽车

    聚焦智能汽车、自动驾驶,与产业一...

    举报文章问题

    ×
    • 营销广告
    • 重复、旧闻
    • 格式问题
    • 低俗
    • 标题夸张
    • 与事实不符
    • 疑似抄袭
    • 我有话要说
    确定 取消

    举报评论问题

    ×
    • 淫秽色情
    • 营销广告
    • 恶意攻击谩骂
    • 我要吐槽
    确定 取消

    用户登录×

    请输入用户名/手机/邮箱

    请输入密码