- 全站推荐
- 全站置顶
- 撤销首页推荐
- 社区推荐
-
置顶推荐
- 6小时
- 12小时
- 24小时
- 3天
- 一周
- 长期
- 设为精华
- 热门推荐
- 撤销审核
- 进小黑屋
- 生成议题
1024 转眼已经步入了第四年。
从对「始于智能」到「智能为先」,从「探索无界」到如今的「不只遇见」。
这就像是一部小鹏的成长史,从概念到理念,从理念到实践,再到如今兑现。
而智能驾驶,也逐步成为小鹏品牌「种子」,小鹏从智能汽车为出发点,也逐步向机器人、飞行汽车等出行生态探索。
一、城区之难,为什么还要做?
在 1024 预测篇中,我们和大家聊了关于小鹏 1024 在智能驾驶的几大核心要点:
也就是最大亮点的 XNGP 实现的不仅是城市 NGP ,而是无图场景下也能实现高阶辅助驾驶,小鹏会如何实现?另外基于 Orin 平台的 G9 为始,小鹏接下来会怎么计划?
这次小鹏做了详细的解答。
小鹏汽车自动驾驶副总裁吴新宙曾提到:选择从高速 NGP 开始做的原因是中国高速公路建设完善,交通参与者也非常清晰,很利于高速 NGP 的功能使用。但城市道路复杂,交通参与者很多,人类的行为常常不可预测。
而今天吴新宙回答了这个问题的下半部分,也就是小鹏明知道难,为什么还要奔向城区这条“窄路”?
“因为城区是目前用户最高频、最刚需的场景。”
目前用户开车里程有有 71% 占比是在城市,同时用户用车市场城市道路占比为 90% ,也就是大部分用户不仅习惯在城区行驶,而且还耗时长。
那相比高速 NGP ,城区 NGP 从研发上有哪些难点?
如果单纯从技术看,吴新宙量化了几组数据:
- 城市 NGP 代码量是高速 NGP 的 6 倍
- 感知模型数量 4 倍
- 预测、规划以及控制代码是 88 倍。
可以看到其中数量级变化最大的是「预测、规划以及控制代码」,这也最能反应城区相比高速场景的难点,应对城区里的低速场景、复杂交通参与者、城市道路维修变数大等难点。
系统在看得懂的前提还需要有独立的规划和控制能力,需要懂得如何避让、刹车和对用户做安全提醒。
应对城区小鹏会如何解决?吴新宙也在今天发布会举例了几个解决场景:
例如对快速加塞中,传统的系统是做刹车、刹停避让或者是直接变换车道,而小鹏的思路是做刹车的同时完成向左避让动作,让整个处理更像“人”。
例如在博弈上,算法不止预测其他车辆接下来要做什么,还要预测系统做的不同行为会对其他车带来哪些影响。
还有例如如果前方道路施工突然改道或者遇到大型十字路口,也就是突然“丢失”高精地图,系统不是直接退出请求接管,而是会降级到 LCC-L 通过视觉感知能力通过,并且遇到车流壁也会参考周围车辆的行驶状态和逻辑关系决定怎么走,而确保不被其他车辆“带偏”。
聊到这,吴新宙更是反驳了目前的一个比喻,“城市做 NGP ,有轨电车是行不通的。”
有人说做城市 NGP 就像是有轨电车,高精地图就像轨道,高静地图铺到哪,系统就能走到哪。
这也引出了目前城区 NGP 的核心矛盾点,事实是怎么样的呢?
三、城区,没有地图也能用?
吴新宙提到:“上半场是单场景辅助驾驶,但 2023-2025 年全场景辅助驾驶,是步入完全自动驾驶的最后一个过渡阶段。”
而 XNGP 全场景最大的一个亮点是,即使是城区或者地库,在无高精地图情况下也能使用,并且是全路段、从车位到车位的不中断使用。
那小鹏是如何做到的呢?P5 基于 30TOPS 平台已经压榨了城市 NGP ,G9 的 Orin 平台变化大吗?
在预测篇中我和大家提到 双Orin 平台升级后主要两个问题, 第一是满足实时计算的重感知能力,需要解决无图场景。第二是解决泛化问题,也就是去哪里都能用。也就是 G9 升级后体验不变,但使用范围和技术思路从底层变了。
我们也从硬件、算法到数据三大板块来拆解 XNGP 。
1、Orin-X 硬件,算力给足
硬件上, Orin 平台带来最核心的升级是大算力,这给 XNGP 提供了充足的升级空间。
还有一个重点,吴新宙提到 Orin 平台下的 XNGP 能力将会是小鹏步入自动驾驶前的最后一个阶段,也就是说 Orin 平台将会带领小鹏智能驾驶走很长一段时间,这也给目前 G9 用户而言一个定心丸,至少短期内不会再被“割”。
2、 XNGP 核心:感知架构的推倒重建
XNGP 核心还是算法,这也是目前小鹏在市场中与其他带有 Orin 平台车企抗衡的核心竞争力。
小鹏此次首次对外公布了 XNet 感知架构,也是重感知能力背后的“关键”。
XNet 感知框架主要升级的能力有三个:
- 多相机、多帧方案
- 摄像头能自己生产“高精地图”
- 通过前融合动态检测能力更强。
那这三个能力又能实现些啥呢?
小鹏过去采用传统的单相机、单帧方案,也就是各个摄像头各自为营,通过单帧来对多任务模型处理,例如车道线识别、跟踪等等,神经网络并不复杂。
但伴随着摄像头数量的增加,如果还依赖单帧摄像头就会出现一些尴尬现象:
例如我们侧后方有一台车快速通过,但它穿越了多少个摄像头,我们无法快速感知它从何而来?另外多个摄像头看的角度不同,我们又该相信哪一个呢?
例如我们近距离看到一台公交车,它的长度跨越几个摄像头,不同摄像头看到车不同的部位,系统会很难检测到这是台什么车。
最后的一个难点,也是单帧和多帧的区别,它们就像图像和视频的区别,如果仅有单帧,它就像是一个没有记忆能力的大脑,它不知道周围环境的前后关系,更不懂得预测或者前后关联去联想,凡事只能靠概率性猜测。
这样的系统如果在高速或者解决一些基础的 ACC/LCC 功能没有太大问题,但如果在城市,它和一个刚出生没有认知能力的小孩子在路上乱跑没什么区别。
而多摄像头、多帧就是在直接把多个摄像头感知到的视频一并送入神经网络里,在所见即所得的前提下也能生成一个 BEV 视角的全景图。
这样即给系统带来了更直观的视角,也带来了很多好处:
例如 XNGP 中核心的建图能力,通过多摄像头、多帧的感知框架,就可以通过车端的实时计算感知周围能力,包括周围的车道线、车流变化等。
那如果伴随车队数量的增多,是否可以用车队数量的规模实现构建“高精地图”,来缓解“高精地图”丢失或者不可用的压力呢?
还有除了“看得见”还能“看的懂”。吴新宙提到 XNet 还有一项核心能力是对动态物体的 4D 检测能力,也就是在我们基础 3D 维度上再加入一个时间维度。
这样做的意义是给系统加了时间维度后,能够检测到正在移动的动态物体,能够计算物体的方向与速度,以此来提供一个预测信息,这在城区中变道、博弈等场景中有巨大的好处。
例如我们预测下一秒钟物体会朝着哪个方向移动、它速度是多少、是否会阻碍我们的路线等等,以此来分配给下游的规划与控制更准确的信息。
3、数据这么多,要如何用?
在数据收集、标注以及运营管理上,小鹏大概分了三步曲:
首先是全自动标注系统,通过提高标注效率,来快速消化这些大数据,让这些大数据变得更小、更精。
另外是训练,目前小鹏汽车在乌兰察布建成中国最大的自动驾驶智算中心“扶摇”,基于阿里云智能计算平台,既解决了效率问题,同时也降低了成本。
有了标注和训练,就像是我们上了课,也完成了老师布置的题,但还缺一个考前“模拟”,也就是仿真。
训练时系统可以结合仿真去“变题”,也就是让我们在现实生活中碰到很多极限、少见的案例变成多个,有助于系统训练学习,最后让系统有“举一反三”的能力。
有了数据集中供的产生、完成标注、训练、仿真,Robotaxi 的探索也成为小鹏的最后一环。
根据计划小鹏 G9 的 Robotaxi 运营将会率先在广州开放,无论是否为 Robotaxi,G9 的传感器、算力等都是无缝移植,小鹏也计划到 2025 年,软件能力和运营能力的积累,实现自动驾驶和高阶智能驾驶双线互补,可以带领小鹏真正向无人驾驶跨步。
四、XNGP 和 XPILOT 如何开放?
那 XNGP 和 XPILOT 的开放时间是怎么样的呢?
2022 年 XNGP 将会在交付时就有即可用的高速 NGP、记忆泊车、LCC 等;
2023 年上半年城区 NGP 升级到广州、深圳以及上海三个城市 ,同时在全国范围内实现无图就能过红绿灯直线路口;
2023 年下半年实现大部分无图城市开放变道、超车和左右转的能力。
2024 年完全实现全场景的能力。
另外是 XPILOT 的规划。
2022 年到2023 年上半年,小鹏 G9 Pro 将会开放交付即可用的高速 NGP 、记忆泊车、LCC等,2023 年下半年提升高速 NGP、LCC 的性能和策略。
P5 的 P 版车型将会在 2022 年到 2023 年上半年新增深圳、上海的城市 NGP 以及增强 LCC-L 的能力,并且能实现车道级导航, 2023 年下半年完成高速 NGP 策略的优化。
五、全场景 2.0:除了快,还有什么?
还记得在第二届小鹏 1024 科技日上发布的全场景语音 1.0 版本,当时在连续对话功能、车载交互方面都让车主们比较兴奋。
然而在本次 1024 科技日上,何小鹏也花了一些篇幅来讲解小鹏最新的全场景语音 2.0 版本。首先我们来看一个视频:
首先第一点是反应快,官方给出发出指令到执行,延时在 1 秒内。并且除了连续对话功能以外,还支持一句话给出 4 个指令。比如说“你好小 P,关闭车窗/打开空调和香氛/调到 24 度”都能一次性执行完毕。
同时还有常见的免唤醒功能,以及多人对话模式。多人对话模式比较有意思,在目前大部分车辆的语音系统当中,假设主驾给出“打开按摩功能”的指令,此时副驾能够唤醒语音系统并给出“我也要”的指令就能同样打开座椅按摩功能。
然而在小鹏的全场景语音 2.0 中,极大程度的提高了效率,此时副驾并不需要唤醒语音系统,只需要直接说出三个字“我也要”就能打开相应的功能,这就是小鹏的多人对话模式。系统能够识别出不同音区给出的不同指令。
这是行业首个应用 MIMO 多音区技术的车载语音系统,能够实现:
- 同时精确处理四路音频
- 跨音区的上下文对话
- 多人无效语义拒识准确率>96%
- 多路语音反馈
另外,如果车辆处于地库等网络较差甚至无网的场景,语音系统同样也能为你车上的乘客服务,能够支持 600+功能,端云一体化稳定服务。智能交互还会持续进化,越来越聪明的语音需要一个大脑。
除此之外,用户还能够自定义属于自己的智能场景,大家可以先看以下视频:
看完视频后是不是觉得很神奇?在小鹏的智能场景中用户可以自定义编辑自己想要的场景。比如说可以设定空调温度、香氛的味道/浓度、导航的目的地等,甚至可以通过车上的传感器,在感应到车子移动之后给授权的手机账号发送车辆的定位信息。
极客用户可以深度参与共创,可以串联不同的有趣的场景。
六、除了小白龙,还有一个彩蛋
在本次 1024 科技日的现场最瞩目应当是门口的机器马,实际上这个机器马是有它自己的名字的,它叫小白龙。
小白龙是在去年的 1024 上进行发布的,在时隔一年过后,有哪些成长呢?
除了在造型方面的改变,“小白龙”在架构上也迎来了升级,采用了新一代的AI计算单元,大幅提升机器人智能潜力。除此之外还有以下亮点:
- AR投影:创新交互探索
- 柔性织物关节:运动安全防护
- 液态硅胶表皮:耐冲击、耐刮擦
- EVA超临界发泡足底:缓震、静音、耐磨
- 高保真音响系统:细腻语音+影音娱乐
- 六轴机械臂:拓展多场景服务
- 轻量化骨骼:轻盈、坚固
小白龙不仅可以作为 AR 投影仪,还能作为一个移动的音响。另外,小白龙在经历了一年的时间过后是有所成长的。
在遇到狭窄环境时,拥有了躲避障碍的能力,比如进入小白龙进入到了一个死胡同,小白龙是可以根据来时的路线倒退回去。
再比如小白龙的机械臂,可以进行开门、倒水、开灯、拿拖鞋等动作。
目前关于小白龙还没有更多的消息,不过就在结尾时何小鹏公布了一张疑似第二代小白龙的图,让我们值得期待。
七、压轴出场:飞行汽车
最后一部分何小鹏介绍的是小鹏汇天的飞行汽车,这似乎成为 1024 科技日的一部分。
小鹏汇天发布了飞行汽车最新构型,具备机臂折叠收纳系统,可进行陆行和飞行模式的切换。
在机臂折叠收纳状态,它的尺寸和常规汽车相当,能够在开放道路自由行驶;可进行陆行和飞行模式的切换。
本次发布的飞行汽车内部代号为 X3,为分布式多旋翼构型,相较于上一代的横列双旋翼构型,现方案机臂及桨叶更短,飞行状态总长、总宽更小,对起降场地的尺寸限制更小,飞行的可通过性更好。
其中飞行汽车最重要的就是安全问题,例如很多朋友想问的“飞行桨出现故障怎么办?”何小鹏称已经能够解决,“哪怕是两个飞行桨出现故障不能正常工作,这个问题也已经解决了。”
飞行汽车的操作系统,其实与普通汽车的驾驶方式一致,这将会是一个全球第一个又能开又能飞的飞行器。
目前小鹏汇天的 X3 飞行汽车已经首飞成功,其实这一切都是非常难的,就如何小鹏在发布会上说的,想要把一辆2顿重(1936kg)的车飞起来和几十斤的东西送上天是不一样的。
当然,除了产品上的问题以外,还有相关政策的原因。
八、总结
今年的 1024 似乎是对去年 1024 的一场兑现。
从吴新宙去年的一句「下半场,量产见」的豪迈离场,到现如今小鹏在智能汽车的智能驾驶、出行生态的多向布局中慢慢兑现。
当然摆在小鹏面前的另一个核心问题也是新的挑战,也即是高精地图的大范围使用限制以及各个城市的不同法规,而这些似乎都在小鹏的新架构中被“迎刃而解”,但最终也需要在实际场景下做验证。
而智能驾驶的单项能力也逐步成为小鹏汽车的一颗种子,它也在出行生态中不断绽放,也不断改变着新的出行和交互习惯。
或许 1024 没有永远的下半场,但或许会有不断兑现的期许或承诺。