为啥武汉无人车也“呆”了一次
为啥武汉无人车也“呆”了一次
<p>被误解的“安全感”</p> <blockquote>
杰西卡 发自 副驾寺
智能车参考 | 公众号 AI4Auto
武汉“萝卜”,因为“呆”被热议了。
3月31日晚,在武汉市区内,有市民发现部分“萝卜快跑”无人驾驶车在路上停摆。
好在交管部门和萝卜快跑的工作人员火速赶到,乘客安全下车,没有人员伤亡,交通路段也及时恢复了正常秩序。
不过,关于这次事件的讨论,却仍在网上持续发酵。
大家都在好奇,自动驾驶车辆为什么会突然“愣”在路上。
而且这事看着有点似曾相识——
几个月前在大洋彼岸,另一位顶尖无人车玩家Waymo,也发生过一次更大规模的停摆事件……
或许这不是巧合?但为什么会这样?
无人车为什么会“愣”在路上?
据知情人士向智能车参考透露,萝卜快跑发生“停滞”事件,其实是车辆在自检到潜在风险时,系统为保障安全给出的主动策略。
所以,要解答无人车停摆这个疑问,我们就得抛开人类驾驶的思维习惯,先从自动驾驶系统的运行逻辑说起。
对人类司机而言,驾驶是一门融合了经验、预判甚至有些许“赌一把”心理的艺术。
比如看到一个昏暗难辨的路口,人类老司机可能会减速、探头、仔细观察,然后凭借经验通过。这期间,大脑几乎是瞬间完成了风险衡量,给出的结论是事故概率似乎不高,可以通行。

但“AI司机”的大脑不同。它的核心逻辑不是“大概率没事”,而是“必须确定没事”。
因此,为了保障这套逻辑能运行无误,安全方面就要设置多重预防,也就是我们常说的“安全冗余”。
而在自动驾驶系统中,这套安全冗余设计体现在感知-决策-执行三个层面。
首先是感知层。
当前主流的L4无人车玩家(除了坚持“纯视觉”的特斯拉),大多都为产品安装了激光雷达、毫米波雷达、高清摄像头等多种传感器,为的是对周围环境进行更精准全面的感知。

这些传感器各司其职,把各自探测到的数据汇总到一起,由系统做融合判断,接下来就轮到决策层发力。
在决策层中,自动驾驶车辆的安全冗余和飞机类似,关键系统通常都会配有主、备两套计算大脑,确保一个“死机”的情况下,另一个能瞬间接管。
绝大多数时候,由传感器提供的数据会保持一致,决策层根据数据发出相应指令,让车辆实现自动驾驶。
但有时遇到极端或长尾场景,传感器偶尔也会出现分歧,对同一障碍物判断不一。
此时,系统不会盲目相信任何一个传感器,而是会进入“验证模式”——多确认几帧数据,或者等待更清晰的场景出现。
这个过程需要时间,如果在某些极端场景下,比如光线突变、恶劣天气,系统确认信息的时间可能还会被拉长。
这就需要最后的执行层去处理。
遇到系统经过综合判断,仍无法以足够高的置信度做出安全决策时,执行层就会按照底层代码的终极安全指令,启动“最小风险策略”。
这一切冗余设计的终极目标,都是为了确保在任何单一部件甚至组合出现问题时,系统仍保有最后、也是最根本的能力:把车安全、平稳地停下来,避免可能的事故发生。
就好比家用车的发动机,故障灯亮起后,车辆会自动限速或熄火保护——这是行业通用的安全底线逻辑。
而这种异常情况下做出的“停滞”选择,其实有一个更贴切的称呼,叫做“降级措施”。
“降级措施”本身并非自动驾驶独有,实则已经在其他领域的关键安全系统上沿用了数十年。
最典型的例子是飞机的自动驾驶仪。

在民航客机飞行途中,如果传感器数据出现异常,飞机自动驾驶仪会自动切换到“降级模式”,或者会直接交还给飞行员手动操控。
这个设计的理念在于,在万米高空中,“不确定”意味着风险,而风险不能靠硬闯来解决。
这是对安全最负责任的处理方式,也是航空领域沿用数十年的冗余思路。
对应到坚持同一逻辑的自动驾驶行业中,这种“保守”其实也是自动驾驶区别于人类司机的核心价值。
人类可能因为赶时间等因素,选择相对更冒进的驾驶行为;而机器则会严格依据概率和规则,选择最安全的动作——即使这个动作,现在看起来可能有点“呆”。
无人驾驶行业,是否需要“必要的停顿”?
当然,有人会问:既然是安全设计,为什么不能做得更“丝滑”一点?为什么不能像老司机一样,一边判断一边通过?
这个问题的答案,还要从自动驾驶的发展阶段去挖掘。
就拿国内顶尖Robotaxi玩家萝卜快跑来说。据其最新披露的数据显示:
截至今年2月,萝卜快跑累计提供全球出行服务次数超2000万,足迹已覆盖全球26个城市。

其自动驾驶总里程累计超3亿公里,相当于从地球到太阳跑一个来回;其中有超1.9亿公里是全无人驾驶里程。
这是一个什么概念呢?
就全球Robotaxi格局来看,萝卜快跑是全球极少数能在大规模、全天候、全无人场景下稳定运行的自动驾驶玩家之一。
其技术路线、安全体系以及运营能力,已经在千万级订单的实战中得到了验证。
可即便实力强如“萝卜”,在运营过程中,“过于谨慎”的时刻仍会出现,这甚至是必然的——
比如对某些边缘场景判断不足,选择原地等待;比如对某些复杂路口“犹豫”过久,导致短暂停滞。
因为系统需要在特殊场景中不断积累经验、拓宽场景。这就像人类学车时,教练会反复强调“宁停三分,不抢一秒”。
新手司机往往会在该停的地方停,不该停的地方也停,但随着经验积累,他会越来越清楚什么时候该停、什么时候该走。
自动驾驶车辆也是一样。

每一次“停滞”,后台都会记录下当时的场景数据、传感器信息、决策日志,工程师和模型会分析为什么会触发“最小风险策略”,然后优化算法。
下一次遇到类似场景时,系统决策就会更精准、更丝滑。随着数据积累和模型迭代,这种“过于谨慎”会越来越少。
这种靠千万次真实出行打磨出来的积累,就是自动驾驶的进化方式。
而这种安全与进化逻辑的顶层设计,在全球顶尖的自动驾驶公司中,实际早已形成共识。
这里举个另一顶尖无人车玩家,美国谷歌旗下Waymo的例子。
2025年12月,美国旧金山因变电站火灾而大规模停电,交通信号灯大面积失效。由于无法识别失效信号灯,Waymo车辆在多处路口开启双闪,陷入“停滞”。

Waymo后来解释,这是因为公司系统预设将失效信号灯视为“四向停车”(Four-way stop)场景,但因停电规模超预期,车辆确认路口安全状态耗时过长,触发了“最小风险策略”(原地停车并双闪)。
而且据Waymo透露,这是美国加州DMV(可以理解为加州车管所)对L4级全无人驾驶的强制安全要求,并非企业自主选择。
换句话说,在关键的安全底线上,行业的技术路径是收敛的、趋同的:
在系统遇到“感知不确定”或“外部环境异常”的情况下,“停下来”是法律和技术共同规定的最后一道防线。
当然,不得不承认,这种“停滞”确实会给交通带来短暂影响。尤其是在城市主干道上,一辆车突然“愣”住,确实会让后方车辆措手不及,也会让围观的路人产生疑问。
但视野拉长,我们会发现,人类历史上任何一场足够深刻的技术变革,一路都伴随着与公众认知、社会规则的漫长磨合。
就像电力系统发展了数百年,到现在依然偶有停电故障。但这并没有阻止它成为现代社会的基础设施。
而自动驾驶还处于早期阶段,像停摆这样的偶发且未有人员受伤的情况,客观来看,其实也属于合理、可理解的范畴。

当下,我们正见证自动驾驶从“新手司机”向“老司机”蜕变的最后阶段。
与此同时,外界判断无人驾驶公司实力几何、技术成熟与否,需要一把新的、更理性的标尺。
在技术走向完全成熟的漫长道路上,追求“永远不出事”是一个理想化的终点,但将它作为衡量当下实力的唯一标准,则可能脱离现实,也无视了技术创新过程中的客观规律。
所以在复杂的现实路况中,我们还要看“状况”真的发生后,一家公司是如何兜底、响应,以及如何从中学到东西,完成迭代的。
而在这期间,所有真实场景暴露出的问题,经过处理、优化,最终都会成为自动驾驶车辆集体升级的“疫苗”。
版权所有,未经授权不得以任何形式转载及使用,违者必究。
Related Articles
Mark Zuckerberg is reportedly building an AI clone to replace him in meetings
Skip to main contentThe AI version of Zuckerberg is trained on his mannerisms, tone, and public statements, according to a report from the Financial Times.The AI version of Zuckerberg is trained on his...
今年最火的AI产品,不止龙虾|榜单申报中
< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400"> 2026-04-13 ...
Sam Altman reportedly targeted in second attack
Jess Weatherbed is a news writer focused on creative industries, computing, and internet culture. Jess started her career at TechRadar, covering news and hardware reviews.Sam Altman was seemingly targeted by...
入职Meta的吴翼,清华叉院官网已撤其教职信息
< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400"> 2026-04-13 ...