芝能科技出品牛来了
在辅助驾驶到自动驾驶快速演进的技术叙事里,一纸判决将现实拉回复杂且沉重的现场。
美国佛州一宗特斯拉自动辅助驾驶致死案宣判,陪审团裁定特斯拉需支付2.43亿美元赔偿。表面看,这是一桩过时的事故——2019年,一辆Model S在城区高速冲撞致人死亡;实质上,它是一次对辅助驾驶责任边界的迟到审视。
辅助驾驶的最大风险从来不是技术失灵,而是“谁在负责”这件事始终模糊。
当宣传的系统功能夸大到”自动驾驶“表现,而责任定义仍停留在L2层级,技术与法律的鸿沟便开始显现。驾驶员是否应始终全神贯注?系统能否容忍用户在复杂城市路况中的分神?这一系列问题至今没有答案。
特斯拉在早期的方案、广义宣传口径与用户使用行为之间的不对称,在事故中被无限放大。这美国法院做出裁定以后,不是特斯拉一家的问题,这也印证了中国需要给目前宣传降温的策略正确性。
技术瓶颈与设计预期的差异
事故发生于2019年,一辆搭载特斯拉Enhanced Autopilot的Model S,在城区道路以超97公里/小时的速度行驶时未减速闯红灯,最终撞上停靠在路边的SUV,导致一人死亡、一人重伤。
调查显示,事发时驾驶员分心低头捡手机,车辆在未有制动、未发出预警的情况下冲入路口牛来了,未能避免碰撞。
按照SAE的自动驾驶分级标准,特斯拉的Enhanced Autopilot本质属于L2级辅助驾驶。L2系统核心特征是驾驶任务依旧由人类负责,系统仅在特定功能(如车道居中、跟车、自动变道)上进行辅助,系统未能做出刹车或预警,确实引发了一个技术与伦理层面的质疑:为何车辆未能在驾驶员明显未注视路面的情况下及时介入或提示?
这里暴露出一个L2系统普遍面临的问题——功能设计的默认假设。
多数L2系统假定驾驶员始终处于注意状态,因此其感知系统更专注于前方障碍物、车道线检测和目标跟踪,而对驾驶员状态监测的依赖程度相对较低。
虽然近年来各大厂商陆续引入DMS(驾驶员监测系统)作为辅助模块,但在2019年时,该功能尚未普及。
特斯拉Autopilot以纯视觉感知为基础,依靠摄像头进行目标识别和路径判断。该方案在光照良好、结构清晰的高速公路场景下表现较为稳定,但其在复杂城区环境中对红绿灯识别、非标志性障碍物检测的能力相对有限。再加之车主超速行驶并踩着加速踏板,很可能导致系统误判为用户主动控制,关闭了部分预防性干预策略。
特斯拉辩称驾驶员行为是主要事故诱因,强调脚踩加速踏板会抑制系统刹车意图。但问题在于,当驾驶员错误使用系统,是否应由系统本身主动拒绝进入该场景,或者给出明确提示?
自动驾驶系统并非“使用即免责”的工具。其功能边界的模糊性和风险反馈机制的不足,正是争议的根本。
这起事故发生在六年前,但其核心问题在今天仍未完全解决。大量量产车型仍标榜L2+、准L3功能,试图在不承担法律责任的前提下,实现更广泛的场景覆盖。系统能力没有根本性突破,反而将大量风险外包给驾驶员牛来了,引发了一个“技术能力超前于责任体系”的空档。
02辅助驾驶L2的局限与闭环数据的权衡:
特斯拉与行业的不同路径
在事故后的几年间,特斯拉持续推进其FSD(Full Self-Driving)系统,官方反复强调该系统为L2级辅助驾驶,但其功能呈现上却覆盖了多场景路径规划、城市道路变道、红绿灯识别等传统意义上的“L3能力”。
技术上,FSD延续了特斯拉“纯视觉”路线的核心思路:完全依赖摄像头构建环境模型,不使用激光雷达、毫米波雷达等冗余感知手段。
这一做法简化了硬件配置,降低成本,同时增强系统对摄像语义的训练能力。凭借来自全球市场的海量数据训练,特斯拉构建了具备较强泛化能力的感知-决策-执行闭环。
纯视觉也存在不可忽视的物理瓶颈。在恶劣天气、光照不足、结构遮挡等条件下,摄像头的感知能力会显著下降。相比之下,融合激光雷达、毫米波雷达的多传感器方案在稳定性与冗余安全性方面更具优势。
国产品牌如小鹏、极越等通过大模型端到端训练结合多模态感知,在理论上应具备更高可靠性,但由于数据样本、算法成熟度、决策逻辑闭环等方面仍有差距,实际表现并不如预期。
懂车帝近期发布的“智驾挑战”测试结果也反映出这一矛盾。在多个模拟突发场景中,采用纯视觉方案的特斯拉表现优于部分国产融合方案车型,单项能力可能存在差距,但特斯拉凭借多年来的OTA迭代优化、行为克隆训练与高频场景覆盖,构建了一套具有高度协调性的“系统能力”。
换句话说,纯视觉不是最强的技术方案,但特斯拉通过数据规模与工程调优,让它在有限场景中达到了高度实用性。
这种路径的风险在于,依赖海量场景样本弥补感知盲区,一旦遇到训练数据未覆盖的极端情形,系统将可能做出错误决策。而融合方案虽具备更高的理论上限,但其真正优势仍需在海量真实驾驶中积累与验证。
从产业发展角度来看,激光雷达成本持续下降,未来行业整体趋势仍将走向感知多样化、算法自适应与系统协同,而不是单一路线的极致优化。
小结此次特斯拉事故案的判赔,并不仅是针对某一技术缺陷或用户操作失误的裁定,而是对现阶段辅助驾驶系统责任界定缺失的集体警示。
在技术名义下,车企模糊宣传口径、用户过度信任系统、监管滞后等多重因素交织,最终将事故风险转嫁给个人。L2辅助驾驶仍是现阶段主流智能驾驶系统的核心形态,其本质仍以人为中心。
但当前技术表象已高度接近自动驾驶,尤其是在部分高速、城区场景中的表现,使用户产生了系统能力高估的认知偏差。若无清晰的功能边界提示、严格的场景管理与实时DMS监控,类似事件还将持续发生。
牛来了
大牛证券提示:文章来自网络,不代表本站观点。