L4级自动驾驶撞人谁坐牢?
安全员在车里瞟了一眼手机,行人被撞身亡。三年后,她成了全球首个为L4级自动驾驶“坐牢”的人。但真正让那辆车撞上无辜路人的,不是她的双手,而是一行写在代码里的错误判断——那套系统在撞击前6秒就“看见”了障碍物,却把人错认成了自行车,程序没有刹车,车也没有犹豫。
2018年,美国亚利桑那州,一辆优步L4级自动驾驶测试车撞死行人,成为全球首例“全自动驾驶致死案”。判决结果令人震惊:算法无罪、车企免责、雷达供应商缺席。被判刑的,是那个坐在副驾、理论上“什么都不用做”的人类。
L4级自动驾驶,宣称可以“彻底接管”,让人类安心做乘客。可当悲剧发生,技术一声不吭,法律却突然记起——你才是最后的责任人。
这并非个案,而是一种制度性的“责任断档”:
程序员写了代码,却从未出现在事故庭审中。
车企交付产品,但责任止于说明书。
雷达供应商提供硬件模块,撞人那天,他们连现场录音都没有份。
这就是L4时代的荒诞图景:驾驶权被技术彻底剥离,责任却仍旧缠在人身上。法律找不到技术的“主观意图”,但人类却“天然有罪”。
程序员、车企、雷达商:三方的“我不负责”现场
程序员说:代码没有错。
“我们的算法符合当时行业标准。”问题是,它确实把行人误判为了骑行者,根本没有触发紧急制动。
车企说:系统合规、警示已尽。
“我们在说明书中已明确功能边界。”但L4设计的本意是“人类无需介入”,事故发生后却反向要求“人类本可以阻止”。
雷达供应商说:设备交付即责任结束。
可一场事故往往是感知、识别、决策三者联动崩盘。每个环节都能甩锅,只有现场的人类,被动接下全部责任。
有网友说得直白:
“自动驾驶撞人现场像开会扯KPI,每个部门说不是我的锅,最后出事背锅的是那个‘必须到场’的普通人。”
优步案:技术失误,人类坐牢
系统误判,未刹车,程序员免责,安全员被判缓刑三年。
你没有责任,但你有自由裁量权,所以你坐牢了。
特斯拉案:功能没错,是你不会用
驾驶员违规在非高速场景启用L2辅助驾驶系统,未接管,撞死两人。车企免责,驾驶员获刑。
你信了技术能帮你,但法律只认你是司机。
气囊案:系统合规,责任清零
车主起诉辅助驾驶+安全气囊设计缺陷。法院认定系统警示充分,驾驶员违规操作,自担后果。
大多数国家的道路交通法规,仍将“驾驶人”作为责任锚点。可L4级自动驾驶,压根没有“驾驶人”。
人不再控制方向盘,却需承担系统判断失误的后果。
技术拥有全流程掌控权,却缺乏法律人格和刑责主体资格。
德国法学者称此为“责任错位困境”:控制者不能负责,负责者无权控制。系统替你开车,但不能替你“负责”。
https://s3.bmp.ovh/imgs/2025/10/23/e7a24002e6f41e7d.jpg
页:
[1]