(原标题:无人驾驶系列六 | 智驾法规“和而不同”,催生算法本地化)
2025年,智能驾驶话题越来越“热闹”了:比亚迪喊出“全民智驾”、无人驾驶出租车遍地开花;可另一边,特斯拉却因为一场事故被判天价赔偿,高呼“冤枉”。让人不禁想问:技术跑这么快,规则如何跟得上?
实际上,国内外都在摸索怎么给智驾“立规矩”:既要鼓励创新,也得保护路上的每一个人。但由于道德偏好、技术接受度、“驾驶惯性”等因素的不同,我们预测未来智驾法规将存在区域化差异,进而催生智驾算法的本地化:例如,紧急避险时,欧盟要求算法尽量保护行人安全,而美国某些州会要求算法综合考虑路权和过往判例,可能选择优先保护车内乘客。
算法本地化将给车企带来额外成本、销量影响、追责赔偿等问题――如何低成本且快速地让智驾车辆在外国“学会交规”,将是全球化智能车企需要回答的关键问题。
2019年4月25日的21时许,夜晚的佛罗里达州,一辆特斯拉Model S在偏僻的乡间小路上以100公里的时速行驶。驾驶人乔治・麦基(George McGee)在这条路上至少行驶了三十余次,这次他也放心地启用了自动驾驶。
在行驶过程中,他试图捡起滑落的手机。然而就在这短短几秒,特斯拉闯过路口停车的标志,冲进路边停车场,并将一辆停靠的雪佛兰SUV横向撞翻,造成其车主一死一重伤。
经过漫长的审理后,今年8月1日,迈阿密联邦法院陪审团裁定特斯拉对该事故负有约33%的责任,需要承担其中约4250万美元的补偿性赔偿,以及全部2亿美元的惩罚性赔偿,总计约2.425亿美元。这场致命交通事故和天价赔偿金,在2025年又一次引爆了智驾舆论。
由于现行法律中对自动驾驶责任划分的模糊性,导致陪审团对本次案件“定责难”。但即使事故发生在六年后的今天,仍然缺少针对性的相关法律。败诉后,特斯拉当即表示并不认可当前的责任划分,并将发起上诉。而在美国判例法的体系下,本次裁决无疑将成为后续智驾事故的参考依据,天价赔偿也将使特斯拉面临更多潜在诉讼。相较技术的快速进步,智驾规则的建立仍在步步为营。
事故现场照片
完善的配套法规体系,是高阶智驾大规模落地的重要前提。12月15日,工信部许可了长安牌和极狐牌两款L3级自动驾驶车型产品,但对试行路段、最高时速、适用功能等附加了严格的限制条件,也侧面说明了相关法规体系的完善还需漫长过程,刚性的、涉及面更广的全国性法规很难短期一蹴而就。
今年7月23日,科技部官网公布了《驾驶自动化技术研发伦理指引》,率先明确了高阶自动驾驶的伦理框架和责任原则。《指引》主要内容可以归纳为以下几方面:
● 责任划分:L2及以下,主要由司机负责;L5以上,大概率车企负责;L3、L4看情况。
● 代码要“透明”:智驾系统怎么决策的,事后要能查、能解释。
● 算法要体现社会认同:需要符合大多数人的道德直觉,不可歧视。
● 新增伦理审查:车企最好设个伦理委员会,别闭门造车。
这份软性《指引》体现了上层机构对智驾定责的方向性判断,对于车企存在更强的指导意义。
放眼全球,各国均在稳步推进智驾法规体系的完善。整体趋势是随着自动化程度提高(如L4及L5级别),责任主体从驾驶员向制造商和系统运营方转移。其中走在最前列的德国,于2021年通过了《自动驾驶法》:在L3级别下当车辆在自动驾驶系统正常运行的条件下发生事故,汽车制造商将自动承担事故责任;而在L4级别下,责任主要由车辆运营商或制造商承担。美国各州在要求上仍存分歧,NHTSA(国家公路交通安全管理局)正通过推动AV-STEP计划放松监管、统一规则,要求企业提交自动驾驶系统的安全评估数据。
但我们预测,由于不同区域的文化、经济、历史等因素各不相同,自动驾驶的法律细则在未来一定会形成区域化的差异――下文将从道德偏好、技术接受度和“驾驶惯性”等维度,阐述相关原因。
(1)道德偏好:区域差异下的“自动驾驶电车难题”
随着VLA和世界模型的进化,自动驾驶车辆大概率将具备识别道路参与者身份特征(如老人、孕妇、儿童等)的能力。当紧急避险发生时,交通参与者的生命安全将由预置的算法决定。算法设计者的道德偏好,也将直接影响车辆的避险因子权重。现在我们一起来思考一个两难的场景――当面临刹车失灵的紧急避险选择时,你认为“道德”的无人驾驶应该:
①紧急变道:与大卡车碰撞,车内四人死亡但行人不会受到伤害。
②不进行紧急变道:导致正在过马路的四个人死亡,但四名车内人员不会受伤。
③如果四个行人正在闯红灯,或者车内只有一名司机,你的答案是否会有不同?
以上与经典问题“电车难题(Trolley Problem)”极其相似的假设场景,出现在麻省理工学院(MIT)部署的“道德机器”(Moral Machine)这一在线实验平台。用户在网页上可以看到类似的事故场景,研究者则根据用户选择,来探索人们对9个因素(如年龄、性别、社会地位等)的道德偏好。这个大型“道德数据库”的实验结果被发表在了《自然》杂志上(Awad, E. et al., 2018)。先看看全世界的人是怎么选的:
● 普遍的道德偏好:在大部分国家中,人们优先拯救人类而非动物、优先拯救更多生命、优先拯救年轻生命。
● 跨地区的道德偏好差异:西方文化圈(如北美和基督教传统的欧洲国家)倾向于不干涉现有路线;东方文化圈(如东亚和伊斯兰教国家)更尊重长者并重视规则;南方文化圈(如拉丁美洲和法国影响地区)更倾向保护女性和高地位人群;高GDP/强政府国家倾向惩罚违反交通规则的行人;高贫富差距国家更可能牺牲社会地位低者(如流浪汉)。
普遍的道德偏好
不同文化区域的道德偏好
德国法学家格奥尔格・耶利内克曾说:“法律是最低限度的伦理”。不同地方的人,对“算法道德”的理解可能完全不同,这也将影响不同区域智驾法规的形成,进而使算法产生地域差异。
(2)技术接受度与“驾驶惯性”催化算法本地化
除了道德偏好外,社会的技术接受度,以及现行法规/文化造成的“驾驶惯性”,也会导致智驾法规的地区差异性:
● 技术接受度:不同地区对前沿技术“上车”的接受度不一。咨询公司MHP调研发现,中国受访者对技术更加开放,仅有3.6%的中国受访者认为AI的风险高于收益,远低于欧美的25%。除此以外,今年5月,OpenAI和Anthropic都曾报告过AI欺诈甚至威胁开发者的事件,引发了使用者的恐慌――如果公众对前沿技术的接受度难以上升,智驾算法也需要更保守。
● “驾驶惯性”:现行法规和文化,培养了不同地区驾驶人的潜在习惯,大概率将会影响后续的立法与修改。以机动车与行人发生交通事故为例,在机动车无过错的情况下,国内与美国、甚至美国各州之间的赔偿判决可能并不一致。国内机动车即使没有过错的,通常也要承担不超过10%的赔偿责任。而在美国采取责任过半认定制和简单多数制的州(如科罗拉多、阿拉巴马等)中,司机可能无需进行任何赔偿。对于车企/技术方来说,需要基于此调整避险算法的因子权重。
因此,各地的智驾法规很难完全相同,编写符合各地合规政策的“普世算法”,也几乎是不可能的任务。
对于瞄准全球市场的车企,不同地区对算法的本地化需求无疑将带来新的挑战。
● 额外成本:“一地一算法”将为车企出海带来额外成本,包括本地数据/算法库(如中国版“特斯拉”)、当地交通标志/法规知识库、伦理与法规专家、合规/伦理委员会、当地社群合作等。
● 销量影响:如果消费者对车辆的智驾算法不认同,或者认为无法保护自己,可能会选择不购买智驾车辆。图卢兹经济学院的 Jean-Francois Bonnefon 等人的调研显示,受调研者希望其他人坐在“行人保护优先”的无人驾驶汽车中,但自己不会购买这样的汽车。被强制要求公开的算法偏好,或将成为用户购车新的考虑因素。
● 追责赔偿:不同国家对制造商的追责方式也将不同,而企业需要考虑如何承担海外事故带来的潜在成本(例如,通过特定保险分担追责风险)。
挑战的另一面是机遇。未来谁的智驾算法能更好更快地学会本地交规,就将抢占未来无人驾驶车辆市场的先机。
另外,当车企能够实现算法本地化后,或许针对个人的“一人一算法”也将出现,带来新的商业化可能。激进或保守,重视路权或无私让行――驾驶人的道德偏好和风格,也可以体现在自动驾驶中,作为个性化选配带来新的商业化空间。
德国奥尔登堡大学的最新研究表明,当面临无人驾驶的道路决策时,实验参与者特定区域的脑电波情况将发生异常振动(Bertheau, M.A.K., Boetzel, C. & Herrmann, 2025)。或许随着我们对AI和神经科学等技术的进一步成熟,智驾车辆真的可以学习和模拟车主的驾驶风格和避险偏好。
自动驾驶所带来的交通新形态,将引发对现有法规政策的全方面挑战。各国智驾法规的区域化差异,将催生算法的本地化需求。智驾的算法决策并不存在唯一的正确答案,重要的是我们能否建立起一个动态、透明、包容的伦理-技术-法律框架,真正满足当地社会和民众对智驾技术的期待。
这是关乎生命的抉择,未来或许每一行自动驾驶的代码都承载着人类文明的争吵、妥协与希冀――这注定是一场没有终点的对话,也是构建信任的基石。
