大家最近在网上热议的两件事,让我心里挺不是滋味。一件是年初发生在南宁的那起15车连环碰撞,当时一辆阿维塔智能驾驶的车连撞了15辆才停下。另一件是最高法发布的那份指导案例。这两件事凑在一起,让人不得不问,当智能驾驶系统失控了,这个锅到底该谁背? 先说说南宁那起事故吧。那辆车本来开着高阶智能驾驶功能,说是追尾了前车之后不仅没停下来,反而像脱缰的野马一样冲向了对向车道,最后撞上公交车才停住。虽然没有人员伤亡,但场面真的很惊险。事故发生后,双方各执一词。车主觉得是系统失控导致的,而后台数据却显示当时系统判定处于“人工驾驶状态”。这样的争议让人分不清到底信哪一方的数据。 其实这里面有个技术上的难点,叫做AEB(自动紧急制动)。你可以把它看作是车的“本能反射神经”,但这条神经并不完美。比如雷达和摄像头可能有盲区,遇到鬼探头或者极端天气时,它的眼睛可能就失灵了。还有算法里有个“置信度阈值”,只有系统非常确定前方有危险才会踩刹车。这个“确定”的尺度很难拿捏:太敏感会吓到乘客,太迟钝又容易导致事故。所以在数据后台显示人工驾驶的时候,可能是系统在复杂情况下无法处理才把问题抛回给了驾驶员。 紧接着是最高法发布的指导案例,明确表示现阶段不管你的车多智能,驾驶员还是第一责任人。在高速上开辅助驾驶睡觉?那就是危险驾驶罪。这个判决给那些盲目相信辅助驾驶是自动驾驶的人泼了盆冷水。 但是法律能不能跟上技术发展呢?专家们都在讨论这个问题。现在我们国家L3级别的准入政策正在制定中。到了L3级别的话,在特定条件下系统可以完全接管驾驶权。到时候责任怎么划分就变得非常模糊了:责任就像乒乓球一样在人和机器之间来回跳跃。 看看欧美那边也是一团糟。美国对特斯拉的调查不少,但最终大多还是认定驾驶员责任更多一些。欧洲像德国这种允许L3级别的国家也把责任规定得很严格:系统运行时出事厂家负责;一旦要求接管而驾驶员没反应就甩回给人。 不管怎样都很复杂。我们最需要做的是保持敬畏之心:把手放在方向盘上,眼睛盯着路。别用生命去测试系统极限。仔细阅读车辆手册清楚功能边界和使用规则,保留行车记录仪证据以备不时之需。 智能驾驶大戏才刚开始,从南宁事故现场到最高法法庭我们都在寻找答案。打破这个责任黑箱需要技术透明和法律智慧还有每个手握方向盘的人保持责任心。 声明:个人原创仅供参考