2026年的fsd

2026年7月1日,加州一项新法规就要正式生效。根据AB 1777法案,要是自动驾驶车辆在“自动驾驶模式”下出了乱子,责任就得由制造商扛,车主或是乘客都不用背锅。这是法律开始给算法开车划定责任界限的尝试。特斯拉官方还在2026年2月宣布,FSD累计跑过的路已经超过了80亿英里。他们出的安全报告说,车子开上FSD,平均每跑530万英里才碰上一次重大碰撞,相比之下人类司机是每66万英里就有一次。这么看FSD出大事的几率才是人类的八分之一。不过得克萨斯州奥斯汀的统计数据却给出了不同的角度,那儿的无人驾驶出租车车队用的是同款FSD软件,事故率竟然比人高出了四倍。 2026年2月,一位得州女性告上了特斯拉,索赔超过100万美元。2025年8月的一天晚上,她开着Cybertruck用了FSD功能,硬是要直冲下休斯顿的一座高架桥,一头撞在了混凝土护栏上。这场官司里有个不常见的控诉点:特斯拉在雇埃隆·马斯克当CEO这事儿上有过失。原告写的诉状里把马斯克形容成了“激进且不负责任的推销员”,还说马斯克长期以来老是做些危险的设计决定,并且对产品功能夸下海口。 特斯拉也没闲着。2026年2月24日,公司正式告到了加州车辆管理局那边,要求撤销关于FSD虚假宣传的行政裁定。他们辩解说DMV没能证明消费者真的被误导了,而且在操作流程里已经很明确地告知了功能边界。针对那对老夫妇在高速路上“双人睡驾”的惊魂一幕,加州相关部门也介入了调查。截至2026年3月14日,办案人员还在通过车牌信息查这事儿的下落。 事情发展到现在其实挺微妙的。2026年3月9日正是美国国家公路交通安全管理局要求特斯拉交出FSD违规关键数据的最后截止日期。这项调查从2025年10月就开始了,起初只关联了58起事件,到了12月数目已经涨到了80起,牵涉到差不多288万辆特斯拉。NHTSA要查的范围可广了,包括没认出来铁轨口、闯红灯还有开进对面车道等各种情况。监管部门让特斯拉必须把每起事故前30秒的完整经过、用的啥版本的软件以及有没有给警告都摆出来。 特斯拉前后申请了两次延期,给出的理由是需要人工审核8313份记录,每天顶多能搞完300份左右。公司也表示手头正同时应付多项调查,工作量实在是太重了。就在这个数据提交的关键期前后,特斯拉刚推送了一次重要的软件更新。2026年3月初车子收到的2026.2.9版本改动挺明显,“自动辅助导航驾驶”被改成了“自动转向导航驾驶”,“完全自动驾驶计算机”也变成了“人工智能计算机”。 这名字改了其实系统还是那个系统。特斯拉在更新说明里写得很清楚,这些变化“并不会改变任何功能的实际表现”。然而就在2026年1月的时候,联邦法官维持了一项判决结果,要特斯拉为2019年的一场Autopilot致命车祸赔偿2.43亿美元。陪审团当时觉得“Autopilot”这个名字本身就有误导性,容易让人觉得这东西自己会开车。 美国全国广播公司翻查社交媒体上的记录发现类似的报告超过了40起。在宾夕法尼亚州还有一辆开FSD的Model 3被送上了铁轨撞上了火车。这类事儿发生的节点让人心里发毛。那次惊魂事件是在周日下午发生在加州湾区匹兹堡市的4号公路上。一辆红色特斯拉Model 3正以接近100公里的时速飞驰而过。路过的司机一看懵了,发现驾驶座上的老先生和副驾驶座上的老妇人全都陷入了熟睡。 他们的身体随着车子的颠簸轻轻晃悠着,对窗外密密麻麻的车流一点反应都没有。这辆特斯拉显然是开启了自动驾驶模式。目击者赶紧拍下了视频并报了警,但等警察赶到的时候车早没影了。这种情况之前也发生过。今年3月1日加州10号公路上有个女司机被拍到在方向盘后睡得死死的。去年8月另一段视频里还有个女司机脖子上套着充气颈枕在开启自动驾驶的特斯拉里安稳入睡。 几乎就在同一时间加州西科维纳的一个铁路道口出事了。一辆开了FSD模式的特斯拉Model 3径直撞向了已经放下来的防护栏。行车记录仪显示车子以大约37公里的时速驶近道口时栏杆已经全放下来了高度跟前视摄像头齐平。系统压根儿没有任何识别或者减速的迹象直接就把栏杆撞断冲进了轨道区域。好在驾驶员在最后关头踩下了刹车才没酿成大祸。发布视频的车主在社交媒体上无奈写道:“特斯拉FSD今天差点要了我的命。”