问界M9首撞,华为智驾去哪了?驾驶员的一个动作应该让更多人惊醒
日前,在四川成都一辆问界M9媒体测试车追尾公交车,该车前机舱盖发生变形,大灯疑似遭遇撞击。
这应该是问界M9的首撞,事发之后迅速在网上引起了热议,关于“智驾”、“AEB”等话题再次被大家提起。
而在12月21日,赛力斯就此次事件发表了情况说明。
车辆在发生碰撞之前处于智驾状态,行驶中因驾驶员干预介入,导致智驾退出造成车辆追尾。事故未造成人员受伤,驾驶员也已配合交警完成处理工作。
赛力斯同时表示,在行驶状态下,人驾权限永远高于智驾系统,并呼吁用户注意出行安全。
虽然事故并没有造成人员伤亡,赛力斯方面也及时做出了回应,但关于“智驾”的讨论并没有因此而降温。
因为,又一件不幸的事故发生了。
12月22日,理想汽车官方回应。
2023年12月21日夜间约21时44分,一辆理想L7在广东省清远市发生严重交通事故,对于事故造成的人员伤亡,我们感到非常痛心和惋惜。
碰撞事故发生时,车辆触发车载紧急报警呼叫系统,在多次呼叫用户无反馈后,工作人员第一时间赶往现场支持。结合车辆后台数据初步分析,车辆在行驶过程中未开启辅助驾驶功能,碰撞前3秒,车速达到178km/h,驾驶员采取制动措施,最终以96km/h的速度追尾前方卡车,钻入卡车下方后冲出道路。
相较问界M9撞上公交车,理想L7的高速行驶成为了致命的关键。从网友发布的视频、照片情况来看,事故现场较为惨烈,车顶几乎被完全被掀开,A、B柱也出现断裂。
两起事故……
两个回应……
其中,都提到了智驾、辅助驾驶。
一个驾驶员介入,智驾退出,一个并未开启辅助驾驶。
咱们是不是可以这么理解,两家车企发表的声明都在隐晦的强调,如果开了智驾、辅助驾驶,就会避免事故的发生。
如果没有这样的想法,为什么又都在刻意强调智驾、辅助驾驶呢?
前一段时间,有一位理想L7的车主表示,“理想汽车存在重大安全隐患”。
随后,李想亲自下场进行了“科普”。
“D 档向前行驶,360 监测的 12 颗超声波雷达是不工作的,如果 D 档也工作,只要是正常人都会疯掉的,市区 80% 的时间都在报警。开启城市 NOA,用 BEV 占用网络大概率可以监测到。这玩意和护栏等静止物体,人类自己驾驶监测到也不干涉,因为不知道驾驶员的意图和轨迹。”
刚科普完不到一天,李想就删除了原微博并发了一篇认错微博,他表示:“D 挡下低速行驶超声波雷达是工作的,不仅能监测障碍物,还能够通过超声波雷达测量大概的距离,并自动启动 360 环视……”
这个亲自回复、亲自删除、亲自认错的过程,不仅让小编想起了前一段时间“AEB”之争上的言论。
一把手不懂技术……
再说赛力斯,问界M9还没有出来,华为智驾在其上面的表现究竟如何,咱们无从得知。
但……
从民间小视频上面,咱们也可以得知华为智驾并非“零”出错。
前几天,有疑似问界汽车把冬天汽车尾气识别成障碍物,在路口多次出现误刹停的情况。
说回问界M9的首撞。
前面一辆公交车,智驾行驶的挺好,结果智驾识别人工干预自动退出,于是就有了追尾……
没理解错的话,应该是这么一个过程。
那么问题来了,驾驶员为什么会干预介入?
1、驾驶员想体验一下驾驶的快乐,于是将智驾给退了。
2、在事故发生之前是智驾,在事故发生的一瞬间,驾驶员慌了干预了,智驾退了。
细节没有更多,但猜测大概率应该是第二种。
也就是说,试驾的驾驶员其实并不完全相信智驾,处于下意识的动作干预了行驶中的智驾模式下的汽车。
接下来就产生了几个问题。
1、这个下意识的动作,现实中会有多少人去做呢?
应该会有不少人。
虽然很多人会被测评媒体、民间小视频中“科技感”十足的智驾吸引,但真正亲自去试驾以后,相信几乎所有人都不会第一时间将自己的生命安全交给智驾。
2、智驾、辅助驾驶能不能用?
自然能用。
民间小视频就是一个很好的例子,在某一时刻,辅助驾驶是能救命的。
但……
咱们是不是在某一阶段,尤其是在今年被“忽悠”的有点上头了?
当车企不断在宣传“辅助驾驶”这一卖点时;
当一个又一个“救命”的民间小视频出现时;
当车企将L2拉升到L2.999,甚至“悄悄”说已经到了L3时;
当随着一次又一次辅助驾驶过程,你完全相信,甚至依赖它,不再有下意识动作时……
你已经跨越了辅助驾驶与自动驾驶的边界了!
你越来越相信它……
你从双手虚扶方向盘,到完全放开,再到在车里肆意妄为的玩游戏,甚至完全交给它,自己鼾声如雷时……
你除了看小视频、除了看发布会,除了听朋友吹捧以外……
究竟有没有去研究过目前的辅助驾驶?
1、目前智驾仍处于感知深度学习中,就像“尾气刹停”一样,它仍然有一些识别上的错误出现。
2、很多人看了一些民间小视频,就纷纷称赞其里面的智驾来,说它比老司机都开的溜!
事实真如此吗?
咱们做一个比喻,家里养了一只狗,它某一天突然会开门关门了。
“我c,快看这狗子比人还聪明!”
狗真的比人聪明?
智驾真的已经比人强了?
虽然比喻不恰当,但大抵就是这个意思。
目前除了那些“紧急情况”,人可能会输给智能。
但绝大多数情况,老司机表示不服。
如,开的稳不稳、方向打的是否流畅、是否存在误刹、急刹。
在处理一般情况下的逻辑是激进的超车,还是慢悠悠的等待……就目前的智驾水平,老司机的判断仍比智能更快、更准确。
3、智能驾驶该怎么用?
12月19日,美研究机构Lending Tree发言人指出,该研究对30个在美国市场销售的汽车品牌进行了调查,调查时间从2022年11月开始,截至今年11月中旬。
报告指出,特斯拉事故率在美国司机之中最高。
美媒的一份调查发现,自2019年以来,特斯拉在Autopilot模式下发生的事故高达736起,导致17人死亡。
说这么多,不是让大家反感智驾,拒绝智驾车,而是让大家摸清智驾与自动驾驶的边界。
目前的智驾是减轻驾驶员的疲劳,而不是替代驾驶员的工作。
永远要记清车企们给大家的小字……
在行驶状态下,人驾权限永远高于智驾系统!
-End-
图片及信息来源网络,如有侵权请联系本账号处理。
科创板日报:特斯拉成美国市场事故率之首 自动驾驶安全性再上风口浪尖。
本文为原创内容,不允许任何形式的搬运,已签全网维权,如有需求请联系本账号。
jun-dialbo
校验提示文案
辰小哥
校验提示文案
终结比赛了
校验提示文案
打死你也不说
校验提示文案
JohnZo
校验提示文案
羊了个虎
校验提示文案
cy1985
校验提示文案
幽灵老祖
校验提示文案
值友4574737755
校验提示文案
吴小伟
校验提示文案
zjlzm1
校验提示文案
我是摇摇
校验提示文案
shooter8
校验提示文案
[已注销]
校验提示文案
seeker12
校验提示文案
嘻哈er
校验提示文案
martinlock
新时代要培训车主不是乱说的。
人永远是系统中最不可靠的部分。
校验提示文案
值友1726442392
校验提示文案
Mr纯数字
校验提示文案
JohnZo
校验提示文案
值友1694176920
校验提示文案
xlun
这车技术遥遥领先,绝对不会撞的
如果撞了,那肯定是你人为干预,打断了它的智能,是你的不对才撞的
如果你不干预,那更是你的错,说明书明明白白写着汽车智能不能替代驾驶员,你不干预,造成撞车 ,那完全是你的责任
这逻辑如此清晰,我都不需要看事故经过,就能知道,只要撞车,全是司机的错。
校验提示文案
值友5684179264
校验提示文案
不老刘v
校验提示文案
princedemon
校验提示文案
米兰的蚊子
校验提示文案
迪利西丝
校验提示文案
煎饼Monkey
校验提示文案
值得省的
校验提示文案
蛇魔张大妈
校验提示文案
梁_先生
校验提示文案
sc120
校验提示文案
黔林山人
校验提示文案
kzh1415
校验提示文案
脱了裤子放的屁
校验提示文案
一只猫123
校验提示文案
[已注销]
校验提示文案
justso
校验提示文案
开金杯的阿明
校验提示文案
enzomc
校验提示文案