埃隆·马斯克的破坏欲……
编者按:加速世界向可持续能源转变,火星移民计划,在全球范围内提供低成本的互联网连接服务,收购推特……马斯克有太多宏大的脑洞,并且他真的用实践探索把脑洞变成现实的方法,这也是很多人喜欢他的原因。
但就像硬币有两面,有喜欢自然也有反对,特别是当特斯拉的自动驾驶车辆多次发生致死致伤事故时,不光特斯拉陷入了一连串的官司纠纷,马斯克本人也受到了越来越多的质疑。
在采访了多位特斯拉 Autopilot 事故当事人后,Christopher Cox 在纽约时报上发布了这篇长文,试图从不同人的视角来剖析这位让人捉摸不透的大佬的行事思维逻辑。
在早期,特斯拉的自动驾驶软件有个令人遗憾的习惯,那就是爱撞警方的巡逻车。没人知道原因,即便特斯拉的工程师们有一些很好的猜测:静止的物体和闪烁的灯光似乎会骗过 AI。车辆起初在计算机的控制下正常行驶,但突然它就会向左或向右打方向,然后撞车。这样的情况在过去短短三年多时间里至少发生了 10 次。
作为一家依靠投资者的无限乐观情绪来维持其高股价的公司,特斯拉的市值一度超过了丰田、本田、大众、奔驰、宝马、福特和通用的总和,这些撞车事故看起来是个大麻烦。但对于特斯拉的 CEO 埃隆·马斯克来说,它们提供了一个机会。每一次碰撞都会产生数据,有了足够多的数据后,特斯拉就能加速开发出世界上第一辆真正的自动驾驶汽车。他对这一愿景深信不疑,并做出了一个疯狂的预测:「我猜能让人们一觉醒来就安全抵达目的地的时间点大概就在明年底」,马斯克在 2019 年这样说到,「我想说我对此很确信,这不是一个问号」。
特斯拉的未来可能取决于驾驶者是否知道他们参与了这项数据收集实验,如果知道,那他们对风险的承受度是否又和马斯克的保持一致。我想听听一些较小事故受害者的意见,他们往往分为两类,但这两类人都不太愿意谈及此事:他们要么是特斯拉和马斯克的粉丝,不想对媒体说任何负面消息;要么就正在起诉特斯拉,因此在律师的建议下保持沉默。(乌麦尔·阿里,他的特斯拉在 2017 年撞向了高速公路上的障碍物,他有一个不同的借口:」请把我列为拒绝采访的对象,因为我不想得罪世界上最富有的人。)
然后我找到了戴夫·基。2018 年 5 月 29 日,他的 2015 款特斯拉 Model S 正开启 Autopilot 模式,载着他从牙医诊所回家。这是一条通向加州拉古纳海滩的双车道高速公路,他之前走过无数次。不过在这次行程中,车辆在戴夫分神时偏离出了车道,并追尾了一辆停在路边的警用 SUV,碰撞导致车辆原地打转,还把 SUV 推上了人行道。所幸无人受伤。
69 岁的戴夫以前是一家软件公司的经营者,他以冷静的工程师视角审视了这起事故。「这是由静止物体引起的问题,抱歉,这听起来很蠢,它们并不会移动」,他这样说到。多年来,特斯拉的人工智能算法很难把不懂的物体从背景中分离出来。不过戴夫并没有因为计算机没能解决这样一个看似简单的问题而感到沮丧,相反在了解到撞车事故背后的原因后他还安心不少:这是一个已知的软件限制,而不是某种黑天鹅事件。
去年秋天,我邀请戴夫和我一起去看一起事故现场。他用特斯拉新的 FSD 模式把我带到了那里,目前这个模式还处于测试阶段。我告诉戴夫,我很惊讶他还在驾驶特斯拉,甚至还为新的自动驾驶功能支付额外费用—— FSD 现在要价 15000 美元。如果我的车曾经差点害死我,我会换个品牌。但在戴夫的 Model S 撞车后的几年里,他又买了 3 辆特斯拉。
我们相约在拉古纳海滩的一家咖啡馆吃早餐,那里距当年的撞车地点大约 3 英里。戴夫穿着一件黑色的 V 领 T 恤,卡其色短裤和凉鞋,这是南加州半退休式的时尚。当我们走向我们的餐桌时,他锁上了他那台红色的 2022 款 Model S,车子的后视镜随即自动折叠,像极了小狗被抚摸时耳朵的样子。
戴夫带来了他为这次采访起草的四页备忘录,当中列出了有关事故的事实,并用例如「特斯拉 FSD 技术讨论」等小标题进行了整理。他是那种对生活中最重要的话题,比如计算机、软件、锻炼、金钱等有充分观点的人,并乐于分享这些观点。他尤其关注我对于 Autopilot 和 FSD 正在拯救生命这件事的理解:「数据显示,人们在使用 FSD Beta 时的事故率远低于其他汽车」。一个用 11 号 Calibri 字体标注的要点这样写道:「据可靠的统计数据,降低 FSD Beta 迭代将造成更多的事故,损失更多生命」。
他认为像他这样的事故,甚至那些致命事故是不幸的,但它们无法分散社会对于广泛采用自动驾驶汽车这一更大目标的注意力。戴夫以冠状病毒疫苗作类比,疫苗避免了几十万人的死亡,但也因为不良反应造成了零星的死亡和伤害。「对于一个社会来讲」,他总结说,「我们会选择拯救最多生命的道路」。
我们吃完早餐,回到车上。戴夫曾希望展示最新版本的 FSD,但他的系统还没得到升级。「马斯克说它将在本周末发布」,他说到,「好吧,今天已经是星期天了」。这几周来,马斯克一直在暗示此次更新将对 FSD 10.13 版本做出大幅改进,而老版本已经在夏天发布了。因为马斯克喜欢用他生活中的名字和数字来开小玩笑,于是这次发布的版本号将跳跃到 10.69。(特斯拉目前推出的四款量产车型号是 S、3、X、Y,很可能是由于这些字母能拼成单词「性感」。)
戴夫不想谈论马斯克,但这位大佬的声誉崩塌已经变得无法忽视了。他正处于接管 Twitter 的怪异且时断时续的运动中,这让特斯拉的忠实拥趸们大失所望。尽管他还没有攻击安东尼·福奇,没有散布关于南希·佩洛西丈夫的阴谋论,也没有在 Twitter 上大肆封杀记者,但这个问题已经在暗示了;你如何为埃隆·马斯克辩解?
「人都有缺点」,戴夫谨慎地说,然后重复了一句马斯克经常对他自己所说的话:如果两边的党派都讨厌他,那他一定是做对了什么。戴夫说,无论马斯克给他自己带来什么麻烦,他都是诚实的,「诚实得让人讨厌」。
在我们开车的时候,戴夫比较了 FSD 和他 2015 款特斯拉上的 Autopilot。他认为 Autopilot 就像是高阶版的巡航控制:速度、转向、避免碰撞。虽然在他的例子里,「我想它没有完成避免碰撞的工作」。他对 FSD 的印象要好得多。它能处理戴夫抛给它的所有情况。「我唯一的抱怨是它总是无法选择我想选的车道」。
一分钟后,车辆提示戴夫要把手放在方向盘上并目视前方路况。「在这方面,现在的特斯拉有点像保姆」,他抱怨道。如果说 Autopilot 曾经对注意力不集中的司机有危险的纵容,甚至允许他们在方向盘后面打瞌睡,那么这个像「静止物体识别障碍」的错误已经被修复了。「在方向盘和眼球追踪之间,这是一个已经解决的问题」,戴夫这样说道。
很快我们接近了当年的事故现场,我们两侧是灌木覆盖的山丘,自行车道在当中穿行。这就是事故当天让戴夫陷入麻烦的原因。他当时正在看一条有趣的小路而忽视了道路。「我在看左侧的风景,车就往右边去了」,他说道,「我当时有一种错误的安全感」。
我们把车停在了四年前他撞上警用 SUV 的地方。这里的路没有什么特别的:没有奇怪的车道线,没有混乱的车道转换,没有车道合并。只有一条单行道,沿着一排路边停靠的车向前延伸。特斯拉为何会在那一刻失效,这是个谜。
最后,戴夫让 FSD 带我们回咖啡馆。然而,当我们左转时,方向盘开始来回转,制动踏板也开始震颤。戴夫紧张地嘟囔了一句,「好吧……」
又过了一会,车子在穿越道路的途中停了下来,一排车辆正从我们的侧面驶来。戴夫犹豫了一小下便立即接管了车辆并完成了转向。「它当时可能会加速,但我不愿意在那么极限的情况下去接管它」。当然,如果他错了,它很有可能在同一路段上发生第二次由人工智能造成的事故。
在戴夫追尾警用 SUV 的三周前,马斯克给吉姆·莱利写了一封邮件,他的儿子巴雷特在特斯拉超速撞车后身亡。马斯克向莱利表示哀悼,这位悲痛的父亲回信询问特斯拉的软件能否更新一个功能,允许车主为车辆设定最高速度,以及其他关于加速、限制使用流媒体、后备箱,还有车辆可离开家的距离。马斯克在表达同情的同时回复道:「如果有大量的设置选项,这对大多数人来说就显得太复杂了。我想确保对大多数人都最有利的情况。
这是马斯克作为一个不寻常 CEO 的鲜明表现。首先,他直接联系了被他产品所伤害的人。如果只是出于法律原因,很难想象通用或福特的负责人会考虑这样做。(事实上,这封邮件在莱利起诉特斯拉后被当做了证据。)没有含糊的「我们研究一下」或「我们会看看我们能做点什么」,莱利收到的是严正的拒绝。
和戴夫一样,我想抵制马斯克将每个故事都显得与他有关的倾向。特斯拉是一家拥有数千名员工的大型汽车公司。它在马斯克来之前就存在。它可能在马斯克走之后也存在。但如果你想对该公司面临的挑战——以诉讼、崩溃的股价、仍有可能造成灾难性失败的 AI 的形式——有个简单的解释,你就应该看看这个多变、聪明、诡辩的 CEO。
马斯克是一个自恋者,这几乎不是什么秘密,他所做的每一个鲁莽急转弯都只是为了吸引世界的注意。在最近的一次取证中,他似乎以半开玩笑的方式认可了这一理论,当时一位律师问他:」你是否有某种独特的能力来识别自恋型反社会者?」他回答说:」你是说通过照镜子?」
但看似像自恋和冲动失控的情况可能是一种连贯哲学的结果,马斯克在许多场合都详细说明了这一点。在给莱利的电子邮件中就有这样的内容:为最多的人谋取最大的利益。作为功利主义伦理学特别体系的一部分,这句话可以解释马斯克所做的各种神秘决定,尤其是他对人工智能的极速追求,他相信从长远来看,人工智能将拯救无数人的生命。
不幸的是,对马斯克来说短期内是第一位的,他的公司面临艰难的几个月。2 月,第一起针对特斯拉涉及 Autopilot 的撞车诉讼将开庭审理。接下来,还有四起诉讼将接踵而至。唐纳德·斯拉维克将在其中多达三起案件中代表原告,他说,一个正常的汽车公司现在应该已经和解了:「他们把这看作是做生意的成本」。马斯克发誓要在法庭上一决高下,无论这可能给特斯拉带来什么风险。「赔偿还会增加」,斯拉维克说,「特别是如果有任何惩罚性赔偿的发现。」
未决诉讼的许多主张都回到了一个主题:特斯拉不断夸大消费者的期望,并淡化其中的危险。
斯拉维克给我发来了他控诉特斯拉的其中一封起诉书,当中列出了从 A 到 Z ——实际上是从 A 到 WW 的著名 Autopilot 车祸。在中国,一辆特斯拉追尾了一辆环卫车。在佛罗里达州,一辆特斯拉撞上了一辆横跨高速公路两条车道的牵引车。在印第安纳州的一场大雨中,一辆特斯拉 Model 3 冲出路面并起火。在佛罗里达群岛,一辆 Model S 在经过一个十字路口时撞死了一个行人。在纽约,一辆 Model Y 撞上了一名正在长岛高速公路路肩上给车换轮胎的男子。在蒙大拿州,一辆特斯拉意外撞向了高速公路的护栏。同样的事情还发生在达拉斯、山景城和圣何塞。
自驾车辆的到来并不意味着会是这样。日复一日,我们在汽车里吓唬自己,残害自己,杀死自己。在美国,去年发生了约 1100 万起交通事故,近 500 万人受伤,超过 4 万人死亡。特斯拉人工智能的出现是为了结束这种血腥场面。但相反,在美国,平均每天至少有一起与自动驾驶有关的事故,特斯拉正在接受美国国家公路交通安全管理局的调查。
自 2015 年 10 月 Autopilot 发布以来,马斯克一直鼓励司机相信它比实际情况更先进,并在 2016 年 1 月表示,它 「可能比人类司机更好」。同年 11 月,该公司发布了一段特斯拉在湾区道路上行驶的视频,并声明:「坐在驾驶座上的人只是出于法规要求。他没有做任何事情,车辆在自动驾驶」。马斯克还拒绝了「Copilot」这个名字,而选择了 「Autopilot」。
细则中明确指出,该技术仅用于辅助驾驶,但这一信息只得到了马斯克宣布的一小部分关注。大量的司机似乎真的对自动驾驶的能力感到困惑。(特斯拉也拒绝透露 2016 年视频中的车辆在该公司的停车场撞车)。斯拉维克的起诉书并没有隐瞒:「特斯拉的行为是卑鄙的,而且是如此可鄙,以至于任何一个正直的人都会鄙视它」。
未决诉讼的许多主张都回到了一个主题:特斯拉不断夸大消费者的期望,并淡化其中的危险性。车辆没有得到足够的驾驶者监控,因为马斯克不希望驾驶者认为他们的车需要人来监控。(马斯克在 2019 年 4 月说:「如果你的系统达到或低于人类水平的可靠性,那么驾驶员监控就有意义。但是,如果你的系统明显比人好,比人更可靠,那么监控就没有什么帮助」。)司机没有收到有关自动刹车或「意外变道」问题的警告。特斯拉在用户手册中承认该技术的局限性,但仍发布了一台特斯拉在没有人为干预的情况下完成复杂路线的病毒视频。
像戴夫这样的人是马斯克的理想客户——当出现问题时愿意接受指责,但对下一次更新依然拥有几乎无限的信心。在一份证词中,特斯拉的一名工程师明确表示:「我们想让客户知道,第一,你应该对你的车辆有信心。一切都在按部就班地工作。第二,你的事故或意外的原因总会归结于驾驶者自己」。
我们在拉古纳海滩左转失败后,戴夫迅速诊断出问题。他认为,只要系统升级到 FSD 10.69,汽车就一定能安全转弯。不幸的是,对马斯克来说并不是每个特斯拉车主都像戴夫那样。Autopilot 讼案中的原告可能会认可人工智能正在改善,但绝不认同早期使用者和旁观者可能会在使用过程中被杀害。
在网上,马斯克的支持者和反对者就 Autopilot 和 FSD 展开了一场骂战。Reddit 有一个名为 r/RealTesla 的论坛,展示了最令人尴尬的 AI 故障,以及更多普通的抱怨:方向盘吱吱作响、车顶漏水、电子系统失灵、车厢隔音差、悬挂太硬、皮革座椅起皱、门把手损坏。马斯克的粉丝们则倾向于将自己封闭在 r/TeslaMotors 论坛中,他们在那里发布特斯拉的最新进展,为特斯拉的新工厂开业欢呼,并等待老板的下一个重大消息。
我在 YouTube 上找到了大卫·阿尔福德,他在那里发布了一段名为 「特斯拉 FSD 闯红灯 」的视频。在视频中,我们看到阿尔福德的汽车在接近一个有左转车道的十字路口时,透过挡风玻璃能看到有交通信号灯。在还剩几百码的时候,信号灯从绿灯转为红灯,但汽车没有停下来。相反,它驶入十字路口,差点就撞上迎面而来的车辆,直到阿尔福德接管。
在视频下方的评论中,特斯拉粉丝们对阿尔福德发布视频越来越生气,但他反驳说:「如果你害怕发布特斯拉的故障,这将如何督促特斯拉改善他们的系统」?在回复一条评论时,他写道,FSD「在他们使用它的情况下是不道德的」。
当我打电话给阿尔福德时,我以为他是适合 r/RealTesla 的人,但最终我发现他更有 r/TeslaMotors 的气息。他告诉我,他愿意带我去他的视频现场演示故障,但首先我必须做出承诺。「我唯一要求的是尽量不要让我的行为对特斯拉产生负面影响,」他说。」我不希望任何人认为我讨厌这个公司或其他什么,因为我是特斯拉的狂热支持者」。
阿尔福德住在加州弗雷斯诺,去年秋天的一天,在我去见他之前,他告诉我一个令人兴奋的消息:他刚刚收到 FSD 10.69 的更新。我们的行程将是他第一次尝试用新系统 通过 YouTube 视频中的十字路口。
我见到他的那个早上,他穿着一件黑色 T 恤,露出他的纹身,戴着黑色墨镜,穿着膝盖上有洞的褪色黑色牛仔裤。好莱坞会把他打造成一个白帽黑客,的确,他是一个像戴夫一样的软件从业者。他是湾区一家科技公司的产品工程师。
他的白色 2020 款特斯拉 Model 3 上有一个他在 Etsy 上找到的磁性保险杠贴纸:注意 FSD 测试正在进行中。他说他 90% 的时间都在 FSD 模式下开车,所以他的车总是表现得有点奇怪,这个贴纸有助于他被其他车辆的嘀喇叭。他似乎和戴夫一样,是一个理想的 FSD 测试者:对软件感兴趣,对其缺陷保持警觉,并坚持不懈地积累自动驾驶里程。
我坐上副驾驶座,阿尔弗德打出了我们的第一个目的地:弗雷斯诺市中心几个街区外的一个地方。他说我们很幸运,当时是阴天,因为这辆车在这种条件下表现良好。在阳光明媚、有很多强光的日子里,这辆车可能会 「喜怒无常」,而在有雾的时候,弗雷斯诺经常有雾,「它就会抓狂」。
几分钟后,我们走到一个人行横道上,正好有一对父母拉着一个婴儿车开始过马路。方向盘旁边的屏幕显示,AI 已经识别了这两个行人,但没有识别到婴儿车。艾尔福特说,他已经把脚悬在了刹车上,但车却自己停了下来。
婴儿车之后是一个坐着轮椅的女人。特斯拉还是没有动。艾尔福特告诉我,汽车行业的行话是,街上任何不在汽车或卡车上的人都是「V.R.U.」,即弱势道路使用者。这也是事实:行人、骑自行车的人、婴儿车里的孩子和坐轮椅的妇女——与这些被我们塞进城市和高速公路的巨大机器相比,他们是如此脆弱。一个错误的举动,汽车就会碾碎他们。
我们驶上了穿过市中心的范尼斯大道。这条路是新铺设的,还没划车道线,只是有一些黄色小标签表明车道线最终的走向。我们这辆特斯拉显然不喜欢这样的路,它在路上左右摇摆,寻找可以确定它位置的东西。周围没有其他汽车,好在艾尔福特帮它解决了这个问题,并最终找到了一条可以循迹的车道线。
他说:「你要对它所承担的风险建立了一种容忍度。它是到处乱转,但我知道它不会撞到什么东西」。不过,FSD Beta 的使用体验还是改变了他对待自己工作的方式。「实际上,作为一个软件开发者,它让我对于把我的软件交付给用户变得更加犹豫不决。」他说,「尽管它并不危险」。
几秒钟后,我们驶过一个十字路口,这时两个 V.R.U. ——一个人溜着一条狗进入了人行道。他们离我们有一段安全距离,但那条狗开始朝我们的方向用力挣扎。艾尔福特和我知道,这只宠物并没有危险,因为狗链会限制它。但特斯拉只看到一只狗要跳到我们面前,它就突然停了下来。考虑到所有的事情,这是一个很好的结果,它没有对任何生命体造成伤害,但这远远算不上是一次完美的自驾游体验。
艾尔福特经常轻转方向盘,以至于车辆从未提醒他要集中注意力。他并不介意严格的驾驶监控:他对研究汽车的行为孜孜不倦,所以他从没在过程中分神过。不过,他知道有人滥用了这个系统。一位司机将重物绑在方向盘上,以便在漫长的公路旅行中不必轻转方向盘。他说:「我知道有些人的特斯拉有 FSD Beta,他们用它酒后驾驶,以代替叫 Uber」。
我们离开市区,上了高速公路,朝着城市东北部一个叫 Clovis 的地区前进,那里有一个棘手的十字路口。艾尔福特打开了他的 FSD 设置选项。他的默认驾驶模式是「均衡」,但他发现这和其他两个选项「冷静」和「自信」之间并没有什么不同:「反正这辆车就是很有攻击性」。不过,对于高速公路驾驶,他将汽车设置为一种叫做「疯狂麦克斯」模式,这意味着如果前面的车辆比他喜欢的速度慢几英里 / 小时,它就会超车。
我们出了高速路,很快遇到了一个堵车点。路口的交通信号灯出了点问题,闪烁着红光,四个方向的司机在八条车道上,必须弄清楚什么时候该走,什么时候该让。这里的编排很微妙:有太多的车辆交织在一起,而没有为仁慈、混乱和权宜之计留出一些余地。在人群中,有很多人在向他人挥手示意,并试图用眼神交流,看某人是否会让步。
一台车一台车极慢地驶向十字路口,直到轮到我们。我们期待能有细微的差别,可惜并没有。一旦我们快要完全停下,特斯拉就迅速加速,抢在一辆从我们对面转过来车辆之前通过,并绕过另一辆。这与其说是不人道的行为,不如说是一个决心要做混蛋的人的行为。「那太糟糕了」,阿尔福德说,「通常情况下,一旦它犯了这样的错误,我就会接管」。他点击了一个按钮,将事件的快照发送给了特斯拉。
之后,在一个十字路口,这辆车又太谨慎了。它等了很久,路口的另外两辆车在我们之前都开走了。我们谈到了关于安全驾驶的一句老话:「不要客气,要有预见性」。对于一台电脑来说,特斯拉的人工智能出乎意料地不稳定。「它既不客气也没预见性」,阿尔福德说。
沿着这条路走了几英里,我们到达了视频中的十字路口:从 168 号国道左转进入东谢泼德大道。这个红绿灯正好位于该市最新开发项目和野地的交界处。如果我们直行,我们会立即发现自己被沙棘包围。
为了复制阿尔福德发现的错误,我们需要在左转红灯、直行绿灯的情况下进入路口。在我们第一次通过时,左转红灯在最后一秒变成了绿灯。但在第二次通过时,在一条空旷的道路上,时间是正确的:我们左转是红灯,其他人是绿灯。
当我们越来越近时,那辆车进入了转弯车道并开始减速。「它看到了红色」,我说道。
「不,它总是在这里放慢一点速度,然后再冲过去」,艾尔福特说。但这次,它一直在减速。艾尔福特不敢相信,「它仍然会闯红灯」。但他错了。我们准确停在了停止线前。艾尔福特很震惊。「他们修好了」,他说,「这个问题我已经给他们讲了两年了」。我们继续耐心地等待,直到绿灯亮起,特斯拉顺利地驶入谢泼德大道,没有问题。
这是对马斯克假设的清晰证明,也是人们所希望的。有一些情况一直困扰着人工智能,直到像阿尔福德这样的专业驾驶者收集了足够多的数据后,神经网络才能发现它。重复这种「风险-上报」转换 N 次后,也许特斯拉会搞定自动驾驶问题。甚至可能在明年。
在驱车返回弗雷斯诺市中心的路上,阿尔福德对他有可能让特斯拉世界变得更好而感到高兴。我问他,FSD 10.69 的发布是否符合之前的炒作。「说实话,我认为是符合的」,他说。(他对 12 月发布的 FSD 版本更加热心,他说该版本几乎没有缺陷)。
几分钟后,我们到达了镇上一个破败的地方。阿尔福德表示,总的来说,特斯拉的 AI 在高收入地区表现更好,可能是因为这些地区有更多的特斯拉车主。「是否存在高收入地区的数据偏差,因为特斯拉就在那里」?他想知道这个问题的答案。
我们走到一个十字路口,试图左转,结果重复了拉古纳海滩的情景。特斯拉开始蠕动,试图看清从我们左边驶来的车辆。它一直往前蠕行,直到我们再一次完全进入路口。没有什么会阻拦特斯拉加速并完成转弯的物体,但它却只是停在那里。与此同时,一辆改装过的本田雅阁向我们飞驰而来,大约三秒钟后就会撞上驾驶员一侧的车门。艾尔福特迅速接管,猛踩油门,我们安全脱险。这一次,他没有说什么。
从那里回家的路很难走。在一个红绿灯的标准左转处,系统懵了了,想往右走。艾尔福特不得不介入接管。然后,当我们接近一个通往高速公路的立交桥匝道时,车辆开始加速。为了留在匝道上,我们需要做一个弧形的右转弯;在我们前面是一个陡峭的下坡路,通向一个没有护栏的施工现场。汽车没有显示出转弯的迹象。我们越过了一条白实线,在离驶出路面还有几毫秒时,方向盘终于向右急速抽动,我们又回到了路上。这一次,FSD 自我纠正了,但如果没有,这场事故肯定会让我们丧命。
马斯克在 PayPal 的前合伙人彼得·蒂尔曾说,如果他写一本书,当中关于马斯克的章节将被命名为 「对风险一无所知的人」。但这是对马斯克的态度的误解:如果你仔细分析他的陈述,他把自己描述成一个愿意为了未来的受益简单接受当下巨大风险的人。
当然了,马斯克对他的哲学最清晰的阐述是在 Twitter 上。「我们应该采取一系列行动,使更多人的幸福感最大化」!一个用户问他该如何拯救地球,他这样回复道。8 月,他称苏格兰功利主义伦理学家威廉·麦克阿斯基尔的著作 「与我的哲学非常吻合」。(值得注意的是,麦克阿斯基尔也是山姆·班克曼·弗里德的思想缪斯,尽管他在 FTX 丑闻曝光后与后者断了联系。)
马斯克对风险的接受度已经产生了真正的突破。SpaceX 能将可重复使用的火箭降落在海洋中的遥控着陆点上;Starlink 正在为前线的乌克兰人提供互联网服务;OpenAI 距离通过图灵测试越来越近。至于特斯拉,即使是马斯克最严厉的批评者——我在报道这篇文章时与他们中的许多人交谈过——也会不由自主地停下来,对他在美国和世界各地创造现在繁荣的电动汽车市场表示赞赏。
然而,正如罗伯特·洛厄尔所写的那样,「火箭不会像人一样误入歧途」。最近几个月,随着 Twitter 和其他地方的愤怒开始成倍增多,马斯克似乎决心浪费他在职业生涯中建立的大部分好感。我问原告律师斯拉维克,最近公众对马斯克的情绪变化是否使他在法庭上的工作变得更容易。「我认为,至少在这一点上,对他的判断持怀疑态度的人比以前多」,他说,「如果我是对方,我就会担心」。
不过,如果把马斯克的一些最值得怀疑的决定看作是直截了当的功利主义计算的结果,就开始说得通了。上个月,路透社报道说,马斯克的医疗设备公司 Neuralink 通过仓促的实验造成了几十只实验室动物的无谓死亡。来自马斯克团队的内部消息表明,这种紧迫感来自于高层。「我们的行动根本不够快」,他写道,「这让我很抓狂」!成本效益分析在他看来一定很清楚。他相信,Neuralink 有可能治愈瘫痪,这将改善未来数百万人的生活,因此少数动物的牺牲是值得的。
这种粗放的长期主义形式甚至在马斯克关于收购 Twitter 的声明中也有所体现,即未来几代人的庞大规模会增加他们的道德分量。他称 Twitter 是一个 「数字城市广场」,其责任不亚于防止一场新的美国内战。「我这样做不是为了赚更多的钱」,他写道,「我这样做是为了帮助人类,我爱他们」。
Autopilot 和 FSD 代表了这种方法论的顶峰。「特斯拉工程的首要目标」,马斯克写道,「是让用户幸福曲线下的面积最大化」。与 Twitter 甚至 Neuralink 不同,人们因他的决定而死亡。亚伦·格林斯潘是一个激进投资者和坚定的特斯拉批评家,在 2019 年与他的邮件交流中,马斯克对于 Autopilot 不是救命技术的说法感到震惊。「数据明确显示,Autopilot 比人类驾驶要安全得多」,他写道,「你这样说是不道德的,也是错误的。这样做,你是在危害公众」。
我想请马斯克详细介绍他的风险哲学,但他没有回复我的采访请求。因此,我转而与著名的功利主义哲学家彼得·辛格交谈,以梳理其中涉及的一些伦理问题。当马斯克声称任何拖延自动驾驶汽车发展和推广的行为本质上都是不道德的,他说的对吗?
「我认为他有一个观点,」辛格说,」如果他对事实的看法是正确的话。」
马斯克在谈及 Autopilot 或 FSD 时,总会提及它比人类驾驶员更优秀。在 8 月份的股东大会上,他说特斯拉正在「解决人工智能的一个非常重要的部分,并且最终可以通过比人类驾驶更安全一个数量级的表现来挽救数百万人的生命并防止数千万人受到严重伤害」。马斯克确实有数据来支持这一点。从 2018 年开始,特斯拉向公众发布季度安全报告,这些报告显示,使用自动驾驶仪具有一致的优势。最近的一份报告显示,从 2022 年底开始,使用 Autopilot 的特斯拉汽车发生碰撞事故的概率是普通汽车的十分之一。
这就是特斯拉今年春天必须向公众和陪审团提出的论点。用该公司安全报告的话说:「虽然没有汽车可以防止所有的事故,但我们每天都在努力使事故发生的概率大大降低」。Autopilot 可能会导致发生 N 次事故,但如果没有这项技术,事故可能将发生无穷多次。
辛格告诉我,即使 Autopilot 和人类司机的致死率相同,我们也应该更喜欢人工智能。他说:「这有点像外科医生做实验性手术」,他说,「可能在头几次做手术时,他们会失去病人,但这样做的理由是,从长远来看,他们会拯救更多病人」。然而辛格补充说,外科医生必须获得病人的知情同意,这很重要。
特斯拉是否得到了用户的知情同意?对于不同的车主来说,答案可能是不同的——对于戴夫来说,2018 年的答案可能与 2022 年的答案不同。但大多数客户并不知道 Autopilot 有多大的缺陷,《多安全才算安全?衡量和预测自动驾驶汽车的安全性》一书的作者菲利普·库普曼这样说道。「汽车一直在犯疯狂且令人惊讶的错误」,他说,「特斯拉使用未经训练的普通人作为不成熟技术的测试驾驶者,这种做法真的很恶劣」。
库普曼还反对马斯克的所谓事实。该公司在其季度安全报告中公布的数据有一个明显的问题,即它直接将主要在的高速公路上行驶的 Autopilot 里程与所有车辆里程进行比较。「你在安全里程上使用自动驾驶仪」,库普曼说,「所以它看起来当然很好。然后你将它与普通汽车在困难里程上进行比较」。
在 2022 年第三季度,特斯拉声称使用自动驾驶仪每行驶 626 万英里才会发生一起事故——实际上,这比美国每 65.2 万英里发生一起事故的基线水平高出近 10 倍。然而,在城市道路上发生车祸的可能性远高于在高速公路上发生的可能性:宾夕法尼亚交通部的一项研究表明,城市道路上车祸发生率是收费公路上的五倍。将 Autopilot 数字与高速公路数字进行比较时,特斯拉的优势明显下降。
当你试图控制车辆的使用年限和司机的年龄时,特斯拉的安全声明看起来更加站不住脚。大多数特斯拉车主都是中年或老年人,这就消除了一个有风险的司机群体,青少年。并且仅仅是拥有一辆新车就可以大大降低发生事故的几率。甚至有可能是拥有特斯拉最多的加州,其天气普遍温和、干燥,这使得数字向有利于它的方向倾斜。一项试图纠正其中一些偏见的独立研究表明,无论 Autopilot 是否开启,特斯拉一样经常发生碰撞。
「这一直是功利主义者的一个问题」,辛格告诉我,「因为它没有严格的道德规则,人们可能会认为他们能以适合自己目的的方式计算总和而逃脱惩罚」。
功利主义思想使个人做出了令人叹为观止的行为,但把这种伦理框架置于一个实业家手中会带来某些危险。真正的功利主义要求仔细平衡现在和未来的所有伤害和利益,并有耐心进行这种评估,如果推进所造成的痛苦和死亡数量不明确,则有耐心不采取行动。马斯克则正在以一种更有限的方式使用功利主义,只要他确定某件事会有净收益,他现在就会去做。
在过去 20 年里,马斯克以某种方式使自己经营着多家公司,他可以合理地声称自己在为维护人类的未来而努力。SpaceX 不只是将卫星送入低轨道;它还将把我们送到火星。特斯拉公司不能只是制造一辆坚固的电动汽车,它要解决自动驾驶的问题;推特不能只是一个我们聚集争论的地方,它是支撑文明的工具之一。随着赌注的适当提高,各种令人质疑的行为似乎开始变得合理。
小说家珍妮特·温特森写道:「真正的信徒,宁可看到政府倒台,历史被改写,也不愿擦破他们信仰的封面」。马斯克似乎毫不动摇地相信他的做法是正确的。但是,尽管他如此迫切,他仍然可能在人工智能竞赛中失败。
如今在旧金山、德州奥斯汀,以及世界各地越来越多的城市,你可以叫一辆由 Cruise 或 Waymo 运营的 Robotaxi 无人驾驶出租车。「如果要找一个从虚拟走向现实的时刻,那就是现在」,创建谷歌自动驾驶汽车团队的塞巴斯蒂安·瑟伦告诉我。(「顺便说一句,我去年可没这么说过」,他补充道。)瑟伦不是 R/RealTesla 的潜伏者;他已经买了第五台特斯拉了,他说他很欣赏这家公司:「特斯拉拥有的东西真的很棒。但在自动驾驶这件事上,特斯拉的竞争对手比任何配备 FSD 的特斯拉更接近于实现完全自动驾驶。
最近几个月,马斯克不再承诺自动驾驶特斯拉指日可待。「我原以为自动驾驶问题会很难」,他说,「但它比我想象的要难。这不像我想的那样容易。我以为会很难。但它实际上比那更难」。
2019 年 12 月 29 日,就在印第安纳州一辆特斯拉与一辆停在路边的消防车发生致命碰撞的同一天,一位名叫凯文·乔治·阿齐兹·利亚德的休班司机正驾驶着他的灰色 2016 款特斯拉 Model S 行驶在洛杉矶郊区的加德纳高速公路上。这是一次从橙县访问回来的长途驾驶,利亚德打开了 Autopilot。午夜过后不久,汽车从一个巨大的牌子下经过,牌子上用闪烁的黄灯写着「前方高速公路终点」的标语。
当利亚德的特斯拉接近标志着高速公路终点和 Artesia 大道起点的红绿灯时,Autopilot 使它保持稳定的速度。据一名目击者说,当时是红灯,但这辆车径直驶过十字路口,撞上了一辆本田思域汽车。里亚德只受了轻伤,但思域车内的两个人,吉尔伯托·阿尔卡萨·洛佩斯和玛丽亚·瓜达卢佩·尼韦斯,当场死亡。他们的家人说,他们当时正在进行第一次约会。
州政府官员指控里亚德犯有过失杀人罪,并将起诉他,就好像他是这两起死亡事件背后的唯一相关者一样。与此同时,受害者家属已对利亚德和特斯拉提起民事诉讼。根据刑事和民事案件的结果,可以判断 Autopilot 系统到底是否负有法律责任。
不久前,我去看了据说是利亚德的特斯拉闯红灯的地方。我租了一辆特斯拉,想亲身体验一下。我终于知道在 Autopilot 控制下开车的感觉。我沿着街道向东行驶,直到到达一个可以并入 91 号高速公路的匝道。利亚德撞车时已是深夜,我是在白天驾车的。
我一上高速公路,就启动了自动驾驶仪,汽车就自动运行了。绝大部分时间,路上只有我一辆车。这辆特斯拉被设定为在使用 Autopilot 时,速度比限速高出 15%,汽车迅速加速到 74 英里 / 小时,这也是里亚德撞车时的速度。他的自动驾驶仪速度设置是否相同?
这辆车在车道保持方面做得很好,比我使用过的任何其他自适应巡航控制系统都好。我试着把手从方向盘上拿开,但几秒钟后,特斯拉就向我发出提示音。
当我接近事故地点时,我从巨大的「前方高速公路终点」标志下经过,Autopilot 仍继续行驶。又过了 500 英尺,同样的标志再次出现,急促地闪烁着。只剩下几百英尺的双向分隔车道,然后 91 号高速公路变成了一条城区道路,就在与佛蒙特大道的交叉口处。
我把我的脚悬停在刹车上。我在做什么?看看这辆车是否真的会冲过红灯?当然会的。我想我是在试图想象做这样一件事有多么容易。在一个漫长的夜晚结束时,在没有汽车的道路上,由一个叫 Autopilot 的东西来控制车辆?我的猜测是,里亚德甚至没有注意到他已经离开了高速公路。
这辆车在警告灯下飞驰,时速 74 英里 / 小时。碰撞数据显示,在特斯拉撞上洛佩兹和尼韦斯之前,刹车已经有 6 分钟没有使用了。
我的特斯拉向十字路口冲去。我离红灯越来越近了,没有刹车。然后,就在我准备接管之前,一辆皮卡车从最右边的车道上冲出来,拦住了我的前进车道。特斯拉立即感觉到了,并大力刹车。如果那辆卡车,或者任何一个类似的大家伙–在 2019 年 12 月就出现在那里的话,洛佩兹和尼韦斯将得以生还。
RoCcO
校验提示文案
RoCcO
校验提示文案