查看原文
其他

让用户拿命帮自己跑数据——特斯拉自动驾驶的“核心价值观”?

苏清涛 九章智驾 2022-07-29

这篇文章写于201811月,但很不幸,在当时被封杀了。最近,面对特斯拉自动驾驶接二连三的不靠谱,让我忍不住回头重新看了下这篇,并在做了一些删减后发出。

 

 

2013年3月 ,马斯克去谷歌找过拉里.佩奇。

 

彼时,由于Model S上市后销量不济等原因,股价暴跌、拖欠供应商货款、发不出工资的特斯拉离死亡只剩一步之遥。于是,马斯克厚着脸皮找到了他的老朋友拉里.佩奇,希望谷歌能以110亿美元的价格全资收购当时市值只有60亿美元的特斯拉。

 

马斯克还提出条件:谷歌得承诺在收购之后不解散特斯拉,并让马斯克继续担任CEO至少八年时间。“天上掉下个特斯拉”对这种送上门来的惊喜,佩奇怎么舍得错过呢?因此,对马斯克提出的条件,佩奇照单全收。

 

假如特斯拉当时真被谷歌收购,或许,就不会有后来光芒四射的特斯拉自动驾驶/Autopilot。不过,“历史无法假设”——在临近签约的时候,Model S的销量突然上去了,特斯拉的现金流问题解决了,于是乎,马斯克突然反悔了,然后,这笔收购就不了了之了,并在日后也很少有人想起。

 

在谷歌收购特斯拉一事告吹两个月后,即2013年5月,马斯克曾向彭博社披露,“正在考虑跟谷歌合作搞自动驾驶的可能性”。不过,合作并未成行,最终于的原因是,谷歌走的激光雷达路线,成本高、不时候量产,而特斯拉是需要卖私家车的,他们需要的是成本更低的方案。

 

特斯拉的自动驾驶,从一开始就走的是成本更低、适合量产的基于摄像头/毫米波雷达的技术路线。其后来的快速发展及招致的非议,也大多直接或间接地与此有关。

 

2014年10月,特斯拉开始跟Mobileye合作,在新生产的Model X与Model S上搭载基于摄像头的自动驾驶系统Autopilot 1.0,用户需要为这套“可选配件”支付2500美元。不过,当时,Autopilot 1.0尚未投入使用,直到一年后,当软件更新至7.0本时,Autopilot 1.0的硬件才被激活。

 

2015年10月24日,马斯克在推特上宣布,从这个月起,在除日本之外的其他市场上,当初下单时买了Autopilot功能的用户,都可享受自动驾驶功能了。这一进度,比特斯拉最初的计划提早了将近一年——2013年9月18日,刚在推特上宣布进军自动驾驶并招聘人才时,马斯克的说法是,将在“三年内”让用户体验到半自动驾驶。

 

不过,马斯克很快就被打脸。

 

11月除,中国香港的交通管理部门要求特斯拉先对卖到香港市场上的特斯拉车辆的Autopilot功能禁用,并且,在当局经过验证认为自动转向和自动泊车两项功能可靠之前,不得重新启用。即日起,香港的特斯拉车主很郁闷地发现,他们支付了2500美金的Autopilot突然没法用了。

 

在刚过去的2015年前10个月,香港市场上共卖出去2221辆Model S,并且,特斯拉超级充电站的密度达到每20分钟的车程就有10家,这就不难理解,为何马斯克将香港视为电动车市场的“灯塔”。香港市场遇难,大Boss当然得“高度重视”并“亲临一线处理”了。

 

2016年1月,马斯克紧急“觐见”了时任香港特首的梁振英,希望能妥善处理。梁特首,果然很给马斯克面子,到3月,香港市场就对Autopilot 1.0“放行”了。而日本市场,也2016年1月份对Autopilot“放行”。

 

2016年1月20日,在中国京港澳高速河北邯郸端,正式“上线”不满三个月的Autopilot引发了特斯拉在全球范围内的第一次自动驾驶事故。在遇难前,车主高雅宁开启了Autopilot,并且还在闲适自得地听歌,然后,毫无防备地装在了前面的环卫作业车上。

 

但这则事故在当时并没有引起太多关注,以至于“第一名”的头衔被当年5月份发生在美国佛罗里达州的那起事故给“抢走”了。

 

在2016年5月份那起致命事故后,特斯拉曾经对Autopilot系统做过升级换代——但只是将以摄像头为转传感器改为以毫米波雷达作为主传感器,却仍然未使用可靠性更高的激光雷达。

 

在2017-2018年,特斯拉在自动驾驶模式下也发生过多起事故,仅在2018年,至少造成三人死亡。事故的技术原因多集中在“感知失灵”上,其中,“毫米波雷达无法识别静态障碍物”是一个特别常见的问题。

 

按照业内人士的解释,特斯拉自动驾驶出大多数事故,只要加上一颗/几颗激光就能解决。但马斯克却一直认为,只要算法成熟,仅靠摄像头和毫米波雷达就可以实现全自动驾驶,而激光雷达是个不必要的“拐杖”。 

 

面对激光雷达缺失的方案可能存在的安全隐患,马斯克在内部的全员大会上激昂陈词:与其等十年后把Autopilot打磨得成熟完美了再发布出来,不如现在就去防止事故、拯救生命。如果为了逃避法律责任,就不肯对世界做出这些贡献,是懦夫的行为。

 

马斯克说:我们不会去做舒服的事。我们要做正确的事。

 

不过,这种“毒鸡汤”,给基层员工洗脑或许还管用,但在一些具有独立思考能力的牛人哪里则没什么效果。这点,从Autopilot团队负责人居高不下的离职率上就能看出。

 

我们先历数一下 Autopilot 团队的几任负责人:

项目创始人 Sterling Anderson

软件副总裁 Chris Lattner

软件副总裁 Jinnah Hosein

软件副总裁 David Nistér

软件负责人 Sameer Qureshi

项目负责人 Jim Keller

工程副总裁 Stuart Bowers

Autopilot 视觉主管/AI 主管 Andrej Karpathy

 

郑晓康发在《42号车库》上的一篇文章总结说,这几个人有两个共同点:都是横跨学界和工业界的机器人/计算机视觉/硬件开发领域的顶级人才;此前的职业生涯均未涉入自动驾驶领域。

 

郑晓康进而做了一个“一个不负责的猜想”:马斯克坚持 Camera first 落地自动驾驶的战略是如此极端且激进,以至于真正专业的技术专家都没什么兴趣加入 Autopilot 团队接下这个基本不可能完成的挑战。于是,马斯克不得不转而大胆启用能力够强但又对自动驾驶领域了解不多的那些人才,但很显然他本人远远低估了摄像头为主实现自动驾驶的挑战。

 

而截至本文写作的201811,这8人中,前面6人均已经离职,原因有极大的可能是,这些“技术宅”在深入体验两年后已经了明白,靠Camera First来实现自动驾驶,是一个太大的坑——不仅技术上难以实现,而且还可能连累很多无辜的生命。

 

有两个可以作为佐证的例子是:

Autopilot项目创始人及首任负责人Sterling Anderson在离开特斯拉之后,跟前谷歌自动驾驶部门CTO合作,创办了自动驾驶公司Aurora,而Aurora的方案中是使用激光雷达的。而Autopilot的第三任负责人Jinnah Hosein也在2018年3月份加入了Aurora。

Sameer Qureshi 也在2018年5月份加入Lyft担任L5级自动驾驶主管,而Lyft同样走的是激光雷达路线。

 

可见,在特斯拉,要不要用激光雷达,是关乎“人心向背”的大问题。

 

 

当然,一群“书呆子”的离去,丝毫不能阻止马斯克的万丈雄心。

 

诚然,这种尚不完美的方案,有安全隐患。但与庞大的数据带来的快速学习能力相比,“区区几条人命”,又算得了什么?实际上,对特斯拉来说,事故可会是一个“重大契机”,对事故的反思,往往能让他学习到更多的东西、取得更大的进步——在2016年5月份的事故后不久就推出了更高级的Autopilot 2.0系统。

 

所有搞自动驾驶的公司创始人,都有一颗“拯救生命”的情怀(理想情况下,与人类驾驶相比,自动驾驶可极大地减少伤亡)——至少他们嘴上都是这么说的。不过,在达到这一目标期钱,他们可能要经历一个违背初衷的“阵痛期”——在早期的探索阶段,可能需要有一些无辜的人要拿生命去为这些伟大人物们“拯救生命”的情怀来埋单。

 

也许,跟当初的Uber一样,“多难兴司”“用威胁一小撮人生命的代价来拯救更多的生命”,正是特斯拉在的自动驾驶所奉行的价值观。

 

不要以为这只是一个恶意的揣测。连马斯克自己也曾多次亲切地称他的车主们为Autopilot的Expert Trainer

 

这个 Expert Trainer,怎么翻译?表达得尊贵一些,是“训练专家”;温和一点,

是“测试员”;高级黑一点,是“小白鼠”。更准确地,应该这样说:还活着的车主,是训练专家,而那些因为使用Autopilot而丧生或严重受伤的用户,则是“小白鼠”。

 

其实,在特斯拉的价值体系下,能被称为“小白鼠”也是一种荣耀。2018年下半年,特斯拉内部还发出动员令,以13000美元的奖励鼓励员工当全自动驾驶功能的“小白鼠”。

 

甚至,就连马斯克本人,也因常常以最激进的方式使用Autopilot而被称为“特斯拉首席小白鼠”——马斯克常常一边开车一遍开视频会议。

 

不过,与员工和马斯克当小白鼠是“明知故犯”,并且员工当小白鼠还能拿到不菲的奖励、而马斯克本人也鞥呢收获巨大的荣耀不同的是,广大的特斯拉用户往往是在信息不对称的情况下被利用,且拿不到一分钱的奖励。让用户来为马斯克自己的情怀埋单,这样做实在太不厚道。

 

更过分的是,一旦“小白鼠”不幸遇难,被家属起诉,特斯拉有一万个理由能将自己的责任撇得一干二净。最常见的一条是,“你看清楚了哦,我的用户手册上早就写着,这只是个’辅助驾驶系统‘,驾驶员仍然是第一责任人,并且,手不能离开方向盘,准备随时介入接管。而行车数据表明,事发前,你的手并没有在方向盘上。”

 

理是这么个理儿,从严格的责任上来说,特斯拉一点都没有“狡辩”,但如果结合实践看、如果尊重人性的话,问题可就不这么简单了。

 

特斯拉早期的市场推广中,主要讲“自动驾驶”,极少强调这是“自动辅助驾驶”,其官网上的一则Demo视频中,驾驶员自始手未接触过方向盘。特斯拉就是要通过这种宣传给潜在用户留下深刻印象。

 

当然,马斯克也有“保守”的时候。比如,2015年年底,马斯克发现某些Autopilot的早期用户将自己在驾驶座上刮胡子、移位都后排“静观其变”的视频发到Toutbe上,当时,马斯克吓得出了一身冷汗。在其后的软件7.1版本更新中,特斯拉禁掉了一些可能被用户滥用的功能。

 

不过,Autopilot既然打的口号是“解放双手”,那就不可能将主要功能都禁掉,否则,就没有什么卖点了。而对用户来说,一旦对这个功能有了信任感,就会毫无顾忌地在车上发短信了、听音乐了。

 

截止目前,特斯拉发生过的几乎所有自动驾驶事故,都是驾驶员对系统“过于信任”所致。如佛罗里达的那起事故,在事发前的41分钟中,车辆有37.5都处于自动驾驶状态中,其中,有37分钟,车主布朗的双手都没有握过方向盘。

 

但“过于信任”这个说法本身就很扯淡。驾驶员对系统的自动驾驶能力应不应该有信任感,如果没有信任感,你这个系统的价值何在?如果有,怎样程度的信任才是“合适的”,超过哪个限度就算是“过度了”?

 

一旦一个自动驾驶系统在大多数情况下天表现良好,能解决问题,人类驾驶员必然就要掉以轻心,就会“过于相信”;况且,如果驾车任务由车辆执行,而人类司机又必须将双手放在方向盘上“时刻准备着”,这个过程,不仅无聊,而且比自己驾车还累。司机又无聊又累,你还不允许他玩手机(况且他已经对系统有信任感了)?所以说,“双手不能脱离方向盘”这个要求,就是反人性的。

 

是的,你没看错,不仅L3是反人性的,从特斯拉出的一些事故及事后的扯皮来看,只要你提出了“解放双手”,“L2可能也是反人性的——并且,系统的自动驾驶水平越高,驾驶员就对他越依赖,结果,因过于信任而发生事故的概率也就越高。

 

诚然,特斯拉在产品设计上也在考虑如何约束“人性的弱点”,即一旦发现驾驶员没有及时接管、并且经过提醒后依然无效,系统强行退出,并在路边安全停车;但在现实中,等系统反应过来时,车祸已经发生。

 

如果说可能在Auopilot模式下发生事故的特斯拉车主尚可以选择不开启Autopilot的话,那那些可能被特斯拉“碰瓷”的“其他道路使用者”,则连一点自由选择权都没有。

 

还有一个没有引起太多关注的问题是,特斯拉似乎很狡猾地暗中允许用户“明知不可为而为之”。

 

比如,众所周知,截至目前,Autopilot仅限高速上使用,市区道路是其“禁区”。这一点,跟通用旗下凯迪拉克CT 6上的自动驾驶Super Crusie是一样的。但两者的一个很大的区别是:后者,一旦脱离了高速场景,用户根本无法启动Super Cruise功能;而前者,则即便是场景不对,却照样“可用”

 

也就是说,尽管Autopilot本不适合在市区道路上开(要知道,Autopilot 100连红绿灯也无法识别,也无法识别自行车和行人,并有两次追尾摩托车),但倘若你非要在市区道路上开呢,特斯拉也不会拦你!

 

特斯拉在中国出现的很多事故,都是在市区道路上发生的。其中一位车主就曾在出事后抱怨:“既然市区道路上不能开,我开的时候,你一旦检测出来,为什么不将Autopilot禁用?”

 

站在特斯拉的角度,这位用户的这种诉求可能是too young,too naive——你的“超纲”使用,可以帮他贡献一些守规矩的“老实人”无法提供的宝贵数据,那他为什么非要阻拦你呢?然而,一旦出事,特斯拉一句话就把这些“expert trainer”挡回去了:你这是违规使用,责任自负!

 

人性有弱点,这并不靠,可怕的是,怎样对待人性的弱点。从安全的角度看,特斯拉的产品设计上,应该千方百计地限制车主“人性的弱点”的发挥;但从数据积累的角度,充分利用人性的弱点(默许甚至变相鼓励车主发挥“人性的弱点”),则是更可取的策略。

 

一位曾在北京市区驾驶、因“毫米波无法识别静态障碍物”而致前车追尾的特斯拉车主曾怒斥:你让我们拿命帮你跑数据吗?

 

还记得大名鼎鼎的莱万多斯基吗?2016年5月份特斯拉那起著名的事故发生后,当时已经创立了OTTO的莱万多斯基曾康卡激昂地对团队中的小伙伴说:“我很遗憾,第一起因自动驾驶而起的车祸不是发生在我们这里,竟然被特斯拉抢了风头。”

 

莱万多斯基和Uber创始人卡兰尼克都因对生命缺乏敬畏而饱受指责,如今看来,在这种价值观上,“以牺牲什么的代价拯救什么”“让用户拿生命帮自己跑数据”的特斯拉,并不比当时的Uber“逊色”多少。

 

当年在Uber,自莱万多斯基加入后,曾有一大笔出身于卡内基梅隆大学计算机系的学院派技术骨干因为“三观不合”而纷纷离开。参照Uber的例子可知,Autopilot负责人的高离职率,不仅源于对Camera First的技术路线不认同,而且也缘于价值观层面的不认同。

 

此外,这种拿用户当小白鼠的做法,连美国政府也看不下去了。2018年5月23日,美国消费者协会和汽车安全中心联合致信联邦贸易委员会,要求该委员会就特斯拉误导消费者、并使后者过分高估Autopilot的功能的市场策略展开调查。

 

该信对Autopilot的产品名称、特斯拉在官网上使用的描述性语言、视频及特斯拉和马斯克平时通过媒体释放出来的诸多消息和评论进行了激烈的批评。

 

 

比几个高管的离职和监管部门的不满更加严重的是,在过去几年,马斯克为了激发起用户对特斯拉自动驾驶的信仰,总是不停地开各种空头支票。然而,大多数支票,他都没有负责去兑现。

 

如今,马斯克再做什么关于自动驾驶的承诺,或者发表关于自动驾驶的见解,已经没有什么公信力,甚至说已经“信用破产”也不为过。

 

在全自动驾驶的发展进度上,马斯克曾放了无数次卫星,却一次又一次被无情打脸。

 

比如,2016年10月,马斯克说,他有一个小目标,即在2017年年底之前使特斯拉的车辆在全程无人工干预的情况下从洛杉矶开到纽约,向同行们秀一秀肌肉——两城相距离4500公里,却又不需要人工干预,这已经是全自动驾驶的标准了!不过,到2018年2月,马斯克却向一直热切关注这一问题的公众回复:不好意思,去年一直忙着Model 3的产能爬坡,没顾上。

 

在2月份,特斯拉将这一长途跋涉的Demo的时间被迟到了“6个月之后”,然而,直到笔者写这篇文章的11月份,9个月已经过去了,仍然没有下文。据业内人士分析,这一宏伟的 Demo,至少也要等Autopilot软件10.0版本发布之后才能开始了。

 

如果说时间上的厌恶尚可以被用户理解和接收的话,那在一些功能性问题上的扩大,则兼职就是“涉嫌欺诈”了。

 

比如,在2015年3月份,软件还不到位、Autopilot功能尚未正式启用的时候,马斯克曾经说该系统的应用场景为“from on-ramp to off-ramp on highways ”and “major roads”,不过,在正式投入使用后,一直到现在,真正的应用场景就只有Highway了,所谓的major roads直到2020年才实现。

 

再比如,特斯拉虽然在2016年10月就强调Autopilot 2.0的硬件已经足以支持未来的全自动驾驶能力,但在2017年8月,他又将硬件升级到2.5版本——主要变化是:增加了一颗soc芯片(英伟达的Parker);增加了一些线路冗余。

不是以前的版本已经够用了吗,为什么还要再升级一次,况且,对老用户是免费升级,又不赚钱,这么折腾干嘛?我们只能解读为,特斯拉自己对Autopilot 2.0的硬件能力还不放心,需要升级一下才”心里踏实“。

 

不过,事到临头,特斯拉仍然十分在强调“Autopiot 2.0是够用的,更换硬件是完全没必要的”。这就有点让人看不懂了。有诗云:我的身体早已投降,我的嘴却还在逞强。

 

由于特斯拉对那次升级并没有大肆宣扬,因此,知道的人并不多,结果,大多数人也就没有去升级。

 

真正广为人知的一次“硬件免费升级”,是在2018年8月初。

 

彼时,特斯拉在一次财报会议上向投资者披露了自研芯片的进展,并说正在设计基于自研芯片的硬件方案Hardware 3.0,该方案的综合性能将比目前Autopilot 2.0上用的由英伟达提供的Drive PX 2“高出一个数量级”。

 

马斯克还说,Hardware 3.0在经过验证后,将用于取代Drive PX 2。Hardware 3.0将不仅在新车上使用,而且,从2019年春天起,在2016年10月份之后购买了搭载Drive PX 2的车辆,都将享受“硬件免费升级”服务。(后来也确实兑现了,但效率非常低。)

 

此消息传出后,业内有不少人为特斯拉点赞。在这个技术快速迭代的时期,用户在选择硬件时往往存在“早买早落后/淘汰”的尴尬(你刚没多久,就有性能也更好、甚至价格也更低的新产品出来了),而特斯拉推出的“硬件免费升级”则是代表了一种全新的理念:早买早享受,反正,等以后新技术出来了,你并不用追加投入便可继续享受新技术带来的福利。

 

不过,对这一大多数人都认为是“福利”的政策,有特斯拉资深用户并不买账。如我们在前文提到的那位斥责特斯拉“让用户拿命帮你跑数据”的车组就批评道:

 

“对于Autopilot 2.0的车主来说,免费升级并不是’惠及’,因为车主在数年前就支付了全自动驾驶的费用,到头来却被告知原来的硬件根本实现不了自动驾驶赤果果的欺骗啊,难道免费换芯片不是应有之义吗?

“高田免费换了所有气囊,但高田死了。特斯拉免费换自动驾驶主板,车主一定要接受吗?如果不接受更换主板,是不是可以起诉特斯拉商业欺诈?”

 

这个说法,既合情又在理。

 

并且,车主还补充道:

“事后打补丁这种事儿很可怕的。OTA其实在法律和技术上都存在隐患,只是不动硬件的情况下风险相对较小,而且大家也习以为常了,但大面积升级硬件,这个是对汽车安全监管的挑战,这条红线得守住啊。

汽车出厂时所有的技术参数都是标定好的,如果硬件可以随意升级了,那么改装就完全放开了,车辆的安全性无从保障!“

 

总之,这次“免费升级”,不仅未能赢得用户的感激,反而被吐槽。不过,出行这种尴尬的局面却在于,关于了过度承诺的马斯克未能管理好用户的期望值。

 

2020年上半年,特斯拉被曝出正在开发下一代自动驾驶芯片,那么,接下来,还要不要再来一次“硬件免费升级”呢?如果升级,是不是就意味着已经承认目前的FSD芯片不能满足全自动驾驶的需求呢?

 

强烈建议,今后,马斯克在给客户画饼前,需要将这个原则默念三遍:诺不轻信,故人不负我;诺不轻许,故我不负人。

 

(未完待续)


推荐阅读(超连接):

 

我们的个人命运,三分靠打拼,七分靠产业红利——《九章智驾》创刊词 


自动驾驶OS市场的现状及未来

 

“L3级”自动驾驶落地指导思想:高速辅助人,低速替代人

 

关于激光雷达,投资者及车企感兴趣的12个问题

 

造车2.0时代的十大趋势

 

推荐个展会及同期举办的论坛,感兴趣的请扫描图片中二维码报名:

 

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存