查看原文
其他

WeChat ID D-Technologies Intro 关注科技变革,探索科技热点。讨论现代科技对人类伦理、道德与文化的冲击。 DeepTech深科技  麻省理工科技评论倾力打造  5月7日,约书亚·布朗(Joshua Brown)驾驶着他的特斯拉Model S行驶在佛罗里达西部的威利斯顿,当时车辆已开启了自动驾驶模式,随后,车辆与一辆卡车相撞,约书亚当场死亡。他经营着一家网络公司,也是特斯拉的忠实用户。 就在事故发生前一个月,约书亚曾上传过一段关于特斯拉自动驾驶系统成功躲避突然并线车辆的视频(如下)。讽刺的是,马斯克还曾在Twitter上转过这个视频。但这次,不幸却降临在他身上。 特斯拉随后在官网表示,事故发生时,特斯拉正对卡车的侧面,由于天空的强光导致驾驶者和特斯拉的自动驾驶系统都未做出刹车反应,导致车辆直接穿过卡车底部,车顶及挡风玻璃被全部削掉。   目前Autopilot技术累计完成了约1.3亿英里(约2.1亿公里)的测试,5月的车祸是第一起自动驾驶致人死亡的事故。 北京时间7月1日凌晨,美国国家公路交通安全管理局(NHTSA)就这起事故正式展开调查,调查的焦点将集中在这辆Model S的自动驾驶系统当时到底有没有发挥作用。   特斯拉曾经对Autopilot给出过明确定义:这是一种辅助性技术,驾驶者必须随时将他们的双手放在方向盘上,并随时准备好接手车辆的控制权。如果驾驶者双手脱离方向盘,自动驾驶系统会通过图像和语音进行提示,如果驾驶者没有作出反馈,这辆将降低行驶速度,直到完全停止。 因此,事故的原因到底该归咎于机器还是驾驶员,只有等待调查结果才能知晓了。而DT君今天想和大家讨论的,却是一个远不止于自动驾驶本身的话题。 我们的性命其实每天都在别人手里   人类文明的大多数时期,其实是处于一种自给自足的生存方式中的,在这样的生活里,吃的是自己种的,穿的是自己织的,用的自己造的,只会偶尔进行一些简单的交换,人们互相之间的“依赖程度”并不高。   而我们这个“高度文明”的当今,一切恰恰截然相反,科技的飞速发展导致了社会的分工不停地细化,每个人几乎都只有精力专注于自己的专业,“隔行如隔山”这句话从未如此的正确过,而人们之间的互相依赖也达到了空前的高度,甚至可以这么说:我们的性命每天都在别人的手里。   作为一个普通人,我们几乎在完全依靠“信任”来避免惶惶不可终日——我们相信我们的食物是无毒的,我们相信衣服的原料是无害的,我们相信公共汽车司机是认真负责的,我们还相信大楼是质量很好不会随便塌的。   当然,我们偶尔也会“相信错”,比如,大家相信婴儿奶粉应该是没有三聚氰胺的,大家相信下水道提炼出来的油是不会去用作炒菜的,大家也相信没有飞行员是会带着一飞机的乘客去自杀的。尽管如此,我们在大多情况下还是选择去相信。 不可否认,大多事情是由“人”来完成的,那么逻辑上来讲,基于法律道德的“问责机制”在绝大多数情况是可以对人进行约束,从而可以尽可能避免这种让大家“相信错”的情况出现。   然而,“问责机制”很明显无法解决所有的问题,于是,就有人试图求助于机器,因为虽然哪怕最“聪明”的机器依旧缺乏创造性,却可以一丝不苟地完成人类交给他的具体任务。简单来说,机器看起来比人“靠谱”。 就拿这次的事故来说,先不去管调查结果如何,特斯拉的Autopilot系统在这次事故中要承担多大的责任,我们不妨先这样想一下,如果这次事故的原因完全归咎于机器,那么Autopilot到底是让驾驶变得更加安全?还是更加危险呢?   回答这个问题必须靠数据说话,根据特斯拉的统计,激活了Autopilot自动驾驶的累计行程约为1.3亿英里,平均每一亿英里死亡人数为0.77人;而在全世界范围内,平均每一亿英里死亡人数为1.67人。虽然自动驾驶数据的样本容量还偏低,但也能在一定程度上说明问题。 所以,马斯克提出的“自动驾驶技术可将人为交通事故率降低约50%”,看起来并不见得是一句大话。   如果我们暂时“放下”那么几分钟人文关怀,停止去联想所有数字背后关联着的一条条鲜活的生命,那么我们必须承认,尽管会犯错,Autopilot功能也确实是非常靠谱的,再引申开一点说,至少统计数字告诉我们,相信机器确实比相信人来得强。   按照这个逻辑,Autopilot,甚至是将来的全自动驾驶技术,应是一项被大力推广和发展的技术,那么自动驾驶技术的争议从何而来?   机器该不该被“问责”?   自动驾驶技术存在争议,主要原因是动摇了上面提及的“问责机制”,而这本是维持这个高度分工的人类社会维持的基础。“自动机器”的介入,让“问责”都变复杂了。   举例而言,自动驾驶造成车祸之后,责任到底是车主的?车的?抑或是汽车生产商的?这对于今后的汽车保险商来说一定是个头疼的问题,而这些在汽车实现全自动驾驶之后会变得更加尖锐。 DT君去年年底的一篇文章,就着重讨论了汽车的“杀人”编程。比如,当汽车不得不面临“杀人”的选择时(见下图a),自动驾驶程序会决定“杀掉”少数的人(包括车内人员),以实现“损失最小化”。   在车祸不可避免时,自动驾驶将如何抉择? 考虑一个这样的困境:假设在不久的将来,你拥有了一台自动驾驶汽车。有一天,你正乘坐这辆车,突然发生某些事件导致车辆冲向10个正穿过马路的行人。车辆无法及时刹车,但可以转向旁边的一堵墙避免撞向那10位行人。但是,撞向墙壁可能会让身为车主和乘客的你丢掉性命。它该怎么办呢? 解决此问题的办法之一是自动驾驶汽车应尽量将人员伤亡降到最低。按照这种思路,杀死一个人要比杀死 10 个人好。 但是,这种处理办法可能会带来其它后果。购买自动驾驶汽车的人会变得很少,因为这种汽车被编程为发生事故时牺牲车主,那么,路上的安全事故仍然会照常发生,更多人有可能死去,因为普通车辆造成的事故要多得多。结果就陷入进退两难的境地。 还是回到最初的论题上来,我们生活在一个需要依靠每个人“靠谱”才能“活”下去的世界。就自动驾驶而言,尽管机器要比人造成的伤亡少,但仍然有相当数量的人似乎依旧愿意相信“人力操作”。 其中的原因到底是我们对自己犯的错更加容易“认命”,还是大多数人对机器这种“异类”没有建立起足够的信任?目前来看似乎兼而有之。 换而言之,在技术突飞猛进的大背景下,我们的感情、伦理、道德和法律已严重滞后才是所有冲突的终极原因。   于是,我们不由得要扪心自问一句:“自动驾驶,我们真的准备好了么?”   深科技招聘外脑团队 无论你们身处全国甚至全世界的哪个角落 无论是在大学或研究所里埋头于科研 或是为自己的学位而奋斗 都欢迎你们加入深科技的外脑团队 成为我们的最强大脑! 联系方式:deeptech@mittrchina.com MIT Technology Review 中国唯一版权合作方,任何机构及个人未经许可,不得擅自转载及翻译。 分享至朋友圈才是义举 DeepTech深科技      ID:mit-tr Forwarded from Official Account Author requires users to follow Official Account before leaving a comment Write a comment Write a comment Loading Most upvoted comments above Learn about writing a valuable comment Scan QR Code via WeChat to follow Official Account

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存