查看原文
其他

霍金的遗愿清单:离开地球和警惕人工智能

2018-03-14 杭州硅谷小报

我们负责报道杭州的未来,关注一个呗☝

  

▲ 霍金办公室墙上,贴着这样一段话:不管在什么时候,记住要仰望星空,不要低头看脚下;要永葆好奇,永远前进。



3月14日,注定是人类文明史上最重要的日子。


这一天是人类之光爱因斯坦的诞辰,却又带走了另一位伟大的科学家斯蒂芬·霍金。


据英国天空新闻等多家媒体报道,世界著名物理学家史蒂芬·霍金去世,享年76岁。


霍金的孩子露西,罗伯特和蒂姆在一份声明中写道:“我们感到深切的悲痛,我们深爱的的父亲今天去世了……他的勇敢和坚持以及他的才华和幽默激励了全世界的人们。”


而在他去世前的这几年中,霍金最关注的话题就是:离开地球和警惕人工智能。



霍金来过杭州。他有生之年曾三次访华,其中第二次访华的首站就是杭州——受邀来参加在浙江大学举办的系列国际数学大会。


坐船游览西湖时,他说了一句话:“It is very beautiful(真美)。”


都市快报资料图


在他去世前的这几年里,霍金最关注的话题就是:离开地球和警惕人工智能。


他还有很多梦想没有实现。2016年,他与投资过Facebook、阿里巴巴等互联网公司的俄罗斯投资大佬Yuri Milner一起,推出“突破摄星”长期研发计划,目标是让星际旅行变成现实。扎克伯格等人也参与了这一项目。


2017年11月腾讯we大会上,霍金说,这个计划如果成功,在座各位有些人在有生之年有机会见证,“我们将向太阳系最近的星系——半人马座阿尔法星系发送一个探测器”。


这次大会,或许也是霍金与中国朋友们的最后一次见面。


https://v.qq.com/txp/iframe/player.html?vid=k0506deyt1r&width=500&height=375&auto=0

WE大会霍金演讲视频


霍金2016年4月开通微博,和中国网友互动。


2017年11月24日,他在微博上写道:我很高兴就@TFBOYS-王俊凯提出得优秀的问题做出一个视频回应。他说,他的提问让我看到了中国千禧一代的年轻人对未来的思考和好奇心。我希望,当你们追求科学以及其他创意时,如此的好奇心和自信可以延续下去。


https://v.qq.com/txp/iframe/player.html?vid=p050952nlic&width=500&height=375&auto=0王俊凯对话霍金


就在前两天,由郭帆执导、改编自刘慈欣同名小说的《流浪地球》公布了15秒的预告片,霍金出镜。《流浪地球》预告片开头,霍金提出的“深空探索计划”被纳入“流浪地球”法案扩充编案。


https://v.qq.com/txp/iframe/player.html?vid=a06017h8k0e&width=500&height=375&auto=0《流浪地球》预告片出现霍金的“深空探索计划”


“到2022年,我将庆祝自己80岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。” 在腾讯we大会视频中,霍金提到了自己80岁生日。


而如今,霍金的时间停在了2018年3月14日。


但他的思想,留给了我们。


霍金庆祝生日



关于离开地球,早在2011年霍金在接受美国视频共享网站BigThink访谈时就称地球将在两百年内毁灭,人类要想活命只能移民外星球。


2017年11月5日,北京腾讯WE大会的现场。霍金通过视频指出人类移民太空的原因所在——

一个原因是,对我们来说,地球变得太小了。在过去200年中,人口增长率是指数级的,即每年人口以相同比例增长。目前这一数值约为1.9%。 这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。


2022年,我将庆祝自己80岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。这样的指数增长不能持续到下个千年。


到2600年,世界将拥挤得 “摩肩擦踵”,电力消耗将让地球变成“炽热”的火球。这是岌岌可危的。然而我是个乐观主义者,我相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。


而在2017年7月,霍金就痛批美国总统特朗普退出气候问题《巴黎协定》的决定,可能将导致不可逆转的气候变化,警告称此举或将让地球变成一个金星一样的温室星球。


霍金在接受BBC专访时表示,我们正在接近全球变暖不可逆转的临界点,特朗普的决定可能将地球推过这个临界点,变成像金星一样的星球,温度高达250℃,且下着硫酸雨。



也是在2017年6月播放的纪录片《远征新地球》(Expedition New Earth)中,霍金说,在未来一百年内,人类为生存必须离开地球,在太空寻求新家。


离开地球,霍金也不是光嘴皮子吓唬吓唬大家,2016年4月12日在纽约宣布启动“突破射星”计划,将同俄罗斯商人尤里·米尔纳(Yuri Milner),以及美国社交网站面簿创始人兼总裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飞往比邻星的微型星际飞船。


除了地球即将面临的各种风险,霍金更关切人类正在创造一个毁灭自己的怪物:人工智能(AI)。


2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”他还说,“自从人类文明开始以来,侵略便一直存在,往往出现在相对具有生存能力优势的不同群体之间,而未来人工智能进一步发展便可能具备这种‘优势’”,霍金解释自己的警告时说道,“他们本身也是生根于达尔文的进化论之中。因此人类需要利用逻辑和理性去控制未来可能发生的威胁。”


2016年10月19日,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正式投入使用。霍金在庆祝典礼上发表了演讲。霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。“我们花了大量的时间来学习历史。”


霍金说,“让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。” “我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。


2016年1月26日和2月2日在BBC电台第四频道播出霍金瑞思系列演讲(Reith Lectures),在演讲中他直言,科学技术的进一步发展会惹出更多的新麻烦。同样在这个演讲中,霍金依旧认为科技进步是人类的新威胁。他甚至提及若人类最终得以在其他星球建立家园,或许还能幸存下来。


“尽管地球在某一年遭受灭顶之灾的可能性很低,但随着时间的推移,在未来几千或几万年,这会是可以预见的事情。那时,我们应该已经进入太空、住到其他星球上。所以地球上的毁灭并不意味着人类的终结。”“然而,至少在未来数百年里我们还无法在太空世界建起人类的地盘。所以我们现在必须非常小心。”


2015年,霍金曾联合思想家乔姆斯基马斯克等数千名知识分子发表联名公开信中警告:必须取缔“机器人杀手”的研发和应用,人工智能方面的军备竞赛可能是人类的灾难,它将助长战争和恐怖主义,加剧世界动荡局势。


这封公开信由未来生活研究所(Future of Life Institute)发起,这个团体致力于缓解“人类面临的生存风险”,警告人们启动“人工智能军备竞赛”的危险。公开信中谈到“人工智能技术已经达到了这样一个地步:如果没有法律限制,那么这种系统的部署在未来几年中就可以实现,并不需要等待几十年。”


而早在2014年12月,霍金接受英国广播公司(BBC)采访时就明确表示:“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”


霍金也许对人类和科技的未来是悲观的,他并不信任人类真的能控制科技这个怪物,但令人讽刺的是,一旦人类用科技毁掉了这个星球,他所能仰赖的也只有科技能帮这个种族在外星球继续繁衍。


致谢这位时代的伟人,谢谢他带给我们的启示,并鼓励我们勇敢前行。现在,他终于可以离开地球,和爱因斯坦、牛顿们一起打打牌了。




你可能还感兴趣


解码杭州的未来,你需要先知道这两个数字


你今天的心情适合吃鸡还是喝茶,杭州有一块大屏都知道


正在杭州街头悄悄消失的ATM机


姐今天包机请大家喝星巴克


广告打到西湖边,成都来杭州抢人了!杭州人答应吗?


我们负责报道杭州的未来

都市快报出品

原创内容转载请评论区或后台留言

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存