其他

曾经祝福过中国考生的霍金走了

2018-03-14 经济网 中国经济周刊

                                 

中国经济周刊微信号:ChinaEconomicWeekly     

中国经济周刊官方网站:经济网  www.ceweekly.cn


文| 中国经济周刊-经济网 记者 贾璇



3月14日,据美国《时代周刊》报道,英国著名物理学家史蒂芬•威廉•霍金于当日去世,享年76岁。他的家人在一封电子邮件声明中表示:“我们深爱的父亲今天去世了。他是一位伟大的科学家,也是一位非凡的人,他的工作和遗产将会留存在世多年。他的勇敢和坚持以及他的才华和幽默激发了全世界的人们。他曾经说过,如果宇宙不是你所爱的人的家,它就不是一个宇宙。我们会永远怀念他。”


霍金做出很多重要贡献,最主要的是他与罗杰•彭罗斯共同合作提出在广义相对论框架内的彭罗斯–霍金奇性定理,以及他关于黑洞会发射辐射的理论性预测。他曾在多个公开场合,发表对生命、人类、宇宙、人工智能核武等的看法。他常常探寻在宇宙的背景下,地球和人类所扮演的角色,在思考人类未来的基础上,探究我们探索太空、寻求其他潜在宜居星球的选择。霍金是科学界最耀眼的明星,他的见解塑造了现代宇宙学,激发了全球无数观众的眼球。


霍金还曾于2016年发文,祝愿中国考生“金榜题名”,引发中国网友热议。



约两周前,霍金参加节目,被问,“每个人都想知道,大爆炸前宇宙是什么样的?”他给出答案:“宇宙的边界就是它没有边界,大爆炸前宇宙什么都没有。”


那么除此之外,霍金还有什么语录值得我们关注和思考呢?


语录一:人类或在 2600 年前灭绝 地球将变火球


2017年11月,霍金预言2600年能源消耗增加,地球或将变成“火球”。霍金预言称,人类可能在 2600 年前就会灭绝,他认为随着地球人口增长,能源消耗将会增加,地球将变成一个“熊熊燃烧的火球”。


如果想摆脱这场灾难,霍金建议人类必须寻找下一个适合生存的星球,而离太阳系最近的半人马座阿尔法星则是最佳之选。霍金呼吁投资者支持他的“突破摄星”(Breakthrough Starshot)项目,该项目涉及到半人马座阿尔法星之旅。霍金认为,在它周围可能有适宜人类生存的星球。


霍金称,“突破摄星”项目的飞行器在光速下要20年才能到达这颗恒星,而用现在的太空飞船去那里则需要大概30年。他还称,“人类如果还想把自己的存在延长100万年的话,就要无畏地去往自己从未去过的地方。”


值得一提的是,在2016年11月份,霍金还曾表示人类在地球上存在时间难以超过1000年。如今,霍金预言人类能在地球上生存的时间越来越短。


语录二:人类不应该积极、主动地寻找外星人


2015年7月,斯蒂芬•霍金和俄罗斯亿万富翁尤里•米尔纳启动旨在大规模搜索外星智慧生命的“突破聆听”(Breakthrough Listen)项目,该行动将通过扫描宇宙的方式进行搜寻,历时十年,并将耗费一亿美金。


虽然霍金表示,智能生命的存在,是“完全合理”的推测。但他警告说,外星人可能会入侵地球、掠夺资源,然后扬长而去。


霍金认为,人类不应该积极、主动地寻找外星人,而是应该尽可能地避免与其联系。他说,人类只要看看自己,就不难想象出,智能生命有可能会演变成我们“不希望见到”的东西。


霍金还说,真正的挑战是搞清楚外星人到底是什么样。但是霍金认为,宇宙中的其他生命体绝大部分可能只是简单的微生物。


语录三:当人工智能发展完全,将是人类末日


2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”他还说,“自从人类文明开始以来,侵略便一直存在,往往出现在相对具有生存能力优势的不同群体之间,而未来人工智能进一步发展便可能具备这种‘优势’”,霍金解释自己的警告时说道,“他们本身也是生根于达尔文的进化论之中。因此人类需要利用逻辑和理性去控制未来可能发生的威胁。”


2016年10月19日,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正式投入使用。霍金在庆祝典礼上发表了演讲。霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。


2016年1月26日和2月2日在BBC电台第四频道播出系列演讲(Reith Lectures),在演讲中霍金直言,科学技术的进一步发展会惹出更多的新麻烦。同样在这个演讲中,霍金依旧认为科技进步是人类的新威胁。他甚至提及若人类最终得以在其他星球建立家园,或许还能幸存下来。


2015年,霍金曾联合思想家乔姆斯基马斯克等数千名知识分子发表联名公开信中警告:必须取缔“机器人杀手”的研发和应用,人工智能方面的军备竞赛可能是人类的灾难,它将助长战争和恐怖主义,加剧世界动荡局势。


而早在2014年12月,霍金接受英国广播公司(BBC)采访时就明确表示:“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”


语录四:黑洞其实是“不存在”的,但“灰洞的确存在”


在一篇《黑洞的信息保存与气象预报》的论文中,霍金指出黑洞其实是“不存在”的,不过“灰洞的确存在”。


霍金1976年提出著名的“霍金辐射”理论,即黑洞在形成中质量减少的同时,还不断在以能量形式向外界发出辐射。但一旦黑洞浓缩并蒸发消失后,其中所有信息就随之消失,与量子力学认定该类物质信息永不会完全消失的理论相矛盾。这就是所谓的“黑洞悖论”。


30多年来,霍金试图以各种推测来解释这一矛盾观点。霍金承认,自己最初有关黑洞边界“视界”的认识是有缺陷的,光线其实是可以穿越视界的。他称,黑洞从来都不会完全关闭自身,物质和能量在被黑洞困住一段时间以后,又会被重新释放到宇宙中。




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存