霍金最新演讲:这个问题,关系到人类如何达到尽可能完美?
内容来源:2017年11月5日,腾讯第五届WE大会于北京展览馆剧场举行,剑桥大学物理学教授、著名宇宙学家斯蒂芬•威廉•霍金教授发表了《宇宙这一背景下,地球和人类所扮演的角色》主题演讲,笔记侠作为合作媒体,经主办方授权发布。
第1821篇深度好文:2110字 | 3分钟阅读
完整笔记· 人工智能
本文新鲜度:★★★★★ 口感: 黑洞
笔记君邀您,先思考:
人类的未来如何尽可能达到完美?
我们为何要探索其他宜居星球?
一、星际航行必然是一个长期目标
我今天的演讲,是关于在宇宙这一背景下,地球和人类所扮演的角色。
为了最好地阐述,我需要从两个维度出发,一是思考人类的未来,二是研究我们探索太空、寻求其他潜在宜居星球的选择。我今天的目的,是问大家两个问题:
首先,我们需要做什么才能够确保,在力所能及的范围内,人类的未来达到尽可能完美?
其次,我们为什么要考虑探索其他宜居星球?
一个原因是,对我们来说,地球变得太小了。在过去二百年中,人口增长率是指数级的,即每年人口以相同比例增长。目前这一数值约为1.9%。 这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。 2022年,我将庆祝自己80岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。
这样的指数增长不能持续到下个千年。到2600年,世界将拥挤得 “摩肩擦踵”,电力消耗将让地球变成“炽热”的火球。这是岌岌可危的。
然而我是个乐观主义者,我相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。
但是理由充分吗?难道留在地球上不是更好?在某种程度上,今天的情况就如同1492年前的欧洲。当时的人们很可能坚信,哥伦布的探险注定是徒劳无功。 然而,新世界的发现,对旧世界带来了深远的影响。对于那些被剥夺权利地位、走投无路的人来说,新世界成为了他们的乌托邦。
人类向太空的拓展,甚至将会产生更深远的影响,这将彻底改变人类的未来,甚至会决定我们是否还有未来。它不会解决地球上任何迫在眉睫的问题,但它将提供解决这些问题的全新视角,让我们着眼于更广的空间,而不是拘泥眼下。希望这能够让我们团结起来,面对共同的挑战。
当我们进入太空时,会有怎样的发现呢?
会找到外星生命,还是发现我们终将在宇宙中踽踽独行?我们相信,生命在地球上是自然而生的,是在漫长的进化后,实现了与地球资源的高度契合。
因此,在其他条件适宜的星球上,生命的存在也必定是可能的。即使这种可能性极小,但宇宙是无限的,我们还是可以假设,生命会在某处出现。不过,如果概率很低,那么出现生命的两个星球间的距离,可能将异常遥远。
在太阳系中,月球和火星是太空移民地最显而易见的选择。水星和金星太热,而木星和土星是巨大的气体星球,没有坚实的表面。火星的卫星非常小,并不比火星本身更优。木星和土星的一些卫星也存在可能。
比如木星的卫星之一欧罗巴,它的表面是冰层,但其下可能会有液态水,也就可能会孕育生命。那么我们如何确定这种可能?是否必须登陆欧罗巴,然后钻一个洞?
星际航行必然是一个长期的目标。我所说的长期,是指未来二百到五百年。
二、“突破摄星”是人类初步迈向外太空的真正机会
但是,还有另一种选择。
去年,我与企业家尤里•米尔纳(Yuri Milner)一起,推出了长期研发计划——“突破摄星”,目标是让星际旅行变成现实。如果成功,在座各位有些人的有生之年内,我们将向太阳系最近的星系——半人马座阿尔法星系发送一个探测器。
“突破摄星”是人类初步迈向外太空的真正机会,为了探索和考量移居太空的可能性。这是一项概念验证的使命,其中涉及三个概念:迷你太空飞行器、 光动力推进和锁相激光器。
“星芯片”是尺寸被缩小到仅几厘米、但功能完备的太空探测器,它将附着于“光帆”上。“光帆”由超材料制成,重量仅有几克。我们设想,一千个由“星芯片”和 “光帆”组成的纳米飞行器将被送入轨道。 在地面上,激光器阵列将共同形成一道超强光束,光束穿过大气,以数十吉瓦的功率射向太空中的“光帆”。
这项创新背后的想法,是以光束来驱动纳米飞行器的前进。这样产生的速度虽然不及光速,但也能达到其五分之一,约合每小时1亿英里。这样的系统可以在一小时内抵达火星,几天内到达冥王星,一周内就可以追上并超过旅行者号探测器,并在仅二十年后到达半人马座阿尔法星系。
重要的是,“星芯片”的轨迹可能包括“比邻星b”,这颗位于半人马座阿尔法星宜居带的行星,与地球的大小类似。正是在今年,“突破摄星”与欧洲南方天文台携手合作,进一步探寻半人马座阿尔法星系的宜居行星。
目前看来,这些都可能成为现实。但我们也看到重大的挑战。1吉瓦功率的激光器仅能提供几牛顿的推力,不过因为纳米飞行器因为只有几克重量,恰恰可以克服这个问题。但是工程方面的挑战是巨大的。纳米飞行器必须经受极限加速、极寒、真空和质子,以及与太空粉尘等垃圾的碰撞。
另外,由于大气湍流,将一套总量100吉瓦功率的激光组瞄准太阳帆,也是很困难的事情。
还有一些严峻的问题。如何让数百道激光穿过大气波动时聚合,如何推动纳米飞行器又不烧毁它们,如何让它们瞄准正确的方向?此外,我们还需要让纳米飞行器在冰冷的真空环境中工作二十年,这样它们才能将信号传回到四光年外的地球。
然而这些都是工程设计要解决的问题,而工程挑战往往最终都会被解决。随着技术进步日趋成熟,我们可以展望更多令人兴奋的使命。如果“突破摄星”计划能传回毗邻星系中宜居星球的图像,这对人类的未来必将产生深远影响。
希望我已经解答了我演讲一开始所提出的问题。人类作为独立的物种,已经存在了大约二百万年。我们的文明始于约一万年前,其发展一直在稳步加速。如果人类想要延续下一个一百万年,我们就必须大胆前行,涉足无前人所及之处!
感谢大家的聆听。
延伸阅读:
延伸阅读——
霍金今日演讲:即使它终结人类,人类也别无选择
1.人工智能,要么是最好的,要么是最糟的
在我的一生中,我见证了很多社会深刻的变化。其中最深刻,同时也是对人类影响与日俱增的变化就是人工智能的崛起。
简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。
是好是坏,我不得不说我们依然不能确定。但我们应该竭尽所能,确保其未来发展对我们的后代和环境有利。
我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
人工智能的研究与开发正在迅速推进。也许科学研究应该暂停片刻,从而使研究重点从提升人工智能能力转移到最大化人工智能的社会效益上面。
基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛。他们近期在目的导向的中性技术上投入了大量的关注。但人工智能系统的原则依然必须要按照我们的意志工作。
跨学科研究可能是一条可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。
文明所提产生的一切都是人类智能的产物,我相信生物大脑总有一天会达到计算机可以达到的程度,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。
但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。
在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧这样这个结果,即创造一个可以等同或超越人类的智能的人工智能:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。
人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。
很多人认为人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定,尽管我对人类一贯持有乐观的态度。
2.从短期和长期看人工智能
现在,关于人工智能的研究正在迅速发展,这一研究可以从短期和长期来分别讨论。
短期担忧:
1.无人驾驶。
从民用无人机到自主驾驶汽车。在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。
2.致命性智能自主武器。
它们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何被问责。
3.隐私的担忧。
由于人工智能逐渐开始解读大量监控数据,会造成隐私上的担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。
长期担忧主要是人工智能系统失控的潜在风险。
随着不遵循人类意愿行事的超级智能的崛起,强大的系统可能会威胁到人类发展。这种错位是否会发生?如果会,那些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?
当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这系统失控的问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。
近来的里程碑,比如之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象,巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比必然相形见绌。
而且我们远不能预测我们能取得什么成就。当我们的头脑被人工智能放大以后,也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。
简而言之,人工智能的成功有可能是人类文明史上最大的事件。
但人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡。比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。
目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个国家都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。
这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任。正是科学家发明了核武器,并发现它们的影响比最初预想的更加可怕。
我对人工智能的灾难探讨可能惊吓到了各位。很抱歉。但是作为今天的与会者,重要的是,在影响当前技术的未来研发中,你们要清楚自己所处的位置。
我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。
去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。
过去我们花费大量时间学习历史,虽然深入去看,可能大多数是关于愚蠢的历史。所以现在人们转而研究智能的未来,是令人欣喜的变化。
我们对潜在危险有所意识,我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。
我们生活的每一个方面都会被改变。我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部分是因为大学成立了“存量风险中心”。后者更加广泛地审视人类潜在问题,而“利弗休姆中心”的重点研究范围则相对狭窄。
推荐阅读: