畅销书《人类简史》作者尤瓦尔·赫拉利BIS创新峰会上谈人工智能、未来科技、社会和全球金融
在2024年的BIS创新峰会上,备受瞩目的历史学家尤瓦尔·赫拉利发表了一段AI的精彩见解。
作为畅销书《人类简史》的作者,赫拉利以其独特的历史视角和深刻的未来洞察力,探讨了人工智能、未来科技、社会变革以及全球金融的演变。他的演讲不仅阐述了当前科技如何塑造我们的经济和社会结构,还预测了这些技术未来发展可能带来的深远影响。
赫拉利特别强调了人工智能技术的双刃剑特性,即在为社会带来前所未有的便利和效率的同时,也可能引发就业、隐私以及伦理的新问题。他提到,“在人工智能和自动化不断进步的今天,我们必须审慎考虑这些技术如何重新定义工作和人类身份。”
对话文字如下
1,人工智能在金融行业中的作用
主持人: 大家好,很高兴见到各位。我们在本次峰会上讨论了人工智能的发展方向、金融公司和中央银行计划如何利用人工智能,以及他们计划如何管理由人工智能带来的风险。我希望我们能围绕这个话题展开讨论,放眼于人工智能和金融世界之外,更广泛地思考对我们社会的机遇和威胁。但如果我可以问一下,我听说您曾说过,当前金融系统的复杂性已经超出了人类的理解范围,鉴于这一点,以及人工智能相关的问题,似乎金融系统不会变得更容易理解。那么,如果我们认为这种情况会继续下去,您认为监管机构和监督机构应该如何看待人工智能在已经复杂的金融行业中的作用?
尤瓦尔·赫拉利: 这是一个非常重要的问题,我认为我们需要明白的是,人们现在需要理解金融系统。目前也许只有1%的人口真正理解金融系统是如何运作的。如果这个数字下降到零会发生什么?没有一个人类、没有总统、没有总理、甚至中央银行的人能够再理解金融,因为人工智能使其变得过于复杂。这可能导致一种我们从未遇到过的政治和社会危机,这可能会导致权力从人类转移到算法和人工智能形式的智能上。也许我可以先谈一下什么是金融,金融部门的作用是什么。农民种植我们吃的粮食,工人生产我们穿的纺织品,金融系统的作用是什么?它创造信任。
最终,金融系统的产品就是信任。例如,货币是一种在数百万陌生人之间即时建立信任的机制。我走进一家商店,遇到一个我从未见过的陌生人,我给他们一张纸,他们给我食物。同样,债券和股票等也是如此。
人类在历史上发明了许多不同的金融工具,但它们真正的作用是在人们之间建立信任,使他们能够分享资源、知识并共同为共同目标努力。到目前为止,唯一能够理解金融工具(如货币、债券或股票)并能创造新金融工具的实体是人类。马匹不理解货币,我们用货币买卖马匹,但马匹不理解货币,因此它们不能联合成一百万匹马的一支队伍。现在,人工智能是我们创造的第一个能够比我们更好理解金融的工具。因为金融最终是人工智能最容易理解的东西,它只是数据和信息。洗碗需要人工智能在现实世界中做一些事情,这很困难,但理解金融只是信息的进出。
现在的危险在于,人工智能可能会在坏人的手中摧毁人们之间的信任,另一方面,主要的信任将存在于不同的人工智能系统之间。想象一下,如果世界上大部分的金融活动都是由人工智能完成的,而人类已经失去了理解大部分金融系统的能力,这对我们的头脑来说太复杂了。发生金融危机时,没有一个政治家能够理解正在发生的事情,我们必须依赖人工智能告诉我们危机是什么以及可能的解决方案是什么。这在政治层面上的危险是多方面的,但最明显的是,这实际上将世界和政治中的一个非常重要的部分交给了我们无法监管和监督的非人类智能。
主持人: 我从您的话中得出的结论是,这是一个非常令人警醒的信息。让我们进一步展开讨论。您可以说,可能只有1%的人口理解金融系统,我会声称我们大多数人都愿意登上飞机,而对其如何运作只有模糊的理解,但我们相信那些我们甚至不认识的人能将我们从A地带到B地,而不让飞机坠毁。但听起来您所说的是,如果这最后的1%降到零,我们都会陷入困境。可以从您的话中提炼出一句口号,那就是"没有进一步的信任,就没有进一步的人工智能"。
我们可能处在一个幸运的阶段,正在探索人工智能的早期阶段,至少目前假设如此。您曾警告过,如果我们不小心,未来的决策者可能会沦为傀儡,而真正的决策者是算法。但如果我们不想走上那条道路,或者说未来并非注定,我们实际上可以决定我们的方向。您认为我们现在应该做些什么,以现有的工具确保我们不会陷入那种情况,无论是在金融系统还是在我们的国家的整体决策方面?
尤瓦尔·赫拉利: 我们需要防止人工智能变得完全难以理解。如果我们赋予它大量关于人类和人类社会的决策权,我们需要有能力理解和监管它。这是关键条件。在1%的人类理解某些事物和0%理解之间存在非常大的差别。你的飞机例子很完美,是的,这就是为什么我们有专家。我们在许多不同领域信任专家,无论是飞机还是医学,金融也是一样的。我们不需要每个人都理解所有事情,这是不可能的。
但如果你考虑一下上一次大金融危机(2007-2008年)的情况,它是由于对新金融工具(例如CDOs)的监管失败而引发的。一些非常聪明的人发明了这些工具,但几乎没有人理解它们,因此监管出现了漏洞。现在想象一下,也许在10年后,人工智能创造了一种比CDOs复杂数个数量级的新金融工具。你需要处理数万亿的数据点来理解这个金融工具,我们无法做到,但人工智能可以。几年之内它运作得非常好,产生了很多信任,带来了经济增长和利润。然后出了问题,没有人知道为什么。
我们可以要求人工智能告诉我们发生了什么以及该怎么做,但这是一个非常危险的情况。即使它给了我们好的建议,也会引发一个问题:公众是否会继续信任政治体系?你为那些应该做出这些决策的政治家投票,但他们不再能够理解正在发生的事情。我们已经处在一个公众对专家、政治家和民主机构失去信任的情况中。
2,人工智能可能带来的风险
主持人: 这可能会真正加剧公众与那些本应理解发生了什么并进行监管的专家和政治家之间的信任危机。作为一位杰出的历史学家,您认为人工智能可能带来的风险可能是世界面临的最大转变之一,但作为历史学家,您知道这不是世界上第一次出现重大转变,或许这是最大的,但肯定不是唯一的。工业革命、通用技术、现代民主的兴起都是重大的变革,几次革命和战争也是相当严重的动荡。那么,我的问题是,我们能从过去学到什么,以避免您所警告的那种情况?
尤瓦尔·赫拉利: 我认为人类是非常适应的。每一种发明都有其负面和正面的潜力。你发明了一把刀,可以用来谋杀,也可以用来做手术救人或者切沙拉。所以总是有这两种潜力。随着时间的推移,人类会学会理解这些危险,并知道如何以最佳方式利用新技术和新结构。问题在于过渡期,问题在于路径。即使最终我们做对了,但在过程中我们常常要经历危险和失败的实验。以工业革命为例,当机器在18世纪和19世纪开始改变经济和社会时,有很多关于机器会带来什么灾难的预言。从2024年回望,我们可以说最终我们大致做对了,我们学会了如何利用蒸汽机、电力和火车来建立比18世纪更繁荣甚至更和平的社会。
主持人: 那么,您认为在人类历史上是否有一些好的例子,人们成功地避免了严重错误,并且我们可以从中汲取灵感呢?
尤瓦尔·赫拉利: 确实有一些例子,表明人类能够在面对新技术时找到平衡点,并从错误中学习。例如,尽管工业革命初期有许多问题和灾难性的后果,但我们最终还是找到了正确的道路。类似地,现代民主制度的建立也是通过试错过程,经历了许多挑战和调整,最终形成了相对稳定和有效的政治体系。人工智能的挑战也是如此。我们需要意识到其中的风险,并通过严谨的监管和持续的学习来应对这些挑战,以确保技术的积极潜力得到充分发挥,而负面影响得到控制。
但大问题是在这个过程中失败的实验。例如,现代帝国主义就是一个建立工业社会的非常失败的实验。19世纪有很多人认为,建立一个有效的工业社会的唯一途径是建立一个帝国,因为与之前自给自足的农业社会不同,工业社会需要大量的原材料和全球市场,而实现这一点的唯一方式是建立一个帝国。因此,帝国主义带来的数百万受害者和种种可怕的事情,实际上是一个如何建立工业社会的失败实验。共产主义也是一个如何建立工业社会的失败实验。很多人在1920年代、1930年代,甚至更晚认为苏联的做法是建立工业社会的最佳途径,但花了几十年和数千万的受害者才意识到,这并不是利用电力和蒸汽机的最佳方式。纳粹主义也是另一个建立工业社会的失败实验。
如果我们不得不经历这些以帝国主义、极权主义和世界大战为基础的失败实验,才能学会如何最好地利用电力、内燃机和火车,那么在21世纪我们要学会如何使用更强大的技术会发生什么?现在,人工智能可能比我们在工业革命中看到的任何东西都强大数个数量级,因为人工智能是历史上第一个可以自己做出决策并创造新想法的工具。蒸汽机不能决定如何使用自己,是我们决定该怎么做。甚至原子弹也不能创造新想法,但人工智能可以自行做出决策。这是人工智能的定义:一种可以学到我们不知道的东西、可以独立做出决策并创造完全新想法的机器。学习如何以好的方式使用这些工具,可能比学习如何使用蒸汽机更复杂。
我们可以说,最终一切都会好起来,我们会做对。作为历史学家,我关心的是过程,而不是最终结果。如果我们不得不经历另一个以人工智能为基础的帝国和极权主义政权和世界大战的循环,这将是非常非常坏的消息。
3,确保中央银行谨慎使用人工智能
主持人: 听起来,要看到其中的积极面,我们会在尝试了所有其他方法后做对,比如帝国主义、共产主义、纳粹主义。也许为了进一步积极看待这个问题,我们和我们的子孙后代将拥有他们当时没有的知识。让我们希望我们能够快进这个时期或者完全避免它。我认为其中一种方法是要意识到风险,技术是很棒的,但如果使用不当会非常危险。我认为在场的一些人可能会不同意人工智能不可避免地会接管决策,但它肯定会影响决策。
我们讨论过是否可以自动化货币政策决策,答案是肯定的。但作为人类,我们总是希望有一个可以问责或者可以责备的人,这是我们深层的人性特征。最终,我们希望与人类互动而不是与机器互动。机器是有帮助的,但我们仍然是人类,最终希望与他人互动。我想,我现在对您的问题有答案了,鉴于您对15年前金融危机的看法。我还想再尝试一下这个问题。国际清算银行的使命是通过国际合作支持中央银行,以追求货币和金融稳定。我个人认为中央银行的一个优点是它们不像公共部门的许多其他部分那样依赖短期政治决策。
因此,如果中央银行运作良好并有一个有效的任务,它们实际上可以采取更长远的视角。您认为中央银行在推动人工智能的谨慎使用和国际合作方面能否发挥作用?中央银行社区可以展示良好的做法。当然,会有其他人有不同的议程,但这应该交给执法机构和最终的军事防御。您认为有没有办法避免您所描述的悲观前景?
尤瓦尔·赫拉利: 绝对有可能。再次强调,如果一切注定无望,那么这次对话就没有意义。历史从来不是决定性的,我们总有选择。同样的技术总是可以以不同的方式使用。回顾20世纪的工业技术,它被用来创造极权主义政权,但也被用来创建自由民主国家。看看今天的朝鲜和韩国,他们拥有完全相同的技术,但使用方式却完全不同。那么,如何确保我们明智地使用技术?我不会依赖某种技术装置来为我们做决定。我们需要让人类参与其中,但我也不会信任任何个别天才或有魅力的领导人。
历史上我们一次又一次看到的解决方案是制度。我知道人们常常觉得制度复杂且官僚,但这是人类迄今为止所能想到的最好的东西。我们需要建立良好的制度,这是真正能够保护我们免受人工智能和其他技术最危险潜力的唯一方法。我认为,银行在考虑人工智能监管时有两点非常重要:首先,确保人工智能保持可问责和可理解。如果我们达到一个无法再理解它的地步,那么至少在民主社会中,这实际上是民主的终结。如果民主公众无法理解和问责金融决策,这是政治中的一个非常重要的部分,涉及到金融和经济。
主持人: 这确实很令人欣慰。那么,您认为中央银行如何具体实现这些目标?
尤瓦尔·赫拉利: 中央银行需要继续发挥其独特的优势,即相对独立于短期政治压力,能够采取长期视角。它们可以通过推动透明度和问责制,确保人工智能系统的操作和决策过程是公开且易于理解的。此外,中央银行应当建立强有力的国际合作机制,与其他国家和机构分享最佳实践和监管标准,以共同应对人工智能带来的全球性挑战。
总的来说,尽管面临许多风险,但通过明智的监管和国际合作,我们有机会引导人工智能技术走向积极的方向,实现其巨大的潜力,同时避免其可能带来的危险。尤瓦尔·赫拉利:我们还需要依赖技术来帮助我们理解人工智能,但我们必须保持人类在这个过程中的参与。为此,我们需要建立良好的人类机构。另一个关键点是保持对信任问题的关注,回到我们一开始讨论的内容,货币实际上是信任。货币不是由黄金、白银或纸张等材料制成的,货币是人们之间的信任,这是金融系统的目标。因此,在监管金融系统时,关键问题是如何让更多人之间更容易建立更多的信任。如果我们能实现这一点,那么目标就达到了。
4,人工智能非常有创造力
主持人: 您说我们应该让人类参与其中,我认为我们应该更加雄心勃勃。在我开放观众提问之前,我想指出人类的一个强大特征,那就是我们有梦想。有些事情我们做的不完全是出于理性,有些事情可能完全是偶然发现的。让我举几个例子,把人送上月球的想法并不完全是理性的,可能无法通过今天的预算委员会,但在60年代成功了,感谢上帝。另一个偶然的发现是青霉素的发现,亚历山大·弗莱明是一个非常好的营销者,但这绝对是一个非常鼓舞人心的例子。我个人认为人工智能无法复制这些不完全理性的事件,或者是偶然发生的事件。所以从我的角度来看,人类仍将在创造这些飞跃方面发挥重要作用。您认为人工智能也会接管这些吗?
尤瓦尔·赫拉利: 很多人说人工智能永远不会有创造力,但它已经非常有创造力了。看看围棋的例子,这是一款棋盘游戏,有点像国际象棋,但复杂得多。人们已经在东亚玩了3,000年的围棋,被认为是每个有文化的人应该了解的重要艺术形式。然后AlphaGo出现了,在几周或几个月内彻底改变了这款游戏。它开始以人类3,000年来从未想过的方式下围棋。显而易见的是,由于我们是通过进化发展而来的有机生物,我们的想象力和思维方式被限制在围棋的某个特定区域内。在3,000年里,我们只探索了这一有限的区域。
主持人: 听起来您认为人工智能在某些方面已经展示了它的创造力。那么,您认为人类在未来如何与这种强大的技术共存并确保我们的独特贡献?
尤瓦尔·赫拉利: 人类需要找到一种方式与人工智能协同工作,而不是试图完全控制或依赖它。我们需要建立强有力的机构和监管框架,确保人工智能的发展方向对社会有利。我们还需要继续培养人类独特的能力,如同理心、伦理判断和跨学科的创造性思维,这些是目前人工智能无法完全复制的。通过这样做,我们可以利用人工智能的巨大潜力,同时确保人类的独特贡献和价值不被忽视。
人工智能不是有机的,它不像人类、黑猩猩或狗那样思考,它以完全不同的方式做出决策。在很短的时间内,人工智能开始探索围棋这一领域内全新的或陌生的区域。围棋的例子在科学、艺术等越来越多的领域中同样适用。现在,人工智能已经在作曲了,有人说它只是从之前的人类交响乐、诗歌和歌曲中学习,这是事实,但这对我们人类来说也是一样的。人类作曲家也依赖于以往的经验或先例,但人工智能已经开始探索音乐领域中的新区域。
也许最重要的是理解人工智能现在只是一个小婴儿。今天的人工智能就像是有机进化刚开始的阶段。如果我们回到地球上有机生命的起源,可能要回溯到40亿年前。想象一下你处于生命形式出现后的第十年,你能预见恐龙或人类吗?人工智能刚刚起步,但它的进化速度比有机进化快得多,快上数百万倍。如果今天的人工智能像变形虫,那么我们可能在十年或二十年内遇到人工智能的霸王龙,我们不知道它将具备什么能力。十年前,除了极少数专家社区外,没有人讨论人工智能。所以,回顾过去十年,试着想象未来的十年或二十年,我们会处于什么样的境地。
在创造力方面,我毫不怀疑,鉴于我们已经知道的,人工智能具备一种也许不同的创造力,但正因为如此,它将在许多领域带来巨大的改变。最初的AI,人们认为代表人工智能,但它们没有什么“人工”的成分,它们在自行发展。更适合将AI理解为“异类智能”,因为它们确实以异类的方式思考和创造,与我们不同。这同样适用于金融。
想一想金融工具的发明,这是一种艺术。第一个想出债券、货币或比特币的人,这是非常有创造力和想象力的行为。
5,观众提问环节
主持人: 所以,我认为我们将看到人工智能在这个领域的创造力,它会创造出人类从未想象过的新型金融工具。我想说,那些您提到的金融产品之所以出现,是因为它们满足了某些人的需求。这在人类中非常重要,我们非常擅长发现和满足我们的需求,有时我们甚至不知道我们有这些需求,比如史蒂夫·乔布斯和他的iPhone,他们探索了需求。我比您更乐观,我坚持认为制度是我们组织和协调人工智能发展的最佳方式。虽然不是所有人都会加入这一旅程,但如果有足够多的人和机构参与,我认为我们仍然有很好的机会。我更愿意做一个乐观主义者,现在让我们开放观众提问,请大家先报上姓名,然后提问哈拉里教授。谢谢,Cecilia,请。
观众一: 谢谢,我叫Hien。非常感谢赫拉利教授的精彩演讲。我的问题与最近的讨论有关,是关于人类与人工智能的比较。人类是一种更聪明、更有创造力的有机形式,我们知道如何维持生存,并在过去几年中应对气候危机等挑战。如果展望未来,我们不能孤立地看待人工智能,还有其他外部因素在起作用,尤其是气候和可持续性方面。人工智能依赖电力,而电力依赖于这些正在消耗的自然资源。那么,您如何看待人工智能在应对这些人类面临的挑战时的表现?能源消耗是否会阻碍人工智能的发展?
尤瓦尔·赫拉利: 这是一个非常重要的问题。人工智能的能源消耗确实是一个值得关注的问题。随着我们对人工智能的依赖增加,其对电力和其他自然资源的需求也会增加。我们必须确保在推动人工智能发展的同时,采取措施提高能源效率并寻找可持续的能源来源。虽然人工智能可能会在某些方面帮助我们解决这些挑战,例如通过优化能源使用和提高能源生产效率,但我们仍需要综合考虑其对环境的整体影响。
主持人: 听起来,虽然人工智能的发展会带来能源消耗的增加,但如果我们能有效管理和优化这些资源,仍然有可能在不牺牲可持续性的前提下推动人工智能的发展。现在,让我们继续下一个问题。
观众二: 能源消耗会增加,如果我们开始消耗更多的能源和电力,这会对环境和自然资源产生负面影响。在某种程度上,这将成为一个瓶颈。人类可以在没有电力的情况下生存,但人工智能不能。这是一个粗略的例子,但问题大致是这样的。
尤瓦尔·赫拉利: 我理解你的问题,在这一点上,我可能有一些更积极的看法。我并不反对人工智能,我也不认为我们可以停止开发它。它有很多积极的潜力,其中一个是帮助我们应对气候危机和能源危机。鉴于当前的政治和经济形势,通过停止所有经济增长来解决气候危机是不可能的,也是不可取的,因为世界上有数十亿人的生活条件需要显著改善。如果每个印度、非洲和南美洲的人都能享受与欧洲或美国人相同的生活条件,在现有技术下,生态系统将崩溃。但另一方面,我们不能对印度或非洲的人说,你们不能享受欧洲人的生活条件。所以,我们需要开发更好的、更环保的技术,并且需要尽快做到这一点。这是人工智能在正确使用时可以极大帮助我们的一个领域。基本的理解是,宇宙中并不缺乏能源,我们只是不知道如何以最环保的方式获取和使用它,而我认为这是人工智能可以极大帮助我们的一个领域。
主持人: 谢谢,我们再来一个问题。我们可以从这个方向开始。请举手,否则你会失去机会。
观众三: 谢谢,非常高兴能和您对话,您的书非常棒。最近,谷歌的Gemini项目上线了,许多人认为,这个项目在结果上有所倾斜,使得用户看到的内容更加政治正确。我不知道在场的各位是否熟悉这一点,但你输入“展示美国开国元勋的照片”,结果会显示一个非裔美国女性。我当时在硅谷,和那里的不同人讨论这个问题:这会走向何方?因为最终这些是个体在寻求信息并从算法中获得反馈。有些自由意志主义的观点认为,最终个体看到的将是人工智能根据他们想看到的内容进行训练的结果,这几乎像是一个强化循环。我试图理解这其中的逻辑。那么,下一个问题是,在美国,我们有东南部地区,可能会看到大量特定种族的人群,而在其他地方情况不同。这会走向何方?我继续探讨这个问题,试图理解您所说的信任机构,因为我很难看出这种情况不会导致我们所担心的局面,比如人类相互攻击。
尤瓦尔·赫拉利: 是的,这种辩论和问题贯穿了历史,每次新的信息技术出现时,都会引发关于审查的大讨论。当印刷术被发明时,早期现代欧洲的畅销书不是科学书籍,几乎没有人读伽利略的书。畅销书是猎巫手册,教人如何识别和杀死女巫,也有极端宗教文学。印刷术在某种程度上推动了科学革命,但也推动了欧洲的猎巫狂热和宗教战争。因此,当时对允许印刷的内容有很大争议。我们现在也面临着关于人工智能允许说什么的重大问题。
不同之处在于,人工智能具有自主性,而印刷机只是打印你告诉它打印的东西。人工智能正在自我学习,任何试图提前确定这些人工智能未来会说什么的尝试最终都是注定要失败的,因为它们在学习和发展。这对民主国家来说是一个巨大问题,对独裁国家来说更是如此。人们常常忽视的一点是,独裁者比民主政府更害怕这些人工智能。想一想,什么对独裁者最危险?最危险的是一个比独裁者更强大、且独裁者无法控制的下属。独裁者通常通过恐吓来控制下属,但你无法恐吓人工智能。想象一下在俄罗斯的聊天机器人,现在,人类害怕在俄罗斯说某些话,因为他们可能会受到惩罚,但你不能把聊天机器人送到古拉格。所以,如何确保聊天机器人不会开始说各种不该说的话,这本质上是一个巨大的问题。
主持人: 这确实是一个复杂的问题,因为随着人工智能的不断学习和发展,试图提前控制其言论变得越来越困难。这对民主国家和独裁国家都提出了不同的挑战。
尤瓦尔·赫拉利: 是的,正因为如此,我们需要依赖强有力的机构和监管框架来应对这些挑战,同时保持对人工智能发展的谨慎乐观。通过建立透明和问责的制度,我们可以最大限度地利用人工智能的潜力,同时尽量减少其带来的风险。这是所有类型的人类政权面临的新挑战,因为这是历史上第一次,无论是民主政权还是独裁政权,都需要弄清楚如何控制没有情感、无法被恐吓或惩罚的具有自主性的代理实体。这对全世界的政府来说将是一个非常有趣的挑战,毫无疑问。让我们在这一侧再来最后一个问题。文森特,你可以选择提问者,或者如果你们可以协调一下,或许可以合并问题。
观众四: 我的名字是Fabiio,我的问题很简短。我喜欢您提到的,货币是人们之间的信任,目标是让更多人之间有更多的信任。您能否详细说明一下,达到这一目标的最佳下一步行动是什么?顺便提一下,这是否可能是克服国家概念的机会?
尤瓦尔·赫拉利: 我认为在这个阶段我们需要超越国家的概念
观众五: 我有一个相关的问题。在您的术语或思想中,国家是虚构的。因此,围棋选手所能操作的空间受到其进化生物学的限制,而人工智能则没有。人类能够想出的虚构构造也受到进化生物学的限制,但人工智能没有。是否可能存在一种虚构构造能够极大地促进人类繁荣,而这是我们自己无法想出的?因此,我们是否有道德义务让位于机器人统治者,允许他们决定我们追求的虚构构造,以最大化人类的繁荣?
尤瓦尔·赫拉利: 关于国家的终结和人类的终结,简短的回答是“不”。完全信任人工智能是非常危险的。是的,它们可以创造出全新的虚构构造,但虚构构造既可以是有益的,也可以是非常危险的。国家就是一个很好的例子,是的,国家是我们在想象中创造的东西,它们仅存在于我们的集体想象中。
国家的存在是出于人类合作的需要。虚构的构造可以帮助我们实现更大的合作,但如果没有适当的监管和控制,这些虚构构造也可能带来巨大的灾难。人工智能可以帮助我们创造新的虚构构造,但最终的决定权必须掌握在人类手中。
我们可以利用人工智能来改善我们的社会,增强人类之间的信任,但我们不能完全依赖它。建立强有力的制度,确保透明度和问责制,这些是实现这一目标的关键步骤。通过教育和科技进步,我们可以在全球范围内促进合作与信任,从而实现更大的繁荣。
虚构的东西如果我们不知道如何使用它们,可能会非常危险,导致战争和冲突等等。但它们也是迄今为止人类最伟大的发明之一。因为国家让我们能够超越认识的朋友和家人的直接圈子,去关心那些我们从未见过的数百万陌生人。爱国主义在其最佳形式中,意味着我缴税以便全国各地的陌生人能得到良好的医疗保健。这是爱国主义。
那些认为没有国家我们会生活在某种乌托邦中的人是错误的。目前,如果没有国家,我们只会分崩离析,陷入部落混乱,人们只关心他们的朋友和家人。我们需要找到国家之间合作的方法,而不是废除国家。我们还没有达到那个阶段。历史上的问题是如何让国家合作而不是彼此对抗。
在金融领域,我们需要新的创造性构想,应该着眼于建立信任。举一个著名的例子,当我作为历史学家看待比特币时,我不喜欢它,因为它是一种建立在不信任上的货币。比特币的核心理念基本上是电子黄金,我们不信任银行和政府,所以我们不想给他们无限制创造货币的能力,因此我们创造了比特币,这是一种不信任的货币。我确实认为未来属于电子货币,但过去几个世纪的经验表明,赋予银行和政府更多创造货币的能力实际上是个好主意,以便在社会中建立更多的信任。
我不确定20年或30年后的货币会是什么样子,但我希望它会是一种更大信任的货币,而不是不信任的货币。我们需要完成这项任务。
主持人: 听到您说机构和国家有未来,这对我来说是一个令人欣慰的梦。我们希望未来能再与您交谈,希望那时我们仍然以血肉之躯存在,而不是算法形式。非常感谢您,哈拉里教授。我可以说,我面前的观众非常高兴,我们给您热烈的掌声。
(观众鼓掌)
结语
感谢赫拉利教授带来的深刻见解,让我们对人工智能、金融和国家的未来有了更全面的理解。这次对话揭示了许多关键问题,同时也给了我们希望,借助强有力的机构和创新思维,我们能够迎接这些挑战并创造更美好的未来。
往期回顾
1、[对话麻省理工教授Max Tegmark:论超级AI、未来建筑和人类存在的意义]
2、[“AI for Good”大会上,Jeffrey Hinton 教授解释了AI在医疗、教育和其他领域的潜在益处]
3、[英国卫报独家纪录片:Ilya Sutskever,一个塑造世界的人工智能科学家]
我们的AI团队现向外界开放服务,旨在助力每个企业与个人引领时代潮流,将先进科技与创新想法完美融合!
告别昂贵服务费和缺人烦恼,再见漫长交付周期
无限创意风格,分分钟生成专业级作品
感受 AI 带来的全新工作体验!
欢迎各大品牌方、媒体、科技企业、知名IP等合作
合作请联系负责人微信:Milo-1101
--END--