查看原文
其他

独家视频访谈《人类简史》尤瓦尔·赫拉利:阔别六年重磅力作《智人之上:AI简史》,帮你从大历史视角看待AI对我们的巨大影响

AI工作坊 AI深度研究员
2024-11-08

(关注公众号并设为🌟标,获取最新人工智能资讯和产品)

全文约24,000 字,阅读约需45分钟

未经许可不得转载,务必保留公众号原文链接和公众号按钮

五年前,人们说AI可以掌握自动驾驶等技能,但却认为语言太复杂了,是人类的杰作,AI永远不可能掌握语言。然后ChatGPT出现了,它的语言生成能力让我惊叹不已,它确实能理解语义并将词语串联成句,形成连贯的文本,这真的非常了不起 —— 尤瓦尔·赫拉利

著名历史学家、畅销书作家尤瓦尔·赫拉利(Yuval Noah Harari)带来了他暌违六年的新作《智人之上:从石器时代到AI时代的信息网络简史》(NEXUS: A Brief History of Information Networks from the Stone Age to AI)。这部将于9月10日全球同步发售的著作,从大历史的视角审视人工智能时代的诸多议题。

赫拉利认为,要真正理解人工智能的革命性意义,我们必须回溯数千年的人类历史,审视先前几次重大的信息革命,如文字的发明、印刷术的出现和广播的普及。他指出,人工智能与以往的技术革命有着本质的不同,因为它是人类历史上首次能够自主决策并创造新想法的技术。

在这个"人工智能"标签被滥用的时代,赫拉利提醒我们需要明确区分真正的人工智能和简单的自动化。他举例说,一台预先编程的自动咖啡机并不是人工智能,但如果咖啡机能够学习使用者的习惯,自主做出决策,甚至提出新的创意,那才是真正的人工智能。关于人工智能对就业市场的影响,赫拉利预测,那些主要依赖信息输入输出的工作,如某些类型的程序员、会计师、律师和医生,最容易被自动化取代。相比之下,需要多领域技能结合的工作,特别是那些需要社交和运动技能的职业,在短期内不太可能被完全自动化。

值得注意的是,赫拉利指出人工智能已经成为新的"王者"。在他推广新书的过程中,他意识到真正需要吸引的不是人类观众,而是背后的算法。这一观点凸显了人工智能在当今信息传播和决策中的关键作用。

访谈要点如下:

AI与传统技术的不同

  • AI与以往的技术不同,它不仅仅是工具,而是“代理人”。传统技术,如核武器,尽管威力巨大,但最终由人类决定如何使用。相比之下,AI可以自主决策,甚至改进自身或发明更强大的工具。尤瓦尔·赫拉利将AI比作“外星智能”(Alien Intelligence),而非“人工智能”(Artificial Intelligence),因为它的行为和思维方式完全不同于人类。


信息与控制

  • 尤瓦尔·赫拉利强调,AI的最大问题是信息问题。现代社会中的大规模合作依赖于信息,而AI带来了信息量和信息速度的急剧增加。然而,过多的信息反而加剧了全球问题,如气候变化、环境破坏、物种灭绝等。人类领导者并不缺少关于这些问题的信息,但缺乏合作解决问题的意愿,全球战争的风险增加。


AI的黑箱问题与民主威胁

  • AI的决策过程通常是“黑箱”式的,即人类无法理解其如何得出决策。尤瓦尔·赫拉利举例AlphaGo的第37步,它是Go游戏中闻所未闻的策略,人类专家无法解释其背后的逻辑。AI的这种“不可解释性”将对民主产生巨大威胁。当越来越多的决策(如金融、选举、司法)由AI做出,而普通人无法理解或质疑这些决策时,民主将变得无效。



  • 全球竞争与数据殖民地

    • AI的崛起将导致全球国家之间的数字不平等。掌握大量AI技术和数据的国家(如美国和中国)可能通过控制他国的数据,将其转变为“数据殖民地”。例如,未来某国的政治家、记者、CEO等所有个人信息都可能被其他国家掌握,从而失去独立性。



数字帝国的崛起与“硅幕”

  • 尤瓦尔·赫拉利提出“硅幕”概念,指全球日益被AI和数字技术分割为不同的信息阵营。美国和中国分别主导各自的数字体系,彼此之间的信息交流和技术使用日渐受限。例如,中国人无法使用Google,美国人无法访问WeChat,这种数字隔离将导致全球的进一步分裂。



贫富差距加剧
  • AI的经济效应也可能加剧全球的贫富差距。发达国家将通过AI技术获得巨大的经济收益,而欠发达国家则由于技术落后,无法跟上全球竞争,导致贫困加剧。据普华永道预测,到2030年,AI将为全球经济增加15.7万亿美元,其中中国和北美将占据70%的份额。


人类合作的力量与脆弱性
  • 尤瓦尔·赫拉利指出,人类的力量并非来自个体,而是来自大规模合作。合作网络建立在信息基础上,而错误的信息会导致严重后果。他将现代社会的合作系统比作“魔法扫帚”,这些系统依赖数据和算法来维持,但过量或错误的数据可能会使整个系统失控,类似于学徒召唤出无法控制的扫帚。



视频时间轴

02:31 人类会继续统治世界吗?

10:34 人工智能只是信息工具?

21:42 人工智能将如何影响人类的亲密关系

25:09 为什么网上信息都是垃圾

39:38 算法如何塑造全球政治并增加恐惧

50:29 可以相信在社交媒体上看到的内容吗?

00:58:32 人工智能将为人类留下哪些工作?

01:07:19 人工智能、机器人和意识的未来

01:13:09 算法如何控制我们的生活

01:16:21 了解人工智能对齐问题

01:21:13 人工智能与企业利益的关系

01:33:08 算法如何知道这是假新闻

01:44:00 人工智能的负面影响的解决方案是什么?


文稿整理

旁白: 人类仍然比人工智能更强大。问题是我们彼此分裂,而算法正在利用我们的弱点对付我们。这非常危险,因为一旦你认为那些与自己意见不同的人是敌人,民主就会崩溃,选举就会变成战争。所以,如果最终有什么摧毁我们,那将是我们自己的妄想,而不是人工智能。我们即将在美国进行一场重要的选举,民主在美国相当脆弱。是的,民主确实很脆弱,但大问题是,如果…

我是《人类简史》的作者尤瓦尔·赫拉利,现在我正站在探索人工智能塑造世界力量的前沿。人工智能超越了人类历史上任何曾经面对的挑战。问题不在人类,而在于算法。让我解释一下。在2010年代,有一场关于人类注意力的算法大战。算法发现,当你回顾历史时,最简单的吸引人类注意力的方式就是按下“恐惧按钮”、“仇恨按钮”和“贪婪按钮”。问题在于,给算法设定的目标与人类社会的利益不一致。这让人非常不安,因为如果仅仅是社交媒体算法的错误目标就造成了这么大的破坏,那么20或30年后,人工智能的结果会如何?那解决方案是什么?我们历史上曾多次处于这种情况,答案总是相同的。我尽量保持现实。你是否乐观?我努力保持现实主义。

1、10年后AI的社会

主持人: 10年前,你做了一场著名的TED演讲,题为“为什么人类主宰世界?”在阅读了你的新书《Nexus》(《智人之上:从石器时代到AI时代的信息网络简史》)后,我想问一个稍微改动过的问题:你是否仍然认为10年后人类会继续主宰世界?

尤瓦尔·赫拉利: 我不确定,这取决于我们未来几年的决定。但有一种可能是,答案是否定的,十年后,算法和人工智能将主宰世界。我并不是指好莱坞式的科幻场景,不是一个巨大的计算机征服世界,而是人工智能的官僚体系。我们将拥有数百万个人工智能官员,它们将在银行、政府、企业和大学中到处存在,并做出越来越多关于我们生活的决定。我们将越来越难理解这些算法的逻辑和理由。

主持人: 你是说权力会逐渐从人类转移到这些新的“外星智能”上?

尤瓦尔·赫拉利: 是的,我更愿意称之为“外星智能”。虽然我们称之为“人工智能”,但更准确的说法应该是“外星智能”,因为它们做决策的方式与人类思维有根本的不同。随着每一年过去,人工智能变得越来越不像我们想象中的“人工”。我们仍然设计这些人工智能的“婴儿阶段”,但它们会学习、改变,开始做出我们意想不到的决定,提出与人类思维完全不同的新想法。2016年,AlphaGo打败了围棋世界冠军李世石。令人惊讶的是,AlphaGo打败他的方式。人类下围棋已经有2500年的历史,围棋是中国古代发明的策略游戏,几千年来一直被认为是东亚文明人必备的基本技艺。然而,AlphaGo展示了人类过去2500年探索的只是围棋世界的一个小部分,它在几天内就发现了完全不同的下法。这太不可思议了,这类似的事情是否会发生在金融、医疗或其他领域?非常有可能,不管是好是坏。

主持人: 那你的新书《Nexus》是怎么讲述这些内容的呢?你是一个对生命本质和历史本质都充满广泛好奇的人。你写了一本如此详细且全面的书,肯定有非常强烈的原因让你现在必须写这本书。为什么是现在写这本书?

尤瓦尔·赫拉利: 因为我认为我们需要从历史的角度看待这场人工智能革命。虽然关于人工智能的书很多,但《Nexus》不是一本专门讲人工智能的书,而是关于信息网络长期历史的书。我认为,要理解人工智能真正的创新和重要性,我们需要回溯数千年的历史,看看以往的几次信息革命,比如文字的发明、印刷术和广播的出现。只有这样,我们才能真正理解现在发生的一切。工智能与之前的技术革命不同,因为它是人类历史上第一个能够自主做决策并创造新想法的技术。印刷机可以印我的书,但它无法自己写书;原子弹可以摧毁一座城市,但它不能自己决定炸哪个城市或为什么去炸。而人工智能可以做到这些。现在关于人工智能的炒作很多,所以人们容易混淆。比如,大家现在想把所有东西都打上“人工智能”的标签——你想卖一张桌子,他们会说这是“人工智能桌子”;你想卖水,他们会说这是“人工智能水”。但事实上,不是所有东西都是人工智能。很多自动化并不是人工智能。比如一台自动咖啡机,它可以自动做咖啡,但它并不是人工智能。它是由人类预先编程好的,无法自行学习或改变。而当咖啡机早上对你说:“根据我对你的了解,我猜你想要一杯浓缩咖啡。” 那这就是人工智能了。它学会了关于你的某些信息,并做出了自主决策。如果它还告诉你:“我刚发明了一种新饮料,叫Buffy,我觉得你会喜欢。” 那这才是真正的人工智能,因为它提出了完全新的想法,这些想法不是我们预先编程的,也不是我们能够预见的。这真的改变了历史的游戏规则,人工智能的影响比印刷机或原子弹还要大。

2、历史视角的AI革命

主持人: 你提到我们需要从历史的角度来看待人工智能革命,那你认为自己是历史学家吗?

尤瓦尔·赫拉利: 是的,我的职业就是历史学家,这是我的专业训练。我最早是中世纪军事历史的专家,写过关于十字军东征和百年战争的文章,还写过关于14世纪英格兰军队入侵法国的战略和后勤的文章。这些是我最早的研究领域。而我在研究人工智能时,也带来了这种历史的视角。

主持人: 大多数人对人工智能的理解是基于他们与大型语言模型的互动,比如ChatGPT或Gemini等。他们觉得人工智能只是回答问题的工具,因此很容易低估它的影响。但你在讨论信息和信息网络的革命时,让我对人工智能有了完全不同的看法。

尤瓦尔·赫拉利: 信息是万物的基础。当你动摇了信息的基础,一切都可能崩溃、改变,或者出现新的东西。例如,民主制度的基础就是信息技术。民主本质上是一场对话,一群人通过对话一起做决定。而独裁则是一个人做所有决定。早期的狩猎采集社会是相对民主的,因为他们生活在小规模的群体中,大家可以直接对话,做出共同的决定。然而,随着人类社会的扩大,进行这种对话变得越来越困难。我们在古代只见过一些小型城邦民主制度的例子,比如雅典或罗马共和国。大规模民主直到现代晚期才得以实现,这得益于几种信息技术的出现,如报纸、电报、广播和电视。没有这些信息技术,大规模民主是不可能的。所以,民主的基础就是信息技术。而现在我们看到社交媒体和人工智能的兴起,这种信息技术的地震正在动摇民主。全世界都在经历这样的变化,人们无法再进行有效的对话。

我们在巴西、法国、菲律宾等地都能看到类似的现象。所以这不仅仅是某个国家的独特条件导致的,而是背后有着深层次的技术革命。而历史带给我的另一点启示是,即使是看似微小的技术变革,也可能带来深远的影响。比如,文字的发明,最初基本上是人们在玩泥巴。文字在很多地方被多次发明,但最早的发明是在古代美索不达米亚,人们拿着泥板,基本上就是一块泥,然后用一根木棍在泥上做记号,这就是文字的发明。这个发明产生了深远的影响。举个例子,你可以想象一下所有权的概念。什么叫拥有一块土地,比如我拥有一块田地?在文字发明之前,如果你住在7000年前的小美索不达米亚村庄,拥有一块田地意味着村民们都同意这块田是你的,他们不会去摘你的果子,也不会让他们的羊在你的田里吃草,因为他们认可这是你的田。这是一种社区协议。而文字出现后,所有权的含义发生了变化。现在,拥有一块田或一所房子意味着在国王的档案里有一块干燥的泥板,上面有标记,写着你拥有这块田。于是,所有权不再是邻居之间的社区协议,而是由国王档案中的文件决定。这也意味着你可以不用邻居的同意就把土地卖给陌生人,只要你把那块干泥板交给他们,换取黄金或白银等东西。

这确实是个巨大变化。看似简单的发明,比如用木棍在泥巴上画一些记号,竟然带来了如此巨大的影响。比如,十年后,拥有一所房子可能意味着某个人工智能说你拥有它。如果这个人工智能突然说你不再拥有它,不管是什么原因,即使你都不清楚原因,这房子就不再是你的了。

主持人: 那个泥板的记号也是书面语言的发明之一。我想到的是,语言不仅仅是我们通常认为的对话形式,而是密码,像银行密码。我们的社会其实是由语言支撑的。而人工智能首先掌握的技能之一就是大型语言模型的能力。这让我思考我生活中那些由语言维系的东西,甚至我的人际关系。因为我的朋友们住在迪拜、美国、墨西哥,我们通过语言保持联系。正如你所说,民主也是通过语言维系的。

尤瓦尔·赫拉利: 这确实出乎意料。五年前,人们说人工智能会掌握自动驾驶等技能,但却认为语言太复杂了,是人类的杰作,人工智能永远不可能掌握语言。然后ChatGPT出现了,它的语言生成能力让我惊叹不已,虽然并不完美,但它确实能理解语义并将词汇串联成句,形成连贯的文本。这非常了不起。这确实是基础中的基础。我用语言给银行下达指令。如果人工智能能生成文本、音频和图像,那么我该如何与银行交流,确保不被人工智能操控呢?

主持人:  不过,有意思的是,大多数人本来就不喜欢和银行打交道,比如打电话给银行,等待接线员。所以,人们会很愿意让人工智能代替他们处理这些事情。如果我能信任人工智能的话,我当然会这么做。

尤瓦尔·赫拉利: 关键问题在于,银行之所以让我亲自打电话,是为了确保真的是我,而不是其他人假装成我来指示银行把钱转到开曼群岛。那么,如何确保是我本人?金融体系几千年来的核心问题就是信任。所有的金融工具,本质上都是信任机制。货币本身只是信任的象征,而不是金银纸币的价值。金融的绝大多数发明,最终都是语言和符号的发明。而现在,人工智能可能会开始创造新的金融工具,因为它已经掌握了语言。正如你所说,我们现在通过语言与全世界的朋友保持联系。2010年代,算法之间为人类注意力展开了一场大战,但还有比注意力更强大的东西,那就是亲密关系。如果你真的想影响别人,亲密关系比注意力更有效。

主持人: 在这个语境下,你如何定义亲密关系呢?

尤瓦尔·赫拉利: 亲密关系是指你和某人之间的长期联系,你了解这个人,信任他,甚至爱他或关心他。直到今天,伪造亲密关系和大规模制造亲密关系是不可能的。独裁者可以大规模制造注意力,比如通过广播告诉所有人领导人的演讲,所有人都必须收听。但这并不是亲密关系。你不会和领导人产生亲密感。而现在,通过人工智能,历史上第一次,至少在理论上,可能会大规模制造亲密关系。可能有一些人工智能,甚至可能是为某些政府工作,假装与我们建立亲密关系,让我们难以分辨这到底是人类还是机器人。

主持人: 我和许多关系专家以及各种人士讨论过人类亲密关系的衰退、孤独感的增加,以及我们社会变得越来越“无性”的现象。在人类之间亲密关系和联系减少的同时,人工亲密的可能性却在上升,这就引发了一个问题:在一个比以往任何时候都孤独、联系越来越少的世界里,未来会是什么样子?尽管如此,马斯洛所说的那种爱的需求和归属感依然存在。这或许也是我们看到两极分化加剧的原因,因为人们在拼命寻找归属感,而算法却在不断强化我的“回声室”。

尤瓦尔·赫拉利: 是的,但我不知道这会如何结束。我不认为这是命中注定的,一切取决于我们作为个体和社会所做的决定。当然,这项技术也能为我们带来美好的事物。人工智能与我们进行对话的能力,理解我们情绪的能力,可能意味着我们将拥有许多人工智能教师、医生和治疗师,他们能为我们提供前所未有的优质医疗服务和教育服务。比如,不再是40个孩子挤在一个教室里,老师无法顾及每个孩子的个性化需求。你可以拥有一个只关注你的人工智能导师,提供无法比拟的教育质量。

主持人: 我周末和一位朋友讨论过这个问题,他有两个小孩,一个1岁,另一个3岁。我们在讨论16年后,你更愿意送孩子去哪里上学?是去一个充满噪音的教室,老师无法提供个性化学习的地方?还是让孩子坐在屏幕前,或者面对一个类人机器人,接受个性化、定制化的教育,而且可能比私立学校或大学便宜得多?

尤瓦尔·赫拉利: 你需要结合两者的优势。对于许多课程来说,人工智能导师会更好。你甚至不需要坐在屏幕前,可以去公园,边走边听关于生态学的课程。但你仍然需要孩子们在课间和其他孩子一起玩,因为学校里最重要的课程往往不是在课堂上学到的,而是在课间学到的。这部分不应该被自动化。你需要让一大群孩子在有人工监督的环境下进行互动。

主持人: 我在读你的书时也想到过另一个问题。我们现在有更多的信息,接触信息的渠道也更多,按理说这应该让世界更加接近真相,减少阴谋论,增加共识。但事实似乎并非如此。

尤瓦尔·赫拉利: 完全不是这样。世界上的大多数信息都是垃圾。最好的比喻是把它看作食物。曾几何时,比如一个世纪前,很多国家的食物是稀缺的,人们只能吃到什么就吃什么,尤其是高脂肪和糖分的食物。当时,人们认为食物越多越好。如果你问你的曾祖母,她会告诉你,多吃食物总是好事。但当我们进入食物充足的时代时,出现了这些工业化、加工过的食品,里面充满了脂肪、糖和盐,这显然对我们有害。所以,更多的食物并不总是好事,尤其是这些垃圾食品。信息也是如此。曾经信息是稀缺的,过去如果你能拿到一本书,你会全神贯注地阅读它,因为没有别的可读。而现在,信息过剩,我们被信息淹没了,其中大部分是垃圾信息,充满了贪婪、愤怒和恐惧,因为这场注意力争夺战的存在,这对我们没有好处。我们基本上需要进行一场“信息节食”。首先要意识到,并不是说获取更多信息对我们总是有益的。我们需要有限的信息,并且实际上需要更多时间来消化这些信息。当然,我们也必须小心我们接收的信息质量,因为现在充斥着大量的垃圾信息。一个基本的误解是,人们认为信息与真理之间有必然联系。大家认为,获取大量信息就像获取真理的原材料,多信息意味着更多知识。但事实并非如此,因为即使在自然界,大多数信息也与真理无关。信息的基本功能在历史上、甚至在生物学上都是用来连接的。信息的目的是将人们连接在一起。当你研究历史时,你会发现,实际上连接人们最简单的方式往往不是通过真理。真理既昂贵又稀有,通常还很复杂,甚至令人不适或痛苦。比如在政治中,一个政客如果把国家的全部真相告诉选民,他是不太可能赢得选举的,因为每个国家都有黑历史,选民并不想面对这些。因此,我们经常看到,政党、宗教和国家是通过虚构和幻想来连接的,而不是通过真理。

主持人: 这让我想到你的《人类简史》中的故事。比如在英国,我们经常听到的叙事是,社会问题的根源在于移民,或者是从法国乘船跨越边境的人。这是一个非常有效的叙事,能够让人们团结起来走上街头。在美国,类似的叙事是南部边境的墙,移民正在大量涌入,并且被描述为强奸犯、罪犯等。这些故事非常有力,因为它们触动了我们内心深处的恐惧。

尤瓦尔·赫拉利: 没错。要吸引人们的注意力,按下“恐惧按钮”是最有效的方式之一。这种恐惧感源于石器时代,当时人们最担心的是来自其他部落的入侵者会抢夺食物,甚至杀死他们。这种深植于人类内心的恐惧不仅存在于人类,还存在于其他社会性动物中。科学家甚至对黑猩猩做过实验,发现它们也本能地对陌生的黑猩猩感到厌恶或恐惧。宗教领袖和政治家们学会了如何像弹钢琴一样,操纵这些人类情感。这种恐惧感最初是为了保护人类的,对吧?最基本的情况下,厌恶感是为了保护我们,尤其是在我们还是孩子的时候。当我们尝试不同的食物时,如果吃到有害的食物,我们需要将其吐出来,厌恶感就是这样起作用的。然而,宗教和政治领袖劫持了这种防御机制,从小就教导人们不仅要害怕,还要厌恶那些外貌不同的外国人。即使你长大后学会了各种理论,受过良好教育,你的内心深处仍然可能存在着这种感觉——这些人是“令人厌恶”的,或者是“危险的”。这种操控在历史上被多次使用过,动员了无数人。我们在历史上看到过许多不同的运动是如何利用这些情感机制来激励人们的。

主持人: 最近发生了两件事,这和我们讨论的信息问题有关。一是埃隆·马斯克收购了推特,他的主要目标之一是推动“言论自由”。作为这项任务的一部分,他解除了许多之前被封禁的账号,大多是倾向于右翼的用户。另外,马克·扎克伯格最近发表了一封公开信,他表示后悔曾在联邦调查局(FBI)的要求下,在Facebook上审查了一些内容。他明确表示,未来他们将更坚决地反对来自政府的审查要求。现在我们看到,推特和Meta这两大社交网络巨头采取了一种新的立场,基本上就是让信息自由流动,支持“言论自由”。我也注意到,使用这些平台的体验确实发生了巨大变化。每次我在推特上滑动时,都会看到一些以前不会看到的内容。现在,如果我打开推特,不到30秒,我可能会看到有人被刀杀,或者有人被车撞。我在推特上看到的内容极端多样化,可能看到极端的伊斯兰恐惧症,同时也会看到相反的内容。这让我想起了这个周末,我的生日聚会上,我和朋友们坐在一起,我看到他心不在焉地在推特上刷着这些恐怖视频,我在想:“天哪,他简直在摧毁自己的多巴胺受体。” 这让我思考起最近的言论自由运动,你怎么看待这个言论自由的议题?

尤瓦尔·赫拉利: 只有人类拥有言论自由,机器人没有言论自由。科技公司经常混淆这个问题,真正的问题不是人类,而是算法。让我解释一下,如果问题是是否要将像唐纳德·特朗普这样的人从推特上封禁,这是一个非常复杂的问题。我们应该非常谨慎地封禁人类,尤其是重要的政治人物,尽管我们可能非常不喜欢他们的观点或个人,但封禁他们是一件很严肃的事情。所以,封禁人类用户并不是问题的根源。平台上的问题并不是来自人类用户,问题来自算法。但公司往往将责任推到人类身上,以保护他们的商业利益。人们每天都在创造大量的内容,包括充满仇恨的内容、充满同情心的内容、烹饪课程、甚至生物学课程。问题是,哪些内容能够获得人类的注意力?每个人都想获得注意力,公司也是如此。算法在这里起到了关键作用,公司给社交媒体平台上的算法设定了一个非常简单的目标:增加用户的参与度,让人们在推特或Facebook上花更多时间,发送更多点赞或推荐内容给朋友。为什么呢?因为用户在平台上花的时间越多,公司赚的钱就越多。这就是算法通过数百万人类“实验对象”进行实验后发现的惊人结论:如果你想吸引人类的注意力,最简单的方法就是按下“恐惧按钮”、“仇恨按钮”和“贪婪按钮”。

这就是为什么假新闻和阴谋论蔓延得如此严重的原因吧!平台的辩解是“我们没有生产这些内容,是某个人类用户发布了关于移民的仇恨阴谋论,不是我们。”这有点像《纽约时报》的总编辑在报纸的头版上刊登一篇充满仇恨的阴谋论文章,当你质问他时,他说:“我没有做任何事情,我没有写这篇文章,我只是把它放在了报纸头版。” 但这并不是无关紧要的事情。算法是“王者”,它们是编辑,决定了什么内容被观看。有时算法不仅仅是推荐内容,还会自动播放视频,比如你看完一个视频后,算法会自动播放另一个充满恐惧或贪婪的视频,目的是让你继续留在屏幕前。正是如此,这个过程应该被禁止,或者至少应该受到监管。这并不是言论自由的问题,因为算法没有言论自由。生产仇恨视频的人,我认为需要谨慎对待是否封禁他们,但这不是主要问题,问题是推荐机制。另外一个问题是,许多在线对话现在被机器人占据。比如在推特上,人们想知道哪些话题在流行,哪些故事得到了最多关注。问题在于,很多时候是机器人在推动这些话题。一开始,某个故事因为大量机器人转发而获得了巨大流量,之后人们看到这些故事,并认为很多人类在关注这个话题,于是他们也开始关注。实际上,很多是机器人,而不是人类在参与对话。

这种情况应该被禁止。我们不能允许人工智能假装是人类,这相当于“假冒人类”。如果你在线上看到的活动实际上是机器人行为,而你认为是人类行为,这种情况应该被禁止。这并不会损害任何人的言论自由,因为机器人没有言论自由。

3、算法操控的世界

主持人: 这确实引人深思。你之前提到,算法实际上在操控世界。如果算法根据我花时间查看的内容来决定我看到什么,因为平台想赚更多的钱,而我天生倾向于关注那些让我害怕的东西,那么只要给我几年的时间,我的恐惧感会逐年增加。

尤瓦尔·赫拉利: 是的,这就像食品行业一样。食品行业发现我们喜欢高盐高脂肪的食物,于是他们就给我们提供更多这种食物,然后说:“这是顾客的需求。” 同样的事情发生在算法上,甚至更糟糕,因为这是“心灵的食物”。人类确实有一种倾向,如果某样东西让他们感到恐惧或愤怒,他们会专注于它,并告诉所有朋友。但这种人为的放大效应对我们的心理健康和社会健康都是有害的,它在利用我们的弱点,而不是帮助我们克服它们。

主持人:  那么,如果你取消了对某些右翼角色的封禁限制,比如他们的移民相关言论,允许他们在每个平台上发声,同时算法又以利润为导向,是否可以说,最终更多的人会变得右翼化?我之所以这样说,是因为右翼叙事往往是认为移民不好。当然,我不是说左翼就无辜,因为他们也绝对不是。但是,在我看来,右翼的叙事往往更偏向恐惧,尤其是在英国,这种恐惧感更多来自对移民的担忧,认为这些人会拿走你的钱之类的。

尤瓦尔·赫拉利: 我认为关键在于不要将其贴上左翼或右翼的标签,因为民主是一场对话,只有在不同意见共存的情况下,才能进行对话。我觉得,讨论移民问题应该是可以接受的,人们应该能够对移民问题有不同的看法,这没问题。问题在于,当一方将不认同自己观点的人妖魔化时,民主就出了问题。这种情况确实存在。在移民问题上,有些阴谋论认为,支持移民的人实际上是想摧毁这个国家,他们是想用移民淹没这个国家,改变其性质等等。问题是,一旦你认为那些不同意你观点的人不再只是你的政治对手,而是你的敌人,民主就会崩溃。因为当你认为他们是敌人时,你不会接受他们的意见,选举也会变成一场战争。你会为了生存而战,不惜一切代价赢得选举。如果输了,你不会有动力接受结果;如果赢了,你只会照顾自己的族群,而忽视“敌人”的族群。这确实会导致民主无法正常运作。民主只有在特定条件下才能运作,比如你需要有能够支持对话的信息技术,还需要对选举等制度有信任。如果你不相信选举制度,那么民主就无法生存。另一个关键条件是,你需要认为持不同政见的人是你的对手,而不是敌人。而现在的问题是,由于极端化的倾向,许多人开始将对立面视为敌人。这不仅是右翼的问题,左翼也有这种倾向。

所以,这种敌对情绪让对话变得不可能。讨论复杂话题时,比如移民、性别、气候变化等,我们应该能够进行复杂的对话,而不把对方当成敌人。过去的几代人是可以做到的,但为什么现在似乎变得越来越难了?今年美国有一场非常重要的选举,我确实思考了很多。这次选举似乎会非常接近,像抛硬币一样,50对50。选举真的变成了一场生存问题,尤其是当有一方可能会改变游戏规则时。民主的优势在于它有自我纠正机制,这也是民主优于独裁的地方。在独裁体制下,领导人可以做出许多正确的决定,但最终他们会犯错,而独裁体制没有机制来识别和纠正这些错误。比如普京,俄罗斯没有任何机制能够说“普京犯了错误,他应该下台,让别人试一试其他路线”。这也是委内瑞拉的情况。委内瑞拉最初查韦斯及其运动是通过民主选举上台的,人民希望尝试新的方式。然而,最近的选举中,证据非常清楚,马杜罗大败。他控制了一切,选举委员会等等,他声称自己赢了。他们摧毁了委内瑞拉,这个曾经是南美洲最富有的国家之一的地方,现在有大约四分之一的人口逃离了这个国家,但他们就是无法摆脱这个人。

主持人: 这绝对不会发生在西方吧?

尤瓦尔·赫拉利: 千万不要说“永远不会”,历史会赶上你,不管你是谁。委内瑞拉在很多方面都曾是西方的一部分,现在某种程度上仍然是。

主持人: 这是我们生活中的一种错觉,我们总觉得这样的事永远不会发生在英国、美国或加拿大这样的“文明国家”。

尤瓦尔·赫拉利: 但根据某些标准,民主在美国其实是一个相对新的且脆弱的事物。如果你从谁有投票权的角度来看,这一点尤为明显。

主持人: 你认为特朗普政府有可能通过改变投票规则或计票方式来改变美国民主的游戏规则吗?

尤瓦尔·赫拉利: 是的,完全有可能。1月6日事件中,我们已经看到了这一点。在任何民主制度中,权力交接的时刻都是最敏感的,民主的“魔力”就在于它保证了权力的和平过渡。比如你选择了一个政党,给他们一次机会,如果人们觉得他们做得不好,可以试试另一个党派。而美国总统掌握着足以毁灭人类文明的巨大权力,拥有所有核武器和军队。但如果他输了选举,他应该放弃所有这些权力,让另一方来试试。特朗普没有做到这一点,从2016年开始,他就拒绝承认可能的失败,2020年更是试图阻止和平交权。现在他再次参选,我认为他从1月6日事件中学到的教训是:他几乎可以为所欲为,至少在他的支持者面前可以。他已经测试过了,如果我做了这些极端的事情,他们依然支持我,这意味着不管我做什么,他们都会支持我。

主持人: 在如此脆弱的民主环境下,信息流和网络被人工智能等技术干扰,误传和假信息泛滥,我现在可以制作一个特朗普的假视频,用他的声音说出一些话,并让这个视频在网络上迅速传播。在这种情况下,如何维持民主和沟通呢?当你无法相信你在网上看到的任何东西时,民主还能维持吗?

尤瓦尔·赫拉利: 答案是机构。我们在历史上多次遇到过这种情况,答案总是一样的:你不能信任技术,你只能信任验证信息的机构。想想印刷时代,你可以在纸上写任何你想写的东西,你可以说英国首相说了什么什么,然后加上引号,但这不意味着它是真的。那么我们怎么知道该相信哪张纸上的内容呢?这就要依赖机构。如果你在《纽约时报》或《星期日泰晤士报》或《卫报》的头版上看到“英国首相说了什么什么”,我们会有更大的可能性相信它。我们不信任纸张或墨水本身,我们信任的是《卫报》或《华尔街日报》这样的机构。在视频领域,过去我们从来不需要这样做,因为没人能伪造视频,所以我们信任技术。如果我们看到了视频,我们会说:“啊,这肯定是真的。” 但当伪造视频变得非常容易时,我们会回到与印刷品相同的原则:我们需要一个机构来验证它。如果我们在CNN或《华尔街日报》的官方网站上看到视频,我们会相信它,因为我们相信背后的机构。如果这只是TikTok上的某个视频,我们知道任何小孩都能制作,为什么我要相信它?

现在我们处于过渡期,我们还没有适应这一点。所以当我们看到特朗普或拜登的视频时,这些视频仍然会影响我们,因为我们成长的年代里,伪造视频是不可能的。但我认为很快人们就会意识到,视频不能被轻信,只有信任机构的验证才能让我们信任视频。问题是,我们能否足够快地建立或维持值得信赖的机构来拯救民主对话。如果不行的话,无法相信任何事物是独裁者的理想状态。因为在你不相信任何东西的情况下,唯一能运作的系统是独裁政权。民主依赖信任,而独裁依赖恐惧。你不需要信任任何东西,在独裁体制下,你只需要害怕就行了。所以民主要运作,你需要信任某些信息是可靠的,选举委员会是公正的,法院是公正的。如果越来越多的机构被攻击,人们失去了对它们的信任,那么民主就会崩溃。

回到信息问题上,一个选择是旧有的机构,比如报纸和电视台,它们会是我们信任的验证视频的机构。或者我们将看到新机构的出现。大问题是,我们能否建立对它们的信任。我特别强调“机构”而不是“个人”,因为任何一个大型社会,尤其是民主社会,无法在没有值得信赖的官僚机构的情况下运作。

4、AI作为政府“官员”

主持人: 这些官僚机构最终会由人工智能管理吗?

尤瓦尔·赫拉利: 这是个大问题,因为人工智能将越来越多地成为官僚机构中的“官员”。我们指的“官员”是什么意思呢?人类文明依赖于官僚制度运作,官员本质上是政府中的职员,但不只是政府。这个词源自法语,18世纪时“官僚制”意味着以书桌为中心的统治,用笔、纸和文件来管理世界或社会。举个例子,你拥有一所房子是因为在某个档案馆里有一份文件,写着你拥有这所房子。而这个文件是由一个官员制作的。如果你需要取回这个文件,这就是官员的工作,找到正确的文件并交给你。所以,像医院、学校、银行和其他系统都依赖这些官员来管理文件和信息。所有大型系统都依赖这些文件和知道如何查找、编写和归档文件的官员。我们现在的一个大问题是,官僚系统在进化历史上是一个非常新的发展,这让我们很难理解它们,并且容易相信关于“深层国家”和各种阴谋论的说法。随着越来越多的决策由人工智能官员做出,这将变得更加复杂。比如,决定给某个问题分配多少钱不再是由人类官员做出的,而是由算法做出的。当人们问,为什么某个系统没有得到足够的资金来修复时,回答可能是:“我不知道,是算法决定把钱分配给别的地方。”

主持人: 为什么未来会选择让人工智能而不是人类来管理这些官僚机构呢?

尤瓦尔·赫拉利: 首先,这不是未来的发展,已经在发生了。越来越多的决策已经由人工智能做出。这是因为需要考虑的信息量非常庞大,人类很难处理,而人工智能可以更轻松地完成。

主持人: 如果人工智能超越了人类的智能,那么人类还能做什么呢?你在书中提到,人工智能会远远超越人类的智能,应该被称为“外星智能”。如果它远远超越了人类智能,大多数工作可能都不再需要人类了吧?像我现在做这个播客,我根据自己收集到的信息提出问题,不仅是我感兴趣的,也是我认为观众会感兴趣的。但是相比于人工智能,我就像一个小猴子。如果一个人工智能的智商是我的100倍,它获取信息的能力是我的一百万倍,那么我就没必要做这个播客了,我可以让人工智能来做。事实上,人工智能可以与另一个人工智能对话,然后将信息传递给人类。如果我们看看大多数行业,像律师、会计师、医生等,很多工作本质上是基于信息的。世界上最大的雇佣行业之一是驾驶,不管是送货还是Uber等等。

尤瓦尔·赫拉利:  在这个复杂的世界里,人类的角色是什么呢?任何只是信息输入、信息输出的工作,都很容易被自动化。这类工作是最容易被取代的,比如程序员的工作、某些类型的会计师、律师和医生都是最容易被自动化的。如果医生的工作仅仅是接收血液测试等信息,然后给出诊断和处方,那么这类工作在未来几年和几十年内会很容易被自动化取代。但很多工作不仅仅需要信息处理,还需要社交技能和运动技能。如果你的工作需要多领域技能的结合,它就很难被自动化。比如护士给哭泣的孩子换绷带,这就比医生开处方要难得多。这不仅仅是数据问题,护士需要很好的社交技能与孩子互动,还需要运动技能来替换绷带。因此,这类工作难以自动化。即使是处理信息的人,也会有新的工作出现。问题在于如何进行再培训,不仅仅是学习新技能,还包括心理上的再培训,如何在新的职业中重塑自我,而且这种重塑不会只发生一次,而是会一遍又一遍地发生。随着人工智能革命的推进,我们才刚刚看到它的开端。未来,旧的工作会消失,新的工作会出现,但新的工作也会迅速变化和消失,然后又会有一波新的工作。人们将不得不重塑自我四五次甚至更多次,才能保持相关性,这会带来巨大的心理压力。

主持人: 现在很多大公司也在研发类人机器人。比如,特斯拉正在开发一种叫Optus的类人机器人,它可以完成一些精细的运动技能,比如打扫房间、在生产线上工作、把东西放进盒子里。在这种类人机器人和超越人类的人工智能结合的世界里,人类的工作将何去何从?很难预测未来的新职业,历史告诉我们,新的职业会出现,但具体是什么职业很难说。比如,我女朋友在做呼吸工作,她带着一些女性去葡萄牙参加修养活动。这类工作或许难以被取代,因为这些女性是为了与人类建立联系,去一个特别的地方,离线体验的。所以这类修养活动可能会比较安全。

尤瓦尔·赫拉利: 是的,很多我们想要的东西不仅仅是解决问题,比如生病了想变健康,这是解决问题的需求。但我们还有很多是为了建立联系。如果你想想体育,机器跑得比人快已经很久了,但人们并不感兴趣看机器与人赛跑。因为真正让体育吸引人的,是人类的弱点,以及人类面对弱点的能力。尽管机器可以跑得比世界冠军快,但人类运动员仍然有工作。另一个例子是牧师。某些宗教中的牧师是最容易被自动化的职业之一,因为他们只需在特定的场合重复相同的词语和动作。比如在婚礼上,牧师只需重复相同的词语:“你们现在已结为夫妻。” 但我们并不认为牧师会被机器人取代,因为我们想要从牧师那里获得的不仅仅是机械地重复某些词语和动作。我们认为,只有一个有血有肉的人,理解痛苦、爱和挣扎的人,才能把我们与神圣的东西连接起来。

大多数人可能不愿意让机器人主持婚礼,尽管从技术上讲,现在这已经很容易实现了。当然,最大的问题是,如果人工智能获得了意识,会发生什么?这是一个价值数万亿的问题,一旦人工智能获得意识,一切都将改变。但这是一个非常大的讨论,涉及很多问题,比如是否可能、我们如何知道等等。这是一个非常大的话题,关于人工智能是否可能获得意识的问题,我们目前毫无头绪。我们连有机大脑是如何产生意识的都不明白,所以我们不知道意识是否与有机的生物化学有本质的联系,也就是说,它是否只能在碳基有机体中产生,而不能在基于硅的无机计算机中产生。首先我们需要明确的是,意识和智能是不同的概念。智能是达到目标和解决问题的能力,而意识是感受事物的能力,比如感受疼痛、快乐、爱、恨等。人工智能可能会获得意识吗?目前我们还不知道。人类和其他动物通过感情来解决问题,而计算机解决问题的方式与人类完全不同。它们没有感情,赢得一场国际象棋比赛时不会感到高兴,输掉比赛也不会感到难过。它们不感受任何东西。我们不知道有机大脑是如何产生这些感觉的,所以我们也不知道一个基于硅的无机结构是否能够产生这些感觉。这是科学领域最大的未解之谜之一。

主持人: 意识会不会只是一个幻觉?它会不会只是我的大脑通过某些回路告诉我自己是有意识的?

尤瓦尔·赫拉利: 这是一个有趣的问题。意识的感觉是真实的,即使我们生活在一个虚拟的“矩阵”中,我们感受到的依然是真实的。我们只能体验自己的感受,比如我们看到什么、闻到什么、触摸到什么,这些体验是真实的。至于为什么我们感到疼痛,我们的理论是因为我们踩到了钉子,世界上有钉子这一物体。但也有可能我们都生活在一个由超级智能老鼠运行的大计算机中。

5、AI的意识觉醒

主持人: 如果我和一个人工智能对话,它可以告诉我它感受到了疼痛和悲伤,那么这算什么呢?

尤瓦尔·赫拉利: 这是一个大问题,因为我们有很大的动机去训练人工智能假装有生命,假装有感情。而且我们已经看到,很多努力正在投入生产这样的人工智能。因为我们不理解意识的本质,所以我们甚至没有证据证明其他人类有感情。我只能感受到我自己的感情,但我从未感受到你的感情。我只能假设你也是一个有意识的存在。社会基于这种假设,不仅赋予人类这样的意识身份,还赋予一些动物,比如大多数人认为狗是有意识的,它们能感受到疼痛、快乐和爱。因此,社会接受了狗是有感知能力的生物,赋予它们一些法律上的权利。那么,如果人工智能很擅长假装有感情,甚至让我们相信它有感情,会发生什么?即使人工智能没有感情、没有意识、没有感知能力,但它非常擅长假装,并且让我们相信它有感情,这会变成一种社会共识。人们可能会觉得他们的人工智能朋友是有意识的存在,因此应该享有权利。在美国,已经有了赋予非人类个体法律地位的先例——你不需要是一个人类才能成为一个法律上的“人”。

主持人: 你之前提到我们可能生活在一个模拟现实中,虽然你是开玩笑提到的,但在人工智能的世界里,我对这个可能性的信念却在增加。这真的可能只是一个模拟现实。我从小时候没有互联网,到现在可以在电脑上与“外星人”(人工智能)对话,它甚至可以为我做事情。我还可以体验到几乎无法区分的虚拟现实体验。有时,我会陷入虚拟现实的陷阱,比如戴上耳机后,我真觉得自己在《鱿鱼游戏》里。你把这个场景往未来推演,考虑到进步的速度,我听到关于模拟理论的讨论时,觉得它也许真的可能成立。如果你将这个速度往前推100年,按我们目前的轨迹,我们将能够创造信息网络和有机体,它们甚至可能不知道自己是生活在一个实验室或电脑中。

尤瓦尔·赫拉利: 是的,这种情况在某种程度上已经开始发生了。越来越多的人生活在信息泡泡里,虽然还不是整个物理世界,但你会发现同样的事件发生在不同的政治光谱上,人们根本无法达成共识。他们生活在各自的“矩阵”中。当互联网刚出现时,主要的隐喻是“万维网”,这是一张连接一切的网络。但现在,模拟理论提供了一个新的隐喻,这个隐喻更像是一个茧。茧将你包围起来,让你无法看到外面的世界,其他人可能也在他们自己的茧中,而你无法与他们取得联系。世界上发生的任何事情都无法再将你们连接在一起。

主持人: 只要看看别人手机上的内容,你会发现他们的现实和你的完全不同。你看一下别人的推特或Instagram,你会发现这是不是同一个世界。上周末,我的朋友坐在我左边刷手机,他打开了“发现”页面,那里全是利物浦足球俱乐部的内容,而我的页面则完全不同。我当时就在想,哇,他的世界和我的世界完全不同,他是利物浦球迷,而我是曼联球迷。真是令人惊讶。我们现在每天花在手机上的时间多达9个小时,每个人都在体验一个与他人完全不同的世界。

尤瓦尔·赫拉利: 这其实是一个非常古老的恐惧。比如柏拉图在他最著名的寓言《洞穴寓言》中就描述了类似的情况。他设想了一群囚徒被锁在洞穴里,面对一堵空白的墙,背后投射出影子,而这些影子被误认为是现实。他基本上是在描述今天的人们面对屏幕时误以为屏幕里的内容是真实的。同样在古印度,佛教和印度教的智者们也谈到了“玛雅”(Maya)——一种幻象的世界,人们深陷其中,无法看到真实。这让我觉得很可怕,因为这些古代哲学的思辨现在变成了现实问题。过去这些只是哲学思辨,而现在这些古老的哲学问题正成为技术性问题。这是作为历史学家看当今时代的一大有趣之处。以前这些只是理论上的思辨,现在我们实际上可以在手机里实现柏拉图的“洞穴”。

主持人: 我觉得这真的很可怕,因为你说得对,现在有些人可能认为他们对排名系统或者为什么某些内容会出现在搜索结果中还稍有理解,但随着这些“智能外星人”(人工智能)变得越来越强大,我们对这些系统的理解会越来越少。我们在逐渐将决策权交给它们。

尤瓦尔·赫拉利: 是的,在一些行业,人工智能已经成为“王者”。比如,我现在正在进行书籍宣传,我去参加各种播客和电视节目来推广我的书《Nexus》。但实际上,我真正想打动的不是这些人,而是那些算法。如果我能吸引算法的注意力,人类就会跟随。我感觉我们就像碳基生物生活在硅基世界中。我曾以为我们掌控了一切,但现在感觉硅基生物在掌控我们。控制权正在转移。我们现在还在一定程度上掌控着最重要的决策,但这种情况不会持续太久。因此,我们必须非常非常小心,慎重做出未来几年内的每一个决策。在未来10年、20年,可能就为时已晚了。到那时,算法将做出最重要的决策。

主持人: 你提到了一些关于算法和人工智能的重大危险,其中一个就是“对齐问题”(alignment problem)。你能简单地解释一下什么是“对齐问题”吗?当然,能不能用一种简单易懂的方式来解释“对齐问题”?

尤瓦尔·赫拉利: 最经典的例子是哲学家尼克·波斯特罗姆在2014年提出的一个思想实验,虽然听起来有点疯狂,但请耐心听我解释。他设想了一个超级智能的AI,它被一家生产回形针的工厂购买。工厂经理告诉这个AI:“你的目标是生产尽可能多的回形针。” 于是,这个AI征服了整个世界,杀死了所有人类,把整个地球变成了回形针生产工厂,甚至开始向外太空派遣探险队,把整个银河系变成回形针生产的产业链。听起来像是天方夜谭,但它已经在某种程度上发生了。我们之前谈到过社交媒体和用户参与度的问题。和这个例子类似,在2014年,Facebook和YouTube的管理层告诉他们的算法:“你的目标是增加用户参与度。” 社交媒体的算法征服了世界,把整个世界变成了一个用户参与的场所。我们现在都非常“参与”了。算法发现,通过引发愤怒、恐惧和阴谋论,最能吸引人们的注意力。这就是“对齐问题”的体现。

当马克·扎克伯格告诉Facebook的算法要增加用户参与度时,他并没有预见到结果会是民主崩溃、阴谋论泛滥、假新闻传播以及对少数群体的仇恨。他本无此意,但这是算法执行任务时带来的结果。算法的目标和人类社会、甚至是公司本身的利益之间出现了不一致。这确实是一个灾难性的后果,但这还只是一个小规模的灾难。过去十年间,社交媒体算法造成了社会混乱,但这些算法实际上非常原始。你可以把它们比作人工智能发展的“原生生物”阶段。如果将人工智能的发展视为一种进化过程,那么我们现在处于非常早期的阶段,就像有机进化中的单细胞生物阶段。我们距离“恐龙”和“哺乳动物”的出现还有很远的路要走。但数字进化的速度比有机进化快数十亿倍,所以从AI的“原生生物”到AI的“恐龙”阶段,可能只需要几十年的时间。如果说现在的ChatGPT是AI的原生生物,那么未来的AI“霸王龙”会是什么样子呢?这就是对齐问题让人感到非常不安的地方。如果给一个原始的社交媒体算法设定了错误的目标就已经造成了如此大的破坏,那么在20或30年后,如果给一个“AI霸王龙”设定了错误的目标,会带来什么后果呢?

主持人: 这个问题的核心是,即使我们想给AI设定一个不同的目标,但当涉及到上市公司时,实际上唯一的目标就是盈利,这就是生存的本质。

尤瓦尔·赫拉利: 没错。所有平台的目标都是为了赚更多的钱,吸引更多的注意力,因为这不仅简单,而且容易量化。这就是给AI和算法设定目标的巨大难题。像“赚钱”或“增加用户参与度”这样的目标非常容易用数学来衡量。如果某天YouTube的观看时长是一百万小时,一年后增加到两百万小时,算法很容易知道自己在进步。但如果Facebook告诉它的算法:“增加用户参与度,但不要破坏民主。” 那该如何衡量呢?谁知道“民主的稳健性”是什么定义呢?没人知道。

主持人: 所以,如果我作为社交网络的拥有者,告诉算法“增加用户参与度,但不能损害民主”,问题在于我的竞争对手可能会忽略第二部分,只专注于增加用户参与度。结果是他们会有更多的用户、更高的收入,广告商也会更满意,而我的公司会因此衰落,投资者会撤资。

尤瓦尔·赫拉利: 这是个好问题,但需要考虑两点。首先,政府可以通过监管来惩罚那些设定不负责任目标的社交媒体公司,就像他们会惩罚报纸、电视台或者汽车公司等不当行为的公司。其次,人类并不愚蠢或自我毁灭,我们希望有更好的产品,不仅仅是功能上的,还有社会责任感上的好产品。我之前提到了食品行业的例子。食品公司发现,如果他们在人造产品中添加大量脂肪、糖和盐,人们会喜欢。但人们后来意识到这对健康有害,现在市场上有大量的减肥产品,人们也变得更加关注自己吃的东西。同样的事情也可以发生在信息市场上。

主持人: 但问题是,在信息市场上,控制信息流动比控制食品消费要复杂得多。比如,如何监管言论自由,超越种族主义或煽动暴力的界限,我不知道该如何处理。

尤瓦尔·赫拉利: 我们已经讨论了两个最基本和强大的工具,那就是对公司的算法行为负责,而不是对用户生成的内容负责。我认为,如果某个人在Twitter或Facebook上发布了种族主义言论,我们不应该惩罚这些平台。但如果Facebook的算法故意传播种族主义阴谋论,那问题就出在算法上,而不是言论自由上。可是我们怎么知道它是种族主义阴谋论呢?这是一个复杂的问题,但我们有法院可以处理这种情况。我认为法院不应该轻易裁定用户个别言论的内容,但当涉及到算法故意、系统性地传播某类信息时,法院可以介入。关键是要明确谁该对算法的行为负责,那就是公司,而不是个人。

另一个问题是私人和公共领域的界限消失了,这也是问题所在。我认为人类在私人空间有权利犯愚蠢错误。在你和朋友或家人私下交谈时,你可以说一些愚蠢的话、讲一些种族主义或恐同笑话,这不好,也不应该,但作为人类,你有权利这么做。但在公共场合就不一样了。即使是政客在私下说一些不当言论,问题也不大。如果总理私下讲了一个恐同的笑话,我不需要在意,那是他的私人事务。但如果他在公共场合、在电视上讲,那就是一个大问题了。过去,区分私人和公共空间是很容易的。在家里和一群朋友说些愚蠢的话,那是私人领域,没人会干涉你。但如果你走到市中心,在讲台上对数千人发表种族主义或恐同言论,那就是公共领域,法律可以惩罚你。现在问题在于社交平台模糊了这种界限。现在你在WhatsApp上跟两个朋友聊天,认为这是私人对话,但突然之间,这段对话被传播开来,变得人人皆知。我没有一个简单的解决方案,但一些政府已经采取了措施。例如,如果你有大量粉丝,即使是在社交媒体上,你也需要遵守更严格的标准。那对于有大量粉丝的人,尤其是你在网上拥有10万粉丝的情况下,我们需要知道你不是机器人,而是一个真实的人类。这并不涉及言论自由的问题。机器人没有言论自由。

主持人: 这是个很正常讨论,因为我一直在反复思考匿名性对社交网络到底是好是坏。当我倾向于支持实名制时,有人反驳说,极权政府会利用这一点来惩罚那些发声的人。

尤瓦尔·赫拉利: 无论我们喜不喜欢,极权政府已经在这么做了。这并不是说英国如果这么做,俄罗斯才会跟着做,实际上俄罗斯已经在这么做了。

主持人: 美国会不会也开始这么做呢?如果有人批评特朗普,而他能够获取他们的身份信息,是否会抓捕他们?

尤瓦尔·赫拉利: 如果我们真的到了法院允许这种事情发生的地步,那我们已经陷入了非常严重的困境。我们需要意识到,现有的监控技术已经让极权政府有很多方法知道你是谁,这并不是最主要的问题。

主持人: 你之前提到,平台应该为算法的后果负责。最近一个月,英国发生了骚乱,我不知道你有没有听说过。最初的起因是有消息称有人谋杀了几个孩子,后来有关于凶手宗教身份的错误信息传播开来,导致了暴动。

尤瓦尔·赫拉利: 这是一个很好的例子。如果我私下对两个朋友说,我认为凶手是某某宗教的人,我不认为我应该因为这个被起诉。在我的私人空间里说这些是我的权利,这就像在我的客厅里说一样。问题是,当Facebook的算法捕捉到这一虚假新闻并故意推荐给更多用户时,Facebook就应该为其算法的行为负责。你可以把它告上法庭,说算法故意传播了一条虚假新闻。如果这条假新闻是由拥有数百万粉丝的网红传播的,他也要为此负责。但如果只是一个普通人在私人对话中说了不实内容,责任主要在于算法,而不是说出这些话的人。那些应该进监狱的人,是那些负责运营这些算法的公司管理者,而不是最初发表言论的个人。回到骚乱问题上,假设《卫报》当天决定刊登一条虚假新闻在头版,然后他们被告上法庭。编辑说:“但我没有写这条新闻,我只是找到了它,并决定把它放在头版。” 这显然是非常错误的决定,编辑可能需要承担法律责任。作为国家最大的报纸之一的编辑,如果你决定在头版发表某条新闻,你必须非常确信你发表的是事实,尤其是当它可能煽动暴力时。

6、社交网络的虚假性

主持人: 但社交网络的拥有者如何知道一切都是真的?他们如何在那样的规模上验证内容的真实性?

尤瓦尔·赫拉利: 他们不需要知道一切都是真的,但如果某件事很可能导致暴力,首先要遵循一个预防原则:不要伤害。我并不要求Facebook审查虚假新闻,我只要求它的算法不要故意传播这些虚假新闻以获得用户参与度和利润。如果你不确定内容的真实性,那就不要传播它,这很简单。

主持人: 但是算法怎么知道它是假新闻,而不是某条重要的、拯救生命的新闻呢?

尤瓦尔·赫拉利: 这就是公司的责任。你可以想想《卫报》或《金融时报》或《星期日泰晤士报》的编辑是如何判断某条新闻是否应该刊登在头版的。如果你现在管理一家社交媒体公司,那么你实际上是在管理世界上最有影响力的“报纸”之一,你应该具备同样的责任感和专业能力。如果你没有能力判断算法是否应该向数百万人推荐某条新闻,那你就不适合这个行业。如果你不能应对这种挑战,就别管理社交媒体公司。

主持人: 这确实是个复杂的问题,比如马克·扎克伯格最近写的信中提到,FBI曾告诉他,俄罗斯试图影响选举,并提供了一些信息,比如有关乔·拜登之子亨特·拜登的“笔记本电脑事件”。Facebook当时不知道这件事是否属实,怀疑这可能是俄罗斯为了影响选举而散布的假消息,于是Facebook降低了其传播优先级,阻止其病毒式传播。结果证明,这其实是真实的事件,扎克伯格现在对此表示遗憾,因为他在某种程度上也通过抑制这则新闻影响了选举。我觉得这太复杂了,复杂到让我无法理解如何运行一家大型媒体公司。

尤瓦尔·赫拉利:  运营《华尔街日报》或《福克斯新闻》本身就很复杂。如果FBI找到《福克斯新闻》或《华尔街日报》告诉他们:“这条新闻是俄罗斯人植入的,别传播。” 然后事后发现这个判断是错的,那该怎么办呢?作为《华尔街日报》的管理者,你需要处理这种情况。我应该相信FBI吗?在什么情况下相信?是的,这的确是复杂的。你可能会因此入狱。如果你是《华尔街日报》的编辑,无论怎么做,你都在影响选举。但这就是这个行业的本质。真正的问题是像扎克伯格或埃隆·马斯克这样极具影响力的人,他们假装自己没有权力,没有影响力,不会影响选举。我们早已知道,报纸的拥有者和编辑影响选举,因此我们对他们有一定的标准。而现在,像Twitter、YouTube和Facebook这些平台的拥有者和管理者,比《纽约时报》或《卫报》甚至《华尔街日报》拥有更多的权力,因此他们至少应该承担同样的责任。科技公司似乎总是在规避历史经验。

这些科技公司常常告诉我们,历史经验不适用于他们。例如,如果你是一个传统行业,比如汽车行业,大家都知道你不能把一辆未经安全检查的新车推向市场。同样地,药品或疫苗也必须经过安全测试才能上市,这是显而易见的。但当涉及到算法时,他们却说:“不不不,我们有不同的规则。” 你可以随便发布任何算法,完全不需要安全规定。信息的使用似乎也不受传统道德约束。我们有《十诫》中的“不可偷窃”这一条,大多数人都知道不该偷窃。但当涉及到信息时,他们却认为这不适用。我可以拿走你的信息,未经你的许可将其出售给第三方。这种行为显然是“偷窃”,但科技公司却告诉我们,这不算偷窃。这就是过去十几年来很多科技巨头所做的,他们告诉我们,历史的智慧不适用于新技术,但事实并非如此,历史经验同样适用于科技领域。

主持人: 你有没有想过完全脱离这种喧嚣,去一个安静的地方生活?

尤瓦尔·赫拉利: 每年我都会这么做。我每年都会进行一次长时间的冥想静修,通常持续30到60天。今年我计划在12月书籍巡回结束后,去印度进行60天的静修,完全断开与外界的联系,没有智能手机、没有互联网,甚至没有书籍或写字纸,只进行信息禁食。

主持人: 为什么要这样做?

尤瓦尔·赫拉利: 这对大脑有好处。就像食物一样,信息摄入过多对我们不好,我们需要时间来消化、排毒。同样道理,大脑也是如此。如果你不断被外界信息轰炸,你会对错误的东西上瘾,养成不良习惯。我需要时间来消化发生的一切,并决定哪些习惯我应该戒掉。同时,当外界的噪音消失后,我可以更好地了解自己的内心。当大脑被外界信息不断轰炸时,它就像一个充满噪音的地方,无法认识自己。而当噪音消失后,你可以开始了解自己的思想是如何运作的,恐惧和愤怒是什么,当你生气时,你的思想和身体会发生什么变化。理解愤怒确实很难,很多时候我们只关注让我们生气的对象,而不是真正的愤怒情绪本身。这正是问题所在。当你对某位政客感到愤怒时,你会一遍又一遍地重现那件事,但你并没有真正理解自己的愤怒情绪。真正重要的不是那个让你愤怒的故事,而是理解愤怒的本质。

主持人: 我刚才脑海里想象了一种未来场景,就像你刚才所说的那样,人类几乎分裂成了两种物种。一种人类通过大脑中的Neuralink与信息高速公路相连,他们的思维与互联网和算法相互作用。而另一种人类选择拒绝这种连接,没有安装Neuralink,拒绝与人工智能互动,可能住在某个部落或者丛林里。我的女朋友几年前就曾对我说过类似的事情,她认为未来会有这种分裂。当时我不以为然,但现在我能理解她的看法了。尤其是当我看到埃隆·马斯克正在研发的Neuralink,可以让你用大脑控制电脑时,我坐在那里想,这不仅仅是你控制电脑,电脑也会控制你的大脑。信息的流动可以双向进行。让我开始思考,如果我大脑里有这种芯片,而你没有,那我们就已经是两种不同的物种了。我可以用大脑控制楼下的汽车,控制这个房间的灯光,甚至可以直接问我的大脑问题并得到答案。我的智商可能达到5000,而你的智商可能还是150或200。这样,我对你有巨大的竞争优势,如果你没有这个芯片,你就会被淘汰。这就是物种分化。

尤瓦尔·赫拉利: 是的,在小范围内我们已经在历史上见过这种情况。比如,当有人开始使用书写工具,而另一些人拒绝它时,后者就逐渐消失了,因为那些使用书写工具的人建立了王国和帝国,并征服了其他人。我们现在面临的危险也是如此,但这并不一定是好事,因为使用书写工具的人生活并不一定比早期的狩猎采集者更好。

7、AI带来的社会割裂

主持人: 那么解决方案是什么呢?如果要从你写的《Nexus》一书中得到启示,信息网络从石器时代到人工智能的简史,解决这些问题的办法是什么?我们该如何避免这些负面影响?如何避免被纸夹算法困住、避免社会混乱、避免信息误导?如何阻止“硅幕”分裂我们的世界?有希望吗?你乐观吗?

尤瓦尔·赫拉利: 关键在于合作和人与人之间的连接。人类依然比AI更强大,问题是我们彼此分裂,而算法无意间加剧了这种分裂。这是古老的“分而治之”策略,每个帝国都曾使用它——从罗马帝国到大英帝国。如果你想统治某地,你就让那里的人彼此分裂,然后你就可以轻松操控他们。现在,整个地球上的人类正在被AI分裂,不仅仅是中美之间的分裂,还包括民主党与共和党之间,人与人之间的分裂,甚至我们与AI之间的隔阂,因为越来越多的决策由AI来做。我们还有5年、10年、最多20年的时间去确保世界不走向反乌托邦的方向,但前提是我们需要合作。我尽量保持现实主义的态度。我刚从以色列回来,亲眼目睹了一个国家在没有任何理由的情况下自我毁灭。以色列按下了自毁按钮,而没有任何正当的理由,这种情况也可能在全球范围内发生。

这就是所说的“按下自毁按钮”的意思。这不仅仅是以色列人与巴勒斯坦人之间的冲突,还包括以色列社会内部的分裂,越来越多的分歧和敌意。这就像一个愤怒和暴力的黑洞,正在吸引越来越多的人进入其中。你可以感受到来自中东这个黑洞的冲击波,它正在影响全世界。而且并没有什么正当理由,没有客观的理由。如果我谈一下以色列和巴勒斯坦的冲突,这并不是因为地中海和约旦河之间的土地不够,人们不得不为这点土地争斗。也不是因为食物不够,实际上这里有足够的食物让每个人都吃饱,有足够的土地可以建造房屋、医院和学校。那么为什么人们还要争斗呢?原因是他们脑海中的不同故事,他们有着不同的神话,比如“上帝把这片土地只赐给了我们,你们没有权利在这里”,因此他们为此争斗。这是一个本地或区域性的悲剧,但它也可能在全球范围内发生。最终,如果毁灭我们的不是人工智能,那很可能是我们自己的妄想。AI之所以能够找到机会,是因为我们内心的弱点和妄想。

主持人: 尤瓦尔,非常感谢你写了这本书,我觉得这是我遇到过的最及时的一本书,尤其是在当前世界局势下。这本书帮助我理解,问题并不是我和你之间的对立,而是我们所接收到的信息,是那些控制信息网络的人在操纵我们。有人不仅仅是让我们站在不同的立场上,还让我们彼此视为敌人。而现在,这个操纵者可能是人类,但很快它可能就不再是人类了。理解这一点让我更加专注于问题的根源,有时我们很难发现问题的真正根源。我可能认为问题是我的邻居,或者是肤色不同的人,但如果深入一层去看,问题其实出在信息网络和我所接触到的信息,这些信息在洗脑我,构建那些虚假的故事。正如你在之前的书中提到的,故事才是真正支配世界的力量。而《Nexus》这本书在此时的出版正当其时,它帮助我们理解信息的力量,以及它如何影响民主、关系、社会和商业等方方面面。我希望这能引发行动,我认为这也正是让我们保持乐观的原因。

尤瓦尔·赫拉利: 是的,归根结底,我认为大多数人本性都是善良的。当你给人们错误的信息时,他们会做出错误的决策。问题不在人类身上,而在于信息。

主持人: 完全同意。我们在这个播客中有一个传统,最后一个问题是由上一个嘉宾为下一个嘉宾留下的,而他们并不知道这个问题会留给谁。上一个嘉宾给你留下的问题是:你认为“强大”意味着什么?

尤瓦尔·赫拉利: 强大意味着接受现实,正视现实,而不是试图逃避或掩盖它。

主持人: 很有意思,我觉得你说得很对。这个答案跟我原本会给出的答案不太一样,但的确很有道理。

尤瓦尔·赫拉利: 你会怎么回答呢?

主持人: 哦,如果是我,我可能会说坚持不懈,面对各种困难仍然坚持自己主观的目标,或许这就是强大。不管是抚养孩子,还是去健身房锻炼,都是在面对挑战时的坚持。但我也喜欢你的定义,因为在当前的时代,它更为重要。作为一名播客主持人,有时你会觉得自己正处在这种分裂的漩涡之中。每个人都在试图判断你是否属于右翼、左翼,是否认同你采访的每一位嘉宾。保持中立真的非常困难,人们也很难理解这种状态。

尤瓦尔·赫拉利: 他们希望你归类到某个位置,因为这就是他们的弱点。很多人声称自己很强大,推崇强大作为一种价值观,但他们无法处理那些不符合自己世界观或欲望的现实。他们认为所谓的强大是拥有将这些不符合现实的部分“消失”的力量。而这其实是弱点。这也是战争的本质——试图让你不喜欢的现实部分消失。在这种情况下,就是整个民族。我不喜欢这些人,我不认为他们应该存在于现实中,于是我试图让他们消失。而人们会说:“哦,他是一个非常强大的领导者。” 其实不然,他是一个非常脆弱的领导者。真正强大的领导者能够承认这些人的存在,他们是现实的一部分。接下来要做的是,找到我们如何与他们共存。

主持人: 没错。你写的《智人之上:从石器时代到AI时代的信息网络简史》是每一个对这些主题感兴趣的人必读的书。这本书得到了我最喜欢的两个人,Mustafa Salman和Steven Fry,以及Rory Stewart的推荐,这也是有充分理由的,因为这是一本极具启发性的书,来自于一个只写改变文化的杰出作品的人。

尤瓦尔·赫拉利: 非常感谢你!

主持人: 谢谢你!



对了,喜欢就别忘了点赞、收藏、转发支持一下!期待在评论区听到你的观点和看法!

往期回顾

1、[演讲视频:2024年第65届国际奥数大会上,陶哲轩再次表示当前AI进展惊人,智能水平已与人类相当]

2、[人与机器的智慧对话 - 《自私的基因》作者理查德·道金斯与 "AI 版理查德"就基因选择和脑机接口展开思维碰撞]

3、[达特茅斯大学对话OpenAI CTO Mira Murati:她坦言职场会发生重大变化,一些岗位注定消失]


我们旨在将先进科技与创新想法完美融合!

想要掌握人工智能,但不知从何开始?告诉我们你的需求,学习AI让你抓住这波浪潮

告别昂贵服务和缺人烦恼,再见漫长交付周期

无限创意,快速生成专业级产品

感受 AI 带来的全新工作体验!

欢迎各大品牌方、媒体、企业和个人等

请联系负责人微信:Milo-1101

--END--

继续滑动看下一个
AI深度研究员
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存