【对谈视频】
▼
主持人:马克西姆·亚克夫勒夫
基辅国家大学政策分析学院院长
与谈人:尤瓦尔·赫拉利
耶路撒冷希伯来大学的历史系教授
史蒂芬·平克
哈佛大学约翰斯通家族心理学教授
译 者:王培
【对谈全文】
▼
主持人:你好,我叫马克西姆·亚克夫勒夫,是乌克兰基辅国家大学政策分析学院院长。非常荣幸和高兴,能在这里主持当今最卓越的两位思想家之间的对话。一位是哈佛大学约翰斯通家族心理学教授斯蒂芬·平克,另一位是耶路撒冷希伯来大学历史系历史学教授尤瓦尔·诺瓦·赫拉利。
对话伊始,我想提的第一个问题是比较有争议性的话题,关于我们对未来应该抱有乐观还是悲观态度?
所以,我很冒昧犯地把你们分别归到两个不同的阵营,一个属于乐观主义者,另一个属于悲观主义者,我想听听你们的看法,你们是否真的认为自己是未来乐观主义者或悲观主义者?
总体而言,你们如何看待我们的未来,以及人类的未来究竟是乐观的,还是悲观的?
平克:我通常被归为乐观主义者,尽管我在我的著作《白板》中也写过人性中相当阴暗的一面。我认为,存在着人性这样的东西,人性中有某些相当阴暗的动机,但我在写《白板》这本书时,我反对这样一种指责,即对人性的信任会导致对人类境况宿命或悲观的看法,也即是说,我们没有办法减少战争和暴力,因为这是由人类的基因决定的,是人类演化的产物。
我指出,人性具有多面性,我们有某些丑陋的动机,比如,复仇,统治、施虐,但我们有同理心,我们也是具有认知能力的动物,我们有能力提出解决问题的方案,然后通过语言进行分享。人类社会实际发生的事情取决于亚伯拉罕·林肯所谓的“人性中的善良天使”与我们阴暗面之间的平衡。
事实上,我认为不存在这样一种争论:认为人性让我们处于持续的暴力、战争和偏见之中。因为历史告诉我们,人类已经取得了进步。
这让我试图挖掘人类进步的相关数据,比如,我们的预期寿命增长了两倍多,战争死亡率和杀人死亡率在下降,针对妇女的暴力数量和疾病死亡率也在下降,这些都表明,我们在过去取得了进步。
我不认为这是一种乐观主义,我只是关注到了这些数据,而这些数据是很多人没意识到的。很多人听说死亡率和战争数量在过去75年下降、预期寿命增长了两倍、饥荒造成的死亡人数下降了、文盲减少了,会感到很惊讶。
至于这些事实是不是对未来抱有乐观态度的原因,没人可以肯定,因为没人是先知。但我们可以拒斥宿命般的悲观论调,因为我们至少知道进步是有可能实现的。至于进步能否连续不断地实现,则是一个不同的问题。情况也许会变得更糟,但考虑到我们知道我们在过去已经解决了很多问题,情况也许并不必然如此。
赫拉利:我同意平克的大部分观点。我想,我可以把当前的人类境况总结为三个简短的句子:1、人类境况处于历史最佳水平,2、还有很多问题没能解决,3、境况可以变得比当前糟糕得多。
至于我是乐观主义者还是悲观主义者,这无关紧要。我认为,我们需要成为现实主义者,并且我认为历史不是被决定了的,没有一种决定性力量能够保证未来可以变得更好或者更糟,这取决于我们未来几年和几十年的决策和行为。
我想如果我们在5年前进行这场对话,我俩对未来都会比现在要乐观得多,考虑到过去三、四年发生的事情,我们变得有点更悲观了,或者变得更现实了。主持人:谈到对未来是乐观还是悲观,也许你们可以更多地阐述我们当前所面临的风险和威胁,它们是对人性最重要、最重大的挑战。
平克:就当前的威胁而言,我会认为气候变化是最明显的挑战,我们还没有着手去解决它,我们有很多理由相信,后果是很可怕的。
核战争也是一个威胁,这倒不是因为它发生的概率很高,我不认为如此。但另一方面,很有可能存在的情况是,我们应该担忧,由于过去5年气候变化问题并没有朝着积极方向发展,而中程核武器协议又被废止了,新的核武器军备竞赛就成为了一种威胁。
但在此之前,我们取得了一些进步。自冷战高峰期以来,85%的核武器被销毁,但现在我们有理由去关注朝鲜和俄罗斯的核武问题了,这是值得担忧的事情。赫拉利:核战争、气候变化、破坏性技术的风险,尤其是人工智能和生物技术,一方面它们会给人们带来巨大好处,但也会带来一些非常严重的威胁。比如,人工智能很快会因为造成广泛失业而带来剧烈的社会冲突,还有,随着新的数字专断治理和管制秩序的兴起,情况会变得前所未有地糟糕。
也许最大的挑战在于,无论是核战争、气候变化还是破坏性技术的崛起,要想有效解决这些威胁,你需要全球合作。
我认为很显然你不可能只依赖某一个国家,类似地,你也不可能只允许某一个国家发展人工智能,因为没有哪个国家想在这方面落后于人。如果你想想你正在人体身上做基因工程实验,即便90%的国家决定不这么做,如果你只让一个国家这么做,这个国家将拥有巨大优势,每个国家很快就会效仿,因为没有哪个想落后于人。所以,你需要全球合作。
过去三、四年,全球正朝着相反的方向在走,制造出越来越多的冲突,危及全球化体制的彻底崩溃,而我们又没有任何方案可以取而代之。
我的意思是,近几年来,有很多人在批评传统体制,它当然是有问题的,但真正让我关注的是,当我听到这些批评,我没有听到任何替代方案。所以你看到出现了很多作为民粹主义者和国家主义者的领导人和相关运动,批评当前的全球秩序。有时候,他们对于自己国家该怎么做有很多好的想法,但他们不知道该如何管理、如何领导整个世界。
他们似乎把这个世界看作由一个个堡垒构成的网络,他们希望这是一张友善的堡垒网络,但堡垒几乎不可能是友善的。如果你没有一个真正的全球体制,就没有办法解决分歧,无论是贸易分歧,还是国家之间的领土分歧,当然也不会有办法解决像气候变化、破坏性技术之类的问题。这也是为什么我比四、五年前更不乐观的原因所在。
主持人:现在我们稍微转化一下话题,谈论一下西方世界的学术氛围,因为我们讨论的话题与这些现象、这三种威胁相关,以及与我们在西方世界谈论这些问题的方式有关。也许你们可以阐述一下西方学术界面临的挑战,也许你们可以建议如何加以改善。
赫拉利:我接着你的问题来讲,让我真正关注的是,我们现在处于这样一种环境:我的感觉是,整个世界主要依照来自17、18世纪的哲学思想在运转,而那时的思想建立在完全不同于我们现在对人性的理解之上。
至今为止,所有在更好地理解人性、大脑和遗传学等方面所取得的令人惊叹的发展、所有令人惊讶的进步,几乎没有对我们的伦理观和哲学观带来改变。我有时候会怀疑。我们在哲学上的止步不前,就像是我们正在燃尽煤气罐中的最后一点煤气,我们正在面临哲学的衰败,尤其是因为新技术带来了新挑战。
气候变化和核战争从某种程度上讲都是容易解决的问题,因为我们不想看到它们带来的灾难,我们会去预防它们,而这非常容易做到。也许并不是每个人都同意,它们是真正的威胁,也许并不是每个人都知道如何预防它们,但理论上,没人会说气候变化是件好事,任由其发展吧。是的,没人会说我喜欢核战争。
但破坏性技术,比如,如何对待AI和生物工程,我们没有一个绝对一致的目标。我的意思是,有些人的科技梦想可能是其他人的梦魇。当你思考像自由意志、改变人性本身这样的问题时,我担心我们还不具备相应的哲学思想来探讨这些问题,或者确切理解我们将走向怎样的未来。
我非常非常想听听你对这些问题的看法,我们是否需要根据我们现在所了解的人性展开一场全新的哲学革命?平克:是的,所以我写了一本书,标题里就提到了“启蒙”。有些人将其误解为呼吁人们回到我们都熟知的启蒙时期的智慧,并用那些智慧作为某种世俗宗教的基础,我想没有比这更大的误解了。
我认为,启蒙时期的哲学家们正是第一拨拒斥这种想法的人,因为启蒙运动所强调的,或者至少它的理想中值得永恒保留的东西,我想应该是理性。我们不可能去真正争论我们是否应该运用理性,因为如果我们真的为此进行争论,我们就会运用理性,这是一场你无法摆脱理性的游戏,因为如果你想探讨为什么应该摆脱理性,你就是在运用理性。
类似地,启蒙运动的另一个核心观点,我认为也是不容辩驳的,那就是同理心,或者也许客观性这一概念,是谈论如下事实的一种更好的表述方式:我不能把我的利益放在你的利益之前,只是因为我很自私,而你不自私,然后我还希望持续对话,这显然就是一种不对称的利益关系,这种情况就发生在印度的社会文化中。
赫拉利:但如果你参与其他人类行为,就并不必然出现这种情况。
平克:是的,如果你卷入了一场所有人对所有人的战争,你不想征召盟友,你不想说服任何人支持你,那么你可能完全就是一个神经病。问题在于,其他人就会把你当成动物或者需要扑灭的火,而你也不可能说服他们对你表示同情。
只要你开始了一场对话,你就会用到理性,就会用到对称性,这意味着要具备某种程度的同理心。这些启蒙理念都不会随着时间而改变,它们正是我们建构融贯的道德和政治哲学的基石。
实际上,我们现在需要超越18世纪的某些思想,因为他们不知道类似演化、熵、信息等概念。有意思的是,他们确实预见到了某些我们当前仍在探讨的问题,比如,霍布斯就认为心智是一种机械系统,而笛卡儿想知道,我们怎么知道我们是否正在被一个拥有完善信息的恶魔所操控。因此,有些观点即使是那个时候提出来的,也并不意味着,要把这种启蒙理想建立在18世纪的教条之上,我们必须持续发展那些观点。
我认为我们已经出现了新的伦理观,而这种伦理观很难在18世纪得到探讨,比如,有效利他主义,根据数据提供的信息,以最有效的方式改善人类福祉。也许边沁、密尔也许有与此类似的大致观点,但要聚合大量数据,并见证你的利他行为能做到怎样的最佳程度,这种观点完全是21世纪的。
赫拉利:把这个问题再深入一下,我的意思是,自18世纪以来直到20世纪,我们在某种程度上是无知的,没人真正理解人类自身,所以关于自由意志、操纵以及在政治权力问题上,人们都持有如下假设:没人能真正了解我,政府不能,某些外部系统不能,所以他们能在多大程度上操控我呢?
因此,这一整套关于个人自治和个人自由意志的得到捍卫的观念,即便并不是正确的,即便人们在19、20世纪没有自由意志,从实践角度讲,你并不会因为相信人们根据自由意志采取行动而付出任何代价,因为没人真正理解大脑中发生了什么。
但我担心,我们已经非常非常接近于拐点,一种实践上的拐点,当你有一种外部系统,它能比我们自己更了解我,了解很多人。这是历史上从未有过的全新景象,这会导致我们过往大多数的伦理和哲学理念,尤其涉及政治上的理念变得过时,并且我们确实没有能够取代它们的理念。
平克:有些想法是我们能够设想的。几百年前,笛卡儿设想了一种可以操控我们感官的恶魔,让我们产生这个世界并不存在的幻觉,我们怎么知道我们不是恶魔的牺牲品呢?
平克:他的看法是上帝不会欺骗我们,所以他提出的这个问题并没有得到解决,但其他人会运用科学理性来证实或证伪,从而在认知上产生渐进式进步。我的意思是,如果我们是恶魔的牺牲品,一定有办法知道这一点。
赫拉利:但这是一个极端的观点,就像今天我们会说,我怎么知道我不是一个计算机模拟物呢。
赫拉利:当然,答案是你不可能知道,而且这个问题也并不重要。但从实践角度来讲,我知道这是一个哲学难题,每天都在变得更加实际的实践问题在于,我怎么知道我的欲望和观点没有被政府和公司所操控?
平克:我明白了,不过我的意思是,否认自由意志的存在也是在18世纪由大卫·休谟提出来的问题所引发的,他提出是否真的存在某些行为原因是没有原因的。
我想说几句题外话,尽管我们在很多问题上都有共识,但也许我们有分歧的地方在于,我怀疑人工智能、人类基因工程、心理操控技术的发展究竟会有多快。
我想也许是因为我主要还是一个认知心理学家,并且对行为遗传学也很感兴趣,因此我认为我对技术进步没那么乐观,而对人类境况反而更乐观。
我不认为人类基因工程会取得很大进展,因为我们已经了解了基因工作的方式。那种认为我们可以找到让你提升10个IQ值、或者让你多活10年、让你更具音乐天赋的基因的传统观念是错误的。
我们现在知道,那些基因是不存在的,即便那些特征是高度可遗传的。有时候我们会提到行为遗传学第四定律,也即是人类可遗传特征是数千个基因的共同产物,每个基因只在其中发挥很小很小的作用,这意味着父母不可能将单一基因放进孩子的基因里,从而提高他们的运动能力。还有数千个基因可以增加错误的几率。既然没有单一基因可以完成单一任务,几乎所有基因都会存在均值回归现象,它们会产生诸多效应,你只是不知道某些基因优势是否会伴随着某些风险因素。如果你想让大脑变得更高效,也许你就会增加患脑癌的风险,因为脑细胞有可能扩散得更快。
另外,考虑到人类有很多神经质特征和缺陷,它们通常会阻碍技术发展的进程,比如,转基因食品,所有证据都表明,如果我们使用转基因食品,我们的生活将变得更好,我们可以通过基因编辑让这些食物有更强的疾病免疫力,从而减少对杀虫剂的使用。但人们非常不理性,对转基因食品相当反感,所以,你买了一个果仁场面包,上面有非转基因食品标签,如果人们不愿意让孩子吃转基因苹果酱,我不相信他们会愿意拥有一个经过基因编辑的孩子。所以基于这些原因,我认为即使有这样的威胁,它离我们也还非常遥远。赫拉利:过去10年,由于对基因的重新认识,基因编辑对未来的影响确实有所减弱,但取得进展的是人工智能领域,以及可以监控人们行为的诸多系统,比如,社会信用系统,该系统正在一些国家进行测试。
我不认为我们很快会看到基因编辑能够制造出超人,但确实存在一种可能,我们将在管制社会看到某种版本的“天眼”专断,它基于对人们所做的大量监测分析。我也不认为AI已经发展得足够快,从而完美超越人类。
但关键在于,你不需要完美,你只需要做到比平均水平更好就行了。换句话说,我同意AI的发展速度远没有人们想象的那么快,但人类的演化也远没有人们想象的那么快,所以,我们评判AI的标准并不是它是否完美,而是是否比人类更强,这是一个非常非常低的标准。
赫拉利:所以,如果你有类似的社会信用系统,那么整个治理体系和社会层面在未来10年或20年将会发生什么呢?每个人随时都被监测,你所做的一切事情都会被记录到系统中,使得系统会对你越来越了解。
临界点在于,当系统比你更了解你自己,并知道如何预测你的行为,如何操控你的情绪,等等,当然这些不完全是坏事,它们可以被用于正道,比如,用于医疗健康,用于改进我们人生中所做的很多决策,但它有很大的潜在风险,不仅仅在于21世纪的治理者会如何运用它,我认为它还会影响人们的求职。
今天的求职过程是,你发送简历,某人读到你的简历,然后你们进行了一场10分钟的面试。但在未来10年或20年,我们可能会来到这样一个时点:整个人生都会变成一场漫长而又压力的工作面试,因为你人生中的每个时刻,你在幼儿园的行为会被录像,你在海边会见朋友,音视频数据会被收集,然后5年或10年后你申请某个大学或其他工作,你在幼儿园以及你在海边与朋友的行为都会进入算法系统,因此我们可以把整个人生看成是一场漫长的工作面试。
平克:这是有可能出现的,但我们可以回想起另一个反乌托邦工程:《1984》,是的,这本书写于1948年的英国,到了1984年,离1948年已经35年了,但是当年Orwell不可能预见到人工智能,但他的确想到了电视屏幕,每个房间都装有电视摄像头,这个技术本身并不先进,我的意思是,在每个房间都有可能装着由公共部门监测的摄像头,公共部门可以在几十年前就做到这一点,但它们没这么做,至少在西方国家没有。
所以,问题就在于,为什么西方国家没这么做?部分原因在于,它们没有这么做的意愿,因为一旦这么做可能会引发抗议,在民主国家,政府很难成功做到这一点。
赫拉利:另一个很重要的问题是,你对数据毫无掌控力。我的意思是,如果在80年代,比如说,有国家决定在每个房间都装上摄像头,我们假设他们可以做到这一点。
赫拉利:是的,当时的KGB人员还不够多,不可能察看每个人的行为记录,即便你有一个非常能干的KGB人员,可以察看所有人的行为记录,但该他也需要写很长的文件,然后你需要另一个KGB人员收集所有这些文件,然后再进行筛查,但谁又来监督所有的KGB人员呢,这又成了一个问题。
现在,有了大数据,问题就好办多了。每个房间都装有AI,你就不需要那些KGB人员来写文件了,你可以让机器来处理这些数据,这并不是科幻小说中的情节,它已经发生在世界各地。
它也发生在我的祖国以色列,因为以色列对占领区运作得非常成功,占领区内巴以双方的伤亡人数并不多,这是因为以色列运用了先进的算法对该区域实施了监控,对数百万人的数据进行检视,这完全改变了游戏规则。
平克:是的,你已经阐述了两个案例,它们非常接近于管制社会,比如,被占领的约旦河西岸和某国。你举的例子是管制社会或占领统治存在的问题。
关键问题在于,如何防止你的祖国变成某国,挑战也许并不在于科技,而在于如何不让民主褪色。
问题在于,没有生活在占领区而是生活在民主社会的普通民众要让民主变得足够健康,足以反抗这种持续监控,即便我们有了监控技术,摄像头可以被装在每个房间,但民主国家可以做到不让持续监控的情况实际发生。
赫拉利:我认为,我们今天看到的民主有点走偏了方向,也即是所谓的“监控Capitalism”,我们看到有大量的监控存在,甚至在美国也是如此,它可能不是被政府实施的,而是被私人公司,民众对于这种监控非常宽容,但最终结果是非常相似的。
如果一个公司或一个公共部门对你非常了解,那就会成为历史游戏规则的改变者,很多反Utopia的科幻小说场景以及所有哲学思想实验突然就会变成非常现实的日常生活中的工程决策。
再回到哲学问题,我的主要担心在于,我们目前还没有哲学资源来应对这些问题,因为人们总是反复诉诸于古典启蒙思想,强调言论自由,个人权利自由,让民主体制正常运转,但我认为技术会成为真正的游戏规则改变者。
人们经常会说,自民体制的运转是相对成功的,这是因为民主国家很好地使用了技术,我的意思是,我认为20世纪自民社会以及自由市场能够打败管制社会的原因在于,管制国家做了一些技术上无法实现的事情。
如果你试图把所有数据都收集到一个集中的地方,并在那里进行分析,进行所有的决策,也不需要让人来做文书工作,那么民主社会的优势就消失了,如果你用机器学习算法取代人们来处理文书,那么相比民主国家,管制政府很快就会具备技术优势。
我们所成长的环境很容易让我们认为,做有效率的事情本身就意味着是在做符合伦理的事情,我们不需要在伦理与效率之间做选择,我们仍然可以谈论多元化,而这种多元化既是有效率的,也是有伦理的,比如,你的公司有更多元的文化和员工,所以将权力和信息传递给个人和机构既满足效率,也符合伦理。
但如果效率和伦理分道扬镳会发生什么呢,比如,管制国家会变得非常高效,但它仍然是非常不合伦理的,我们所持有的伦理约束和价值观能否在那样的情况下继续有效呢?
平克:我认为,高效与伦理之间的平衡是现实社会中的内在特征,我们总是面临这样的权衡,甚至用纸和笔都能做一些更简单的计算。
我的意思是,以刑事审判系统为例,你可以基于他们的种族、年龄、前科等统计数据改变宣判某人有罪的概率,但法庭有自己的规则,只能依据当前可以获得的信息来做判决,当然,有些信息是可以获得的,但有些不能。这是我们不得不面对的问题,因为这就是伦理本身的特点,它需要寻求平衡。
也许,我们本可以让判决变得更高效,但实际上并没有做到,因为我们以前从来没考虑过这个问题,我们经常为了伦理而牺牲效率,但在未来提升效率的确变得更紧迫了。
当谈到基于算法预测人类行为,这并不是一个新想法,因为莱布尼茨就曾经设想过人类大脑类似于一台机械设备,因此可以受到物理规律的干预,但那只是一种猜想,但我们该如何应对这种猜想变得越来越紧迫了。
我认为,我们还有足够充分的时间来应对,因为即便人类大脑就是一个机械的物理系统,我也相信是这样一个系统,它也是极为复杂的,我认为我们离具备精确操控它的能力还差得很远。
即便我们有了人工智能算法,现有的AI算法非常擅长于玩电子游戏,识别字幕和图片,不过一旦涉及他们未受过训练的低概率的组合事件,它们的表现就很糟糕,甚至你认为相当简单的事情,比如,自动驾驶汽车,只需要3个自由度的动作(译者注:人体胳膊的关节处可以做出三十种非连续运动,每一种被称为一个“自由度”。参见本人翻译的《纽约客》特稿:自由度:如何用意念控制机器?),打方向盘、踩油门和刹车等,它们仍然做得不够好,我的意思是,人们以为它们10年前就应该得到应用了,但我们至今仍没有使用自动驾驶汽车,即便是简单的问题实际上也比我们认为的要难得多。
当谈到操控人类行为,问题会变得更复杂,这并不是因为人类行为有多么神秘或者有多么神奇,虽然人类大脑是一种器官,但它的特点是极为非线性的、混乱的和不可预测的,我不认为能够操控我们行为的算法会很快出现。
甚至始于2016年的用假新闻去操控总统选举这件事,听起来很可怕,但对社交媒体上的假新闻效应的研究发现,这种负面效应是非常非常小的,可能不足以影响选举结果,因为大多数假新闻只有非常具有党派偏见的人才会相信,这些人的看法不会因为新闻真假发生变化,所以,操控人类行为并不像我们在反乌托邦梦魇中所担心的那么容易。
赫拉利:我当然不认为你能完全精确操控一个人的行为,但这种竞争不是与不会犯错的机器之间的竞争,而是与人类做出的决策之间的竞争。是的,AI现在还会做很多蠢事,但人类也会做很多蠢事,所以你需要与AI竞争。
一个很好的案例是招聘员工,现在我要面试10个员工,我每次要花15分钟面试一个人,我需要形成对应聘者的印象,我要读他们写的两页简历,基于这些信息,我试图对应聘者形成基本的认知。
赫拉利:但AI可以比人做得好得多得多,即使在今天或者不远的将来,AI可以检视更多的数据,更好地识别相关模式。所以,我并不是在想象科幻小说场景,也即是AI可以精确操控你日常生活中的每个行为。我只是担心一个简单得多的问题,也就是将越来越多的权力转移给了AI,让AI来决定谁能上这所大学,谁能获得这份工作,跟谁约会。
赫拉利:我不认为我们离这些场景非常遥远,这倒不是因为AI已经做得很好了,而是因为人类做得太糟糕了。
赫拉利:人类做了很多愚蠢的决定,一旦权力发生转移,它就会彻底改变整个人类社会。我所设想的场景就是,整个人类生活就是一场漫长的工作面试,因为你所能做的任何事情都会遇到AI的挑战,特别是AI可以决定是否给你一份工作。
心理学中有一个最经得起考验的研究,精算决策或者统计决策比人们的直觉决策更可靠,这一有趣的研究成果可以追溯到1952年。
抛开AI不论,你可以用5个预测变量构建一个简单的回归方程,你赋予这些变量不同权重,把它们加总,所做出的决策比常人所做的决策要可靠得多,无论是诊断疾病,还是离开监狱的罪犯重返监狱的概率,他们之后的生活如何。
我们在将近70年前就知道这项研究成果了,但我们实际上不会去做我们应该做的更理性的事情,比如为了不搞砸面试,我们可以找出5个预测变量,用公式来帮助我们决策,但我们并没有这么做,即使我们在20、40年前就可以这么做。
所以,人类有能力以理性或非理性的方式决定弃最好的算法于不顾,现在我们仍在这么做,也许并不明智,也许我们应该依赖算法,因为我们知道类似面试或其他类型的主观印象会产生偏见或错误,包括种族偏见,但我们没有把问题交由算法解决,即便多年前我们就可以这么做。这意味着,即便算法变得更好了,我们也不见得一定会把决策交给算法来做,也许我们应该更多地试着这么去做。
赫拉利:是的,需要时间让人们跟上时代变化。也许你只需要让一个国家率先垂范,如果结果非常高效,情况很快就会散播开来,越来越多的人会效仿。实际上,有两个地方在60、70年前就这么做了,只不过失败了,这给了我们一种顽固的信心,认为他们绝不可能再次成功,因为那么做是行不通的。但如果一个新周期开始了,出现了完全不同的技术,那么我不认为我们可以志得意满。
平克:不,没人可以志得意满。我会反驳说,只要允许人们可以自由移居,人们可以离开那样的社会,去到更自由的地方,一些国家的留学生就留在了欧洲和美国,并且很享受在那里的生活。
主持人:我们只剩几分钟了,我想换个换题,请你们谈一谈今天西方国家的学术氛围,因为我们前面讨论的话题与学校和科学界中的学术生活有关,也许你们可以指出西方国家学术氛围存在的一些问题,也许你们可以提一些解决问题的建议,如何改善当今世界的学术氛围和思潮。
平克:当然,值得关注的问题是学术开放,大学应该促进学术开放。现在大学的意识形态过于狭隘,大学里的意识形态变得越来越左倾。有统计表明,在多数学校,信奉左翼理论的教授数量比信奉保守主义的教授更多。
校园里也出现了压制公开辩论的丑闻事件。我和其他一些人已经对此提出了反对意见,至于未来年轻人会有怎样的价值观,一方面存在着乐观主义的因素,因为我们这类人一直在担忧管制民粹主义,而这种民粹思想是老一代的意识形态,支持这种意识形态的人的数量在年轻人中大幅下滑,比如,20岁左右的年轻人很少有支持特朗普的。
问题在于,年轻一代的意识形态是否关注社会正义冲突,对开放社会的理性辩论是否会将种族冲突问题、性权利冲突问题纳入其中。我们不知道答案会如何,我也不知道在这个问题上我是否是一个乐观主义者。
赫拉利:我认为,我会说,我们不应该将美国文化冲突泛化到全球文化冲突,我对美国大学里发生的情况并不熟悉,但更为糟糕的事情正发生在类似匈牙利、“战斗民族”之类的国家,压制的方向完全不同,整个院系都被关掉,这是我们需要了解的事情。
我想提出一种更普遍的看法,科学家和学者可能不喜欢我的看法,但他们应该有义务更加关心政治领域,因为这个世界越来越多的问题都与科学和技术进步以及对科学的理解有关。今日世界的主要变化因素在于技术,无论是核技术、气候变化、人工智能,还是生物工程,为了解决这些问题,你需要有科学上的理解,并且科学家最新的发现和发明可以非常快地改变政治和经济图景。
当然这并不是什么全新的观点,科学技术总是在改变世界,但我认为当今科学技术进步的规模和速度是史无前例的,从实验室到市场再到国会,这三者之间的距离已经越来越短。
大多数科学家并不喜欢关心政治,因为他们不想涉足政治,但我认为他们有着越来越大的责任,首先是要教育公众,同时还要教育政治系统。现在,我们已经在气候变化问题上看到了这一情况。在很多情况下,让科学政治化是令人担忧的,但我认为别无他法。气候变化涉及政治问题,越来越多的学科也需要政治参与。
回到刚才提到的匈牙利和“战斗民族”当前对社会科学院系的压制,性别研究已经受到了政府谴责,因为它不属于自然科学,属于政治问题,观念研究问题,但这种压制会出现在越来越多的学科那里。对于建立性别研究学科,我们不该放弃抗争,因为同样的情况会发生在越来越多的院系身上。
气候科学需要被政治化,很快计算机科学也需要被政治化,我认为某种程度上,程序员和计算机科学家们比其他人对社会的改变更大,但他们不具备必要的伦理学和政治学知识。
首先,科学家需要得到这方面的教育,但他们并不需要拿到这些学科的博士,他们需要更好地了解这个世界正在和即将发生什么变化,因为这与政治决策密切相关。
其次,他们必须对自己的科研成果承担更大的责任,比如,如果你是一个工程师,正在研究某个领域的某种新工具,我会说,花几分钟或几个小时,想一想世界上最让你感到恐惧的那些政治家,然后想一想他或她会如何使用我的发明成果。工程师和企业家的一般倾向是去设想最好的场景,所以时不时停下来想想让你最恐惧的政治家会如何使用我的发明,然后再思考你应该如何进行你的发明和创造。
主持人:感谢两位用这美好的时光为我们奉上了丰盛而有趣的对话。
本文来源于“心智与实在”公号,如需转载,请联系该公众号。
—End—
点击下列标题,延伸阅读:
----------------------------------
混乱时代 阅读常识
长按二维码关注!