《未来简史》作者今日演讲:人类将会失去这些力量 (全文)
X博士:昨天参与了包不同先生的新零售与创始人IP班,收获颇丰。清华周立教授做研究的时候每天可以看一百个公司的报表,需要查阅这一百家的收入利润,产品以及股东情况。这么高强度的思考难怪可以不断的对课件推陈出新,学习真的是自带加速度的,当你不断的把底层知识结构化,你去消化新知识的时候不自觉的就纳入到你的思维框架当中形成自身的一部分了!
尤瓦尔 · 赫拉利 | 耶路撒冷希伯来大学历史系教授,现象级畅销书《人类简史》、《未来简史》作者。
活动来源:7月6日,“未来进化”首届 XWorld大会,由中信出版集团、百分点主办。笔记侠作为合作方,经审阅授权发布。中信出版集团供图,摄影师:朱方刚 。
今天我要跟大家介绍的可能是我们这个时代最著名、重要的科学发现,或者可以说是整个21世纪人类历史上最重要的一个演变,我们称之为“人工智能”。
一、有机生命会逐步被无机生命所替代
人工智能不仅仅是21世纪最重要的科学进化,也不只是我们人类历史上最重要的科学进化,甚至是整个生命创始以来最重要的原则。有机生命根本的规则没有发生变化,与过去的40亿年当中都是保持一致的。过去40亿年当中,所有生命都是按照优胜劣汰的原则进行演变,所有的生命完全按照有有机化学的规则进行了演化。
因为我们的生命是有机化合物组成,不管你是巨大的恐龙还是一个阿米巴虫,还是一个土豆,还是一个人,都是按照物竞天择的规则,都是有机化合物组成的,我们完全遵守过去40亿年有机化学规律的演变。
这样一个40亿年的规则将会随着人工智能出现而发生根本变化,人工智能将替代物竞天择自然选择的结果终止。我们的生命将根据计算机智能设计,脱离原先有机化合物的限制,脱离原先有机化学的限制,突破原先的限制而进入一个无机的世界。
在我们有生之年,有可能看到有机生命会逐步被无机生命所替代。我们会逐步看到有机化学规律和无机智慧性的生命形式并存。原先我们是碳基的,未来生命形式当中,硅基会成为主要的生命形式。这是我们有生命以来的40亿年当中第一次出现的一个重大变局。
二、选择权将逐步让渡给人工智能
在过去的40亿年当中,大家想象一下,所有生命都是局限在地球这样一个行星上面,没有一个生命、阿米巴虫或者任何一种生命形式有能力突破我们这样一个行星(地球),去其他的星系进行殖民。这是因为自然选择规律让所有有机物、有机体局限在地球中,一个非常独特的环境——温度、气候、阳光、重力。
一旦我们从原先有机的生命形态转变成为无机的生命形态,比如机器人,人工智能计算机等,那么环境就没有限制了。机器人在火星上面也可以生存,而人类不可以。我们在科幻小说或者电影当中看到的一些场景,现在对于人类来说仍然是非常困难的。因为我们这样一个有机生命体在地球以外的外太空是很难生存的,但是计算机机器人、人工智能相对而言,比较容易能够在地球以外的其他星球和星系中生存。
因此,在地球出现生命以来的40亿年,我们有可能突破地球的限制而进入到其它星系,不是人类,而是人工智能可以做到这一点。另外一个重大突破性的演变,也是在我们有生之年可以看到的,事实上大家已经从某种程度上经历了这样一种变革。
什么样的变革呢?我们人类上万年以来在演变过程当中获得了越来越多的力量,在21世纪的时候人类将会失去这些力量,这些力量将逐步从我们这个物种让渡给人工智能。比如世界上在发生什么,甚至我们自己生命在发生什么,这些权力或者我们掌控的力量,不管重要的还是不重要的,将会逐步拱手让给计算机或者人工智能的这些算法。
1、人工智能可以了解你的喜好
举一个很简单的例子,比如你下一个月读哪一本书,这是我们生活当中很简单的决定,我们可以有很多的选择。以前很多人会依赖自己的感觉、喜好、口味,或者依赖朋友、家人的推荐。选择哪一本书阅读,目前取决于我们自己的感觉、喜好、口味,但是进入21世纪以后,我们逐步把阅读什么书,购买什么书这样的权力让渡给了电脑、计算机、算法、让渡给了亚马逊网站。
所以当我们进入到亚马逊未来的书店中,有一个算法告诉你:我一直在跟踪你,我一直在收集你的数据,你喜欢什么书、不喜欢什么书,我都知道。亚马逊的算法会根据它对你的了解,以及它对于上千万读者的了解向你推荐书籍。
但这个仍然处于初级状态,这只是人工智能迈出的一小步,亚马逊网站对你的算法仍然非常有限。进入到下一个阶段,今天已经发生,我们看到这样的算法越来越了解你。今天越来越多的人看书不是看纸版书,而是阅读电子书,在手机看书或者一些电子阅读器上面看书。当你在这个设备上读这些书的时候,这个设备也在“读”你。
这是有史以来第一次不仅仅只是人类在阅读一本书,当你在读一本书时,书同时也在“读”你。你的智能电话、智能平板在跟踪你,监测你,搜集你的数据,这些设备可以了解到哪一页你会很快地翻过去,哪一页你是慢慢阅读的。
这些数据会给出一些结果:哪些对你来说是无趣的章节,哪些是你喜欢的章节,它也知道哪一页你不读了。当我购买了别人推荐的书,读后虽然不喜欢了,但我还是会告诉每一个人这本书非常好。为什么?因为我不想丢脸,别人都说这本书很好。要知道这样只能骗了别人,计算机这个算法是不会被你骗的,它知道你读到第五页不读了,或者读到第42页的时候不喜欢了。
2、人工智能可以体会你的情绪
以上是非常初步的功能,下一步它的设备可以连接面部识别的一个软件。今天面部识别的算法很初级,但是慢慢地,它会学会通过看你脸部的表情判断你喜好。这就跟我们看别人一样,我知道你的表情背后掩盖着什么样的感情,什么样的感觉。通过观察你的面部表情,肌肉的变化就会知道你是在笑还是在生气,或者只是无聊了。
这是人类用来认知情绪的方式,今天计算机也在学会、提高对于情绪的识别能力,甚至比人类做得更好。他们能够找到面部活动的规律,并且用这种规律来分析和评判一个人目前的情绪状态是怎样。我们把这样的一个软件和kindle这样的电子阅读器结合在一起,kindle能够判断你正在阅读的书对你产生的情绪影响。
你在看书的时候笑了,这时候它知道你笑了;你看到某一章生气了,它知道你生气了。我作为一个作者,经常想象书中的哪一章哪一节,读者会看着看着就笑了,他们会不会理解我埋在文中的笑点,能不能看出我写这段文字是表达讽刺。我不知道,但是亚马逊会知道。如果87.3%的读者在读到这一段的时候,这个笑话没有笑说明这不是一个有效的笑话。
3、人工智能可以提出适合你的建议
最后一步把设备和生物识别传感器结合在一起,这些生物识别传感器是植入在体内,这不是科幻小说,已经实实在在用了。生物特征传感器能够持续不断地监控我身体各种生物指征。我现在给大家做讲演,我的血压心率是多少,血糖水平或者我的激素水平是多少。
但是你不知道,计算机通过刚才讲的这样的技术能够知道我每一刻血压的变化。根据这样的数据,我们大家想象一下你正在读一本非常长的书,比如托尔斯泰的《战争与和平》,当你读完的时候,实际大部分情节都忘了,但是亚马逊、腾讯或者百度任何一家公司,它的电子阅读器通过生物识别传感器记录了你阅读这本书的状况。
在我读完《战争与和平》之后,这个设备就知道我是一个怎样的人以及性格特点是什么。根据这样的一种知识和了解,设备不光能够向我推荐书籍,而且也能够围绕着我生活中更加重要的决策,向我做出建议。比方我应该学什么,该生活在哪,应该在哪儿上班,甚至和谁结婚。
人生当中最重要的决定之一,可能就是你的一生要和谁度过——伴侣的选择。在选择伴侣这件事上,很多人犯过糟糕的错误,我们主要赖于自己的感觉以及亲友家长的建议。现在有对情侣,该结婚还是分手?二三十年以后,你可能可以问亚马逊百度、腾讯这样的问题,今天你得靠自己的感觉和亲友的意见。
那时候,亚马逊等公司对于我个人、和我相处的人已经如此了解,你可以问它们的建议。你迄今为止所有的邮件、微信消息、手机通话它都在追踪,看书、看电影时,它在监控你血压心率的变化;你每次约会的时候,它也在监控你约会水平的变化。
它对于你个人所有信息的了解以及伴侣的了解,对几百万人的成功或不成功的伴侣关系的理解,可以告诉你:现在你和你的男朋友或者女朋友结婚的概率是90%。因为在你一生当中找不到更好的伴侣了,因为它如此地了解你,你心里想的可能是:我有能力找到一个更好的伴侣,更好看更漂亮的伴侣。它会知道你这样想的错误来源所在:你对外表太看重了。
你在选择的时候,考虑的因素还是五万年前我们的远祖祖先在非洲的大草原上择偶的标准。现在机器会告诉你:根据我的统计数据,即使外表对于关系的成功与否具一定的重要性,但是这个重要性是比较小的,可能只占整体权重的10%,也就是在一个成功的关系当中只有10%是取决于外表、美貌。
机器会告诉你:我已经看到了这样的现实。从长远来看,你和现在这个人在一起会是最幸福的,你应该和他结婚。
在这样的一种设想当中,决策的权威、权力已经转移了,从人类手中移交给了算法。我们在这需要理解的是:做出决定的能力就像一组肌肉一样,这样的肌肉你不用的话就会退化,你对计算机信任越多,依靠人工智能来做决定越多,你就会失去自己做决定的能力。
活动现场
给大家举一个简单的例子:找路。在北京找一条路,去一个地方,比如火车站,过去我们怎么找路?基于自己的本能知识经验,到一个十字路口该左转还是右转,你会依赖于自己的经验。今天我们越来越多的人依赖智能手机、各种各样的GPS、地图的应用。
你的本能告诉你应该右转,但是智能手机告诉你左转,你越来越多地相信智能手机,而不是直觉。经过一段时间之后,你的认路、找路能力就丧失了,即使你还想这样做。在北京这样的空间找路、认路,今天我们靠机器,二十年以后我们在自己的人生当中碰到了这样的十字路口要做决策的时候,很多人会用智能手机、人工智能来做决定,他们会告诉你该怎么做。
三、人工智能产生的革命性影响
随着人工智能变得越来越好,有可能人工智能会把人从就业市场当中挤出去,对于整个社会的经济和政治都产生革命性的影响。
1、减少交通事故
十年前,如果说计算机驾驶的技术比人更好,大家会觉得这是一部科幻小说。但是今天所有专家都达成了共识。可能再过一两年时间,计算机就能够比人类驾驶员的平均水平要好得多。届时数以百万计的出租车、卡车、公交车司机会失业,让位于自动驾驶汽车。
它不仅开起来好,安全性要高得多。今天世界上汽车事故造成的死亡人数比战争暴力还要多一倍。战争、恐怖主义犯罪,每年造成60-70万人死亡,汽车每年造成130万人死亡。大部分汽车事故都是由于人为造成的,比如酒驾,开车的时候打电话,或者睡着了,或者发信息。
今天交通事故当中人是主要的因素,有了人工智能就不会有这样的问题。自动驾驶的汽车永远不会喝酒,自动驾驶的汽车也不会在开车的时候睡着了,也不可能在开车的时候接打电话,这样自动驾驶汽车就能替代人员驾驶员的作用。
2、解决道德伦理上的难题
除此之外,人工智能也能做一些关于伦理道德的决定。比方自动驾驶汽车开的过程当中,突然前方有两个孩子在踢球,这个时候负责自动驾驶的计算机通过算法可算出避免撞死这两个孩子的办法是快速转向另一条车道;另一个解决方案可能就是让客户、车厂来决定。
比方丰田让客户决定自己要选用哪一款车,有一款车碰到这样的情况会决定让你死,那么另外一款车会决定刹车但是仍然会撞死前面两个孩子,你会买哪一款车,选哪一种算法?世界上最优秀哲学家先把这样的程序做好,我们在理论上考虑的所有东西有各种各样的理论,但是这些理论对于遇到危机时的作用甚少。
大家可以说道德的选择是牺牲自己的生命救前方的孩子,但是一旦你真正上路了,在几秒内必须做出这个决定时,你就会忘记刚才的结论,会根据你的本能情绪来采取行动。
那些理论哲学上的行为之间和人类实际行为是有巨大差距的,但是有了计算机人工智能,我们就能解决这个问题。我们可以把世界上最优秀的哲学家集合在一起,让他们坐在一个房间,给他们一年时间讨论道德上的难题,不管最终拿出了什么方案,就把这个方案写到自动驾驶汽车的程序当中。
谈到伦理道德决策,人工智能也有可能是平均意义上比人类更好,因为这意味着这样的自动驾驶汽车,假设每一辆车里面驾驶员都是孔子,这样对于人类驾驶员来说他们被人工智能替代之后,当然一方面会带来很多优势:更加安全、更加便利。
与此同时另一方面会使决策权从人民大众手中转向人数很少的一批精英的手中。过去这样的权力和福利是由数以百万计出租车司机,公交司机,卡车司机来分享,现在不是,现在都交给了人工智能,他们就掌握了世界上所有的出租车、卡车、公交车。
3、做更优秀的医生
不光是公交车司机,甚至是医生这个工作都会发生变化,在人工智能当中这样的事情已经开始发生。人工智能在疾病诊断方面能够做得更好,提出治疗方案比平均水平的医生更好,普通医生的知识和能力是有限的,不可能每天都在更新知识,不可能一个人知道全世界所有的疾病药物和研发结果。
对于一个医生来说拥有的数据是有限的,但是对于人工智能来说这都是无可限量的,可以收集信息分析信息,熟知全世界所有疾病,能够24小时不间断地跟踪一个患者。
今天我的私人医生在以色列每年给我做一次体检,他和我报告我的健康状况。有了人工智能之后相当于你身边就有一个医生,随时追踪你的血压,即使我现在在中国,人工智能应用也会像一个医生一样随时了解我的健康状况,每0.5秒了解一下我血液的状态。
这不再是每年做一次体检,意味着对于癌症这样的疾病不是等到癌细胞扩散时再去医院检查,而是在刚刚出现癌细胞的时候就能够被发现。即使我没有不好的感觉,但是人工智能已经发现了。
因此,人工智能会发现癌症早期的症状提出诊疗方案,一个好医生不仅仅是了解你病情,还需要一些情感方面的了解:病人是不是害怕了,或者生气了,愤怒了等等。所以有人认为人工智能做不到,事实上人工智能比人类医生还能够抚慰病人心灵。
活动现场
人类医生怎么判断呢?可能看你的面部表情,某一个声音语调的变化,但是人工智能可以更加精准地分析你的面部表情,说话的语调变化。它能更加精准地比人类医生了解病人情绪的变化,监控某一个病人内部身体情绪的变化。有时候病人自己都不知道自己是什么状态,但是人工智能可以,因为他在不断监控你的心跳血压状况等等。当然想要创造出这样一个人工智能医生,还有很多问题需要去解决,很多技术难题需要突破。
我们技术上只要实现一次突破,就可以解决一切的问题。人工医生怎么培训?可能需要八年大学硕博连读,临床实习之后才会培训出一个合格的医生来。十年之后,我们花了这么多资源只不过培养出了一名人类医生,这时候培养第二名又需要花十年时间。
但人工智能只要技术上实现一次突破,你拿到的不是一个机器医生而是无穷多的人工智能医生,他们可以被复制。这个比培训人类医生要效率高得多,虽然一开始要花数百万亿美元研发,但是一旦研发出来就可以无穷复制。
随着技术发展我们可以用机器替代出租车、司机、医生其他职业,人工智能逐步都可以替代,这时候出现一个非常大的人类社会学问题。
正如第一次工业革命使得城市无产阶级出现,人工智能的出现会出现一个新的阶层,就是无用阶层。数以亿计的人将找不到工作,他没有办法和计算机人工智能竞争,对这些人来说他已经丧失了经济的价值,没有经济价值也就没有政治权力,这会对社会、政治、经济方面产生巨大的问题。
四、人工智能时代,你该教孩子学会什么
当然大家说会出现一些新的职业,但你没有办法确定会出现哪些新的职业替代那些正在消失或者被机器抢走的职业。我们可以说人会自己不断地学习,不再需要卡车司机、出租车司机,会有新的职业设计未来的事业,设计3D计算机游戏。
你想一下一个50岁的出租车司机失业之后,他有多大能力去培养自己?对于50岁的出租车司机来说,他要重新培养自己的能力,这样就太晚了。这样的革命非常危险,它会从根本上改变我们的教育体系。
今天,你会教孩子什么?今天在学校里我们应该教孩子什么?大学里面应该教孩子什么?让他们能够在二三十年之后适应当时的就业市场。
事实上我们没有人能够描述三十年后、二十年后的就业市场,换句话说我们现在的教育系统没有办法了解今天应该教我们的孩子什么。今天我们的孩子在学校里面学到的所有知识二三十年后完全无用,我们不知道现在应该教他们什么,才能够让他们在二三十年后找到工作。
即使我们会产生新的工作,二三十年后可能产生新的工作,但是今天孩子到那天是不具备那些新工作的就业能力的。那么这个时候出现了数百万、数千万甚至上亿失业人口,他们丧失了经济价值,这会产生进一步威胁。人类未来的精英阶层是否还会有动力照顾那些弱势群体?
活动现场
现在,世界各地的政府还会投资于那些弱势群体,为什么?因为政府精英群体需要这些弱势群体,即使是德国的纳粹希特勒,他也要投资这些弱势群体。他要变大,需要有强大的军队,需要普普通通的数以百万计的德国人去给他当兵,成为工厂的工人才能支撑他打这样的战争,所以投资大量的资金用于教育和医疗。
但是未来如果人工智能替代人类,他可以替人去打仗、去做工,这样国家精英阶层就没有动力去投资医疗教育,帮助弱势群体。
人类社会会分成两大阶层,一个是非常少的精英阶层,就像上帝一样,他们在创造大量的人工智能,绝大部分人将变成没有任何经济价值任何无用的阶层。这是21世纪最大的风险。
五、人工智能毫无疑问会改变我们的未来
最后一点在我结束演讲之前,这也是非常重要的一点:有很多关于人工智能的讨论,但是也有很多关于人工智能究竟意味着什么的迷惑和疑问。智能和意识之间究竟有什么区别,很多人迷惑。
智能是解决问题的能力,比如我们诊断一个疾病,或者找到某一个疾病的治疗方法,这是智能。但是人类的意识是感受某一种外界的能力,你的情绪、你的感情、你的痛苦、愉悦、爱等等。人类和其他的哺乳动物,大猩猩猴子等,他们的意识和感情是合二为一的。
但是计算机不一样,随着水平越来越高,他们也能产生意识,很多科学的科幻小说或者其它科幻电影中,我们经常看到人工智能逐步产生了意识,机器人计算机变得非常智能,同时获得了意识和情感,机器人会变得非常愤怒,他想杀掉所有的人类。
我们在科幻小说电影中都看到过,它不是科学只是科幻。科学告诉我们智能和意识是完全不一样的两个东西。到目前为止,我们计算机或者人工智能发展到今天,智能水平在不断提高,但是人工智能的意识还是零。
换句话说:我们现在没有任何指标证明或者任何迹象表明,计算机和人工智能在未来能获得这种意识。计算机只是以一种完全不同的方式在工作,和人类其他的哺乳动物完全不一样,这是我们面临的风险,或许是最大的风险。
计算机会比我们智能得多,比人类水平高好多,他会控制这个世界,开始向宇宙其它星系去扩张,但是他们仍然没有意识。我们会有一个充满智能机器的宇宙,但它们却丧失意识和情感。大家可以想象生命过去的演变在逐步向更高的智能发展(无论是人类或者其他哺乳动物),在演变过程当中是非常慢的。
上亿年的生命通过我们的意识不断摸索,慢慢演变到今天的智能状况,速度是非常慢的,演变需要数百万年的时间。突然有一个计算机突然杀出来,他们用完全不同的路径、方式,完全不同的发展模式,超级的智能在赶超有机的生命体。他们智能的进化和演变速度比我们快得多,他们的发展演变比我们快得多,他们会控制整个世界甚至宇宙,但是没有意识。
我讲的东西不是一个寓言。没有人会知道未来是什么样,一切还悬而未决,同样一个技术你可以创造出完全不同的社会和世界。我们在21世纪曾经看到过这一幕,我们的技术、汽车、广播、电视、计算机,可以利用相同的技术创造出社会主义的国家,资本主义的国家、法西斯国家也都是利用同样的技术。
同样,人工智能的技术毫无疑问会改变我们的世界,但是我们未来的社会究竟怎么样?这会有很多选择,而不是完全由技术来决定的,一切都悬而未决。如果大家不喜欢我刚才描述的这个世界,大家仍然可以用自己的行动去改变决定未来世界的形态,去消除风险,发挥技术好的那一面。
最后我想讲的就是:当你作为一个个人,一家企业、政府部门,或者作为精英阶层,我们在做人工智能的时候,做各种各样决定的时候,一定要注意人工智能不仅仅是单纯的技术问题,同时也要注意到人工智能以及其它技术的发展,将会对社会、经济、政治产生深远的影响。
我们一定要注重人工智能技术层面的问题,还要严密关注人工智能的发展对社会可能产生的影响。因此,我们在投资与技术发展的时候,还要投入于社会影响的研究,谢谢。
附读:《未来简史》完整版读书笔记
作者:王利杰,来源:王利杰(ID:wanglijie1979)
幸福感是一种大脑的一系列化学反应,无论外界的刺激如何提高,这种化学反应带给人类的体验总是有天花板的,而且很早就已经接近了上限。
所以人类进入文明社会以来,无论科技如何发达,物质如何丰富,幸福感并没有提高多少。
吃冰激凌很愉悦,找到真爱也令人愉悦,但是吃很多冰激凌所得到的愉悦既不能线性增加,也不能等同于找到真爱。
幸福感的核心是你的收获和期望的差值,而不是收获的绝对值;所以,我们要向内心寻找幸福,改变认知模型,降低期望值都有助于幸福感的提升。
但是,事物都有两面性。人类的进步也得益于先辈们的冒险追求和持续探索,而内在的驱动力就是欲望、好奇心和不满足。
如果全人类都降低期望值,很容易获得满足感,从而停止外在的追求、不再冒险,那么人类社会的进步速度也会大大降低。
如果有一种药物,能欺骗大脑,直接催生这种幸福化学反应,让人类轻易得到幸福感,满足感,那么人类就会沉迷于这种药物而无法自拔。
这种药物确实存在,我们称之为海洛因,或者简称毒品,因为绝大部分人一旦尝试,就几乎会不可避免地上瘾,放弃外在的所有努力和追求,只想借助着一种最轻松的方式获得满足感体验。
所以我们都不敢轻易尝试挑战自己的“定力”。
做为骑象人,我们很难驾驭“本能”这头大象。
在通过电极刺激老鼠获得快感的试验中,那只可怜的老鼠就会不停地按下电源开关而无法自拔,直到精疲力尽后倒下。
人类的自控力并不比老鼠高多少。
还有一个令我细思极恐的事实是,战争导致了互联网和很多科技的发明、发现;如果没有残酷的战争,人类科学进展和生活水平,要比现在落后的多。
多么痛的领悟,再次说明了这个世界不是非黑即白,而是中国文化中的太极那般,白中有黑黑中有白啊。
算法指的是进行计算、解决问题、做出决策的一套有条理的步骤。
算法并不是单指某一次运算,而是运算时反复采用的方法。
生物行为也是算法控制的,生物算法是通过感觉、情感和思想来运作的。
有只狒狒看到附近树上挂着一串香蕉,但是旁边埋伏着一只狮子。狒狒该冒着生命危险去摘香蕉吗?这就需要生物的概率算法做运算了。
不去摘香蕉饿死的概率和摘香蕉被狮子抓住吃掉的概率作对比。
这里面需要测算狒狒与橡胶的距离、狮子距离香蕉的距离、狮子的状态、狒狒的速度、狮子的速度预估、狒狒的饥饿程度、香蕉的成熟度等等。最后狒狒得出一个决策结论,然后去执行。
狒狒的生物算法会让狒狒感觉到饥饿,看到香蕉又会流口水,但是狮子出现却让狒狒感到恐惧和颤抖,所有的情感和欲望都在大脑里面通过神经递质交互,最后根据这个生物自己的胆子大小以及对香蕉食物的喜好程度等综合做出决策,导致执行。
如果这次生物算法运算的结果是抢香蕉,否则要饿死,那么狒狒就可以瞬间感受到一股力量充满四肢,肌肉紧绷,血脉膨胀,帮助它快速冲向香蕉并逃离狮子的追踪。
最终,能够传承到今天的生物,都是算法比较优秀和能够适应环境的,否则就会中途夭折,物种灭绝。
人类每时每刻的选择,都是算法决定的,小到该吃什么穿什么,大到择偶和投资,都是生物算法的结果。
而且据统计,99%的人类决策是由进化而成的“直觉算法”主导的,而且是严重受到底层欲望驱使的,那个所谓的理智的大脑只不过是为这个直觉算法的结论寻找一个逻辑上靠谱的因果关系而已,只是起到了“解释”的作用,并不主导决策。
一见钟情的本质就是生物算法,所以你不能预测你会对谁一见钟情;甚至当你遇到一见钟情的人之后,你会发现Ta跟你的很多所谓的爱情观并不完全吻合。
当你跟一个恋人走到了尽头而分手以后,回看当初,你也不知道自己为什么会鬼迷心窍爱上Ta。这里的鬼迷心窍所提到的“鬼”就是“算法”。
不过呢,人类的决策算法相对于其他动物而言,具有强更大的“自我升级能力”,这个自我升级就像人工智能领域的“机器深度学习”一样,人类通过读书、思考、实践这个循环来不断训练并提高自己的决策算法,然后让自己在物种繁衍的过程中获得更多的优势。
这个提高决策算法的过程就是认知升级、认知迭代的过程。
生物算法还决定了,哺乳动物天生都会依恋母亲以及一些柔性物可以给予的接触感,比如纱布或者毛茸茸的玩具,科学家称之为接触性安慰(contact comfort)。母亲和婴儿之间都有母婴联结(Mother-infant bond),这也正是哺乳动物这个词Mammal的来源,其词根是拉丁文的mama,语义就是乳房。
机器没有情绪和欲望这样的主观体验,而人类有,可人类大脑本质上也是一系列神经元之间的电化学反应而已,主观体验究竟是如何产生的,是不是进化的副产品?
如果没有主观体验,人类理论上还是可以进行一系列的社会活动,只是没有了酸甜苦辣痛那些主观体验,没有了情绪,只留下了了算法和执行,但那样的人类还是人类吗?
人类之所以有虐待和强奸这样的道德伦理问题,也是因为人类有“主观体验”这个概念。
虽然本质上,虐待和强奸的体验也是大脑神经元之间的一系列电化学反应,和其他体验没有本质差异,但是“主观体验”的存在让这个行为变得不可接受,主观体验导致了喜怒哀乐,从某种意义上来讲,主观体验决定了人类道德伦理的框架界限。
机器就没有主观体验,所以一台机器Hack入另一台机器,算不上虐待和强奸吧;
人类黑客Hack一台机器,可能构成信息窃取的罪名,但一定不会背叛强奸电脑罪。
1952年,伟大的数学家,计算机科学奠基人阿兰图灵被判犯有同性恋行为,并被迫接受化学阉割。
两年后,图灵咬了一口毒苹果自杀,留下了那个被咬过一口的苹果(logo)。
人类的主观体验和社会伦理道德也不是一层不变的,是与时俱进的。
当社会中越来越多的人对同性恋的行为以及人权的概念有了新的认知之后,道德和伦理在新一代人中便会迭代升级。
同样是图灵,如果他生在21世纪,就不会被判刑,也不会被化学阉割,更不需要服毒自杀。行为没变只是环境变了,结局就大不相同。
这些社会伦理道德的根基仅仅是人类的主观体验而已。如果主观体验是虚幻的,那么道德伦理也一定是虚幻的。
图灵的同性恋行为本质是什么并不是关键,关键是社会中的其他人怎么想。这也是未来我们面对计算机人工智能的问题。
人工智能是否有“意识和主观体验”,这不是关键,关键是我们人类会怎么想。
这就是著名的难缠问题,他心问题(Problem of other minds):如何证明宇宙中除了我以外的其他人不是机器人或者梦境的虚幻,而是跟我一样有意识的智人?
人类通过语言和社会协作主宰了整个地球,在农耕社会和工业社会的发展下,消灭了大部分野生动物,驯化了无数的家畜。
为了满足人类的私欲,我们大量圈养动物并屠宰它们。
究竟是什么赋予了人类如此特殊的权力,可以肆意夺取其他生物的生命?
人类不断地给自己寻找各种伦理上的理由,来支撑这种杀生的行为。
虽然有小部分人类开始反对,甚至以身作则吃全素,但这并不能阻挡工业化畜牧业的发展态势。
一种科学解释是,这些家畜选择了和人类的协作,提供肉食给人类,它们也获取了物种的繁衍,那些拒绝跟人类协作的野生动物,正在逐渐被大自然淘汰,处于物种濒临灭绝的边缘。
全球总共有20万只野狼在外游荡,而最早的那只比较弱的狼,通过与人类的协作,繁衍至今已在全球拥有了4亿家犬后代。
世界上现有4万只雄狮,但有6亿只家猫;
有90万头非洲水牛,但有15亿头家牛了;有5000万只企鹅,但有200亿只鸡。
全球大型动物有超过90%不是人类就是家畜。到底人类灭绝了动物还是繁荣了它们。
其实,就在100年前,一次禽流感也夺走了1亿人类生命。
在大自然面前,生命似乎根本不值一提,不管是人类的还是其他生物的。但是对于人类宗教和社会伦理来说,这个是天大的事。
宗教的出现,是人类给自己不理解的这个世界虚构出的一种可理解的逻辑;
也给自己不能主导的自然现象一种超现实的神性,把对一切美好的期待都献给对这种“超自然神性”的依赖和信仰;
让自己面对一切未知和不确定的时候,多一些情感层面的坚定和坚强,不会轻易崩溃。
不过这一切就像盲人描述世界的色彩一般,只是一厢情愿的臆想而已,共同想象并非真相。但是,不论任何宗教的追随者,都相信只有自己的宗教才是真实的。
所谓的强大的人,都是因为自己内心坚信了某一套逻辑自洽的信仰体系,不管是全然接受某一个现有的宗教体系,还是自创了一套独有的宇宙法则,本质上人的内心都是有着某种信仰体系的。
科学让我们相信,根本没有上帝。
但是,信仰上帝能够激励我们自己去做成某些事情。
这就是宗教给予社会组织的力量。宗教不等于迷信,因为大多数人都不可能把自己相信的事称为迷信。
自己相信的,就是真理;只有别人相信的,才是迷信。
宗教和灵性的差距也比我们想象的大。
宗教就是一份契约,约定了社会行事准则和道德观,告诉我们什么是对的,什么是错的;而灵性确是一个旅程,它通常以神秘的方式把人们带向未知的目的地。
对于宗教来讲,灵性是危险的。
遇佛杀佛讲的就是:在灵性的道路上如果发现佛教已经落入制式、僵化、固定的窠臼,就必须要摆脱。
虔诚苦修的修士马丁·路德就拒绝接受教会用各种礼仪、仪式、和契约(如:赎罪券)得出的答案。
宗教故事几乎总是包括三个部分:
1)伦理判断、
2)事实声明、
3)具体指示。
科学想要打造成可行的人类制度,必然需要宗教的协助。
很多重要问题需要科学提供论证,预测和数据,但最终的决策涉及到的伦理问题却需要宗教的支持。
比如建造大坝有诸多的好处,但是会导致白鱀豚的灭绝;另外,决定是否打胎,从来就不是一个医学手术那么简单。
科学和宗教都是为了追求真理,但各自却推崇不同的真理。
虽然他们的真理体系不同,但却不影响他们互相妥协,寻求合作。他们其实也没那么在乎真理。
宗教最在乎的是秩序,宗教的目的是为了创造和维持社会结构;而科学最在乎的是力量,科学的目的是为了治疗疾病,研制武器,生产粮食等。
21世纪的科学正在破坏自由主义秩序的基础。
科学越发达,我们越是发现,自由人文主义的基础,也是建立在一个虚构的概念之上的,人类的“自由意志”,其实并不是真正的“自由”也找不到所谓的“意志”。
如果“自由意志”指的就是“依据自己的欲望行事”,那么人类确实有自由意志。
如此,黑猩猩、狗和鹦鹉也有自由意志。
我们和所有的动物都有欲望,大部分时候,我们也都是依据自己的欲望在行事。
可“欲望”是谁决定的?我们的“欲望”在微观层面,本身就是细胞和神经元的电化学反应,一个想法和一个行动都是一系列微小事件的连锁反应,而每一个微小的事件都是前一个事件决定的。
而追溯到源头的触发事件,可能是来自生物预设(对外界信号的刺激反应,看到骨头流口水)、随机或者两者的结合。
生物预设和随机都不代表“自由意志”,我们不能控制下一秒有什么样的想法,也不能预测今晚做什么样的梦,而这些看似微不足道的想法和梦境,却实实在在会影响我们的决策和选择。
我们对“自由”的理解,背后有一套错误的逻辑。
人的欲望不是一种选择,我们只能是感受到欲望,再据以行事。
看起来,我们所谓的“意志”,大部分时候是为了满足“欲望”而存在的。
我们能否通过意志消除自己的欲望,能否通过某种训练让自己脑海中的所有想法都消失。
又或者,一个自控力强的人可以抵御美食美女的诱惑,但能否抵其他的情感刺激?
比如看到杀人的场面不恐惧,看到感人的画面不落泪?这些情绪都会影响我们的决策,影响我们的投票。
商业广告和总统大选都在用尽一切办法“引导、诱导、误导”我们做出看起来“自由”的选择。
我们的选择,从来就不是真正的自由意志主导的,所以我们经常会后悔昨日的决定。
买错商品、嫁错人、选错总统、走错路这都是我们经常干的事,不对吗?
被销售大师的口才折服和江洋大盗诈骗,又或被挥舞的切糕刀恐吓,花费一样的成本,得到同样的次品,感受却有着很大的同,这里只有“心甘情愿” 66 48475 66 32175 0 0 6395 0 0:00:07 0:00:05 0:00:02 6396“上当受骗”的区别,第一种感觉好点,但也并不是真正的自由意志,因为你回家发现这个商品你还是不需要,不满意,只是当时鬼迷心窍套了腰包。
现在我们为了引导别人做出有利于我方的选择,还需要通过公关和营销等多种手段,利用人性的弱点,击中要害,让他们“自愿下套”。
未来,我们通过新科技,根本都不需要这么复杂的社会市场行为就可以直接操控他人的欲望,通过操控欲望引导决策。
美国军方已经有了类似的可以植入人脑芯片和“头盔”,只要带上头盔,就能进入到一个没有杂念的状态,把全部注意力放在重要的事情上,发挥出最大的潜力,比如枪击训练。
当然,控制抑郁症的良药百忧解其实也是直接作用于大脑,让那些恼人的情绪直接关闭。
我们既然可以通过吃药关闭一些大脑区域,就一定能通过吃药打开一些区域,不同的区域带来不同的思想体验,导致不同的决策。
通过脑科学实验,我们更加发现,左脑和右脑本来就是两套不同的决策体系,因为它们中间通过一束神经纤维“胼胝体”连接了起来,所以最后作出的决策看起来是一致的,内心的煎熬只有我们自己知道,到底投票给希拉里还是特朗普,很多人也左右摇摆过。
在一些脑裂病人的试验中,科学家剪开了胼胝体,左脑右脑完全独立决策的时候,我们发现它们经常做出矛盾的行为,左手开窗右手关窗。
当我们让右脑看到雪景(只给左眼看),左脑看到鸡爪(只给右眼看)的时候,左脑控制的嘴巴的回答是看到了鸡爪,右脑控制的左手的回答(通过拼字)看到了雪景。
然后让他们继续选择跟前面的图相关的图片的时候,左手选择铁铲因为右脑(左眼)之前看到的是雪景,右手选择鸡因为左脑(右眼)之前看到鸡爪;
这个时候问左脑(问题写在板子上只给右眼看)为什么左手拿着铁铲,从来没见过雪景,只见到鸡爪和鸡的左脑控制在嘴巴回答说:因为要给鸡舍清理垃圾。
原来,左脑还负责“合理解释”的功能,不管主人做出了什么样的决策和行为,左脑都会负责收拾摊子,给出看似逻辑合理的解释,为我们的生活找出意义。
就像中情局在巴基斯坦执行无人机空袭任务犯了事,美国国务院并不知道,但是面对媒体的质问,总是要编出一套堂而皇之的说法,回应大众。
所以,我们今天所理解的“生命的意义”,只不过是左脑的强词夺理。
人体内至少有两种自我:体验自我和叙事自我。体验自我是我们每时每刻的意识,但是却没有记忆能力,所以我们经常“好了伤疤忘了疼”,经历了剧痛分娩也挡不住女人会继续生二胎三胎四胎。
叙事自我就像一个旁观者,负责提炼总结,通常都是用体验自我的峰值和终点两者的平均值得出一次体验的感受,这叫峰终定律。
我们改变不了很多事件的体验峰值,但是我们可以调换顺序甚至仅仅是在结尾的时候增加一个更好的体验环节,就能让整个体验感提升。
所以医生懂得,一次相同的体检,仅仅是因为最后一项安排的不太痛苦而让整个体检的感受好受了很多。
叙事自我还懂得,给体验赋予不同的意义,能让体验感受变得天壤之别。
在斋戒日禁食和因为贫穷挨饿、捐赠和被骗、参加马拉松和被罚跑步这些都有着巨大的体验差,而本质上的身体经历是相同的。核心的区别是我们如何理解这段经历的“意义”。
意义,这个词本身就是一个人类虚构的概念,在宇宙中原本并没有一个实实在在的东西代表“意义”。
我们发现人类社会一个荒谬的事实是,我们对一个想象的故事付出的牺牲越多,就越可能坚持,只是为了让我们过去的牺牲和痛苦显得更有意义。
在政治里甚至有个次描述这种现象,叫做:我们的孩子不能白白牺牲综合征(Our boys didn’t Die in Vain)。
因为这个综合征,无数的孩子们被继续送往战场送死,即便是活着回来的无数的伤残军人也不愿意相信他们曾经为之付出惨痛代价的战争,只不过是因为一些政客的一时冲动;
第一次冲动的失败,并不能被及时叫停,那样前面的牺牲就没有意义了。
多么愚蠢的人类。但我们为之奋斗的国家、神、民族和金钱,本身都是虚构的概念。
当下最令人振奋的行动意义,在后人看来可能又显得十分的荒诞无稽。
没事,因为我们的左脑会负责编制一个天衣无缝的理由来解释我们过去的愚蠢并接受我们遭受的牺牲,为了这个编造的理由更加合理,我们可能需要继续投入,继续行动,哪怕付出我们的全部财产甚至生命。战争的本性和股市的任性,就是这么回事。
原来,自由意志和活着的意义,都是虚幻。
科技宗教带来了“科技人文主义”和“数据主义”两个方向。
科技人文主义认为今天的智人马上就要成为历史,我们要用科技创造出“神人”超人类,一种更优秀的人类形式。神人保留一些基本人类特征,但同时拥有升级后的身体和心理能力,并且能够对抗复杂的无意识智能(算法)。
因为无意识的智能正在飞速发展,所以人类如果不想集体沦陷,只能积极升级“心智”。
七万年前的第一次认知革命,人类DNA有了一点点小的变化,大脑神经稍微调整了一下结构,我们就主导了地球。
第二次认知革命可能会让神人接触到目前还难以想象的新领域,让神人成为太阳系的主人。
上一次升级,我们弱化了嗅觉、视觉、听觉甚至注意力等能力,提升了智力;
这次认知升级的过程,也有可能会继续弱化很多能力,比如专注力“头盔”用多了,一旦摘下头盔,我们就会失去容忍各种疑惑和矛盾的能力。
如果社会系统希望我们下定决心,而不是心存怀疑,那就会推动我们往这个方向前行。改造心智的过程,升级了一部分,降级了另一部分。
农民都知道,羊群里最聪明的那个常常会惹出大麻烦,所以农业革命的一点就是降低动物的心理能力。
所以科技人文主义推动的第二次认知革命,可能对人类造成类似的效果,会让社会大机器里面的“人类小齿轮”沟通和处理数据的效率更高,但几乎不会去注意其他事情,不会做梦,也不会怀疑。
过去几百万年,人类是升级版的黑猩猩,到了未来,人类可能变成放大版的“蚂蚁”,个体价值不再重要,集体社会活动才更有价值。
听起来很可怕,我宁愿保持现状而不去升级成什么神人,成为未来社会系统中的一个超级螺丝钉。
可那也由不得我,我也可能等不到那天,社会升级是循序渐进的,我们感觉不到这种身体机能在进化中退化;
而且,农业社会和狩猎社会相比,我们的社会系统确实更强大了,个人能力却真实弱化了。未来也一样,强化整体,弱化个体。
黑猩猩也说:“我才不要进化成为人类呢,手无爬树之力。在我生活的丛林里,人类个体毫无生存能力,弱爆了。还是做猩猩好,想吃就吃,想睡就睡,想搞母猩猩就搞,那里那么多限制,什么一夫一妻制,狗屁!”
不管什么物种,它们的意识总是会让它们安于当下的一切,恐惧改变,哪怕是升级也是伴随着一部分生理机能的退化,“损失厌恶心理”让所有的物种都觉得:现在最好,此刻最好。
进化本来就不是变得更强大更宏伟,而是变得更适应。
数据主义认为,宇宙由数据流组成,任何现象或实体的价值就在于对数据处理的贡献。
音乐、股市、文学、经济、政治,蚁群、蜂群、菌群背后都是数据流的不同模式,都可以用算法来分析决策。
以前我们要把数据转化为信息,信息转化为知识,知识转化为智能。
而今天,数据量太大了,人类已经无法直接处理海量数据并形成信息,于是计算机算法接管了数据处理的工作,而之后得出的的信息、知识,也就随之成了计算机算法的收获,成了计算机的智能。
共产主义本质上是一种市场信息集中处理的政治算法系统,统一资源配置、统一商品定价、统一规划社会经济活动的一切;
自由市场资本主义是分布式信息处理的算法系统。资本主义能够赢得冷战,是因为分布式数据处理的效果就是比集中式处理更符合当今这个时代。
政治科学家开始把人类政治结构理解成数据处理系统,民主和专制在本质上是两套关于收集和分析数据(信息)的对立机制。
而这种政治算法系统正在失去对数据的控制,科技发展太快,政治系统升级太慢,权力出现了真空。
即便是互联网星期之后的若干年,各国政府开始意识到这个科技成果对社会和政治格局的影响力已经大到失控的地步,他们开始通过各项政策法规监控数据,管理数据,几乎拿到了所有的数据,但这依然于事无补。
就像打牌的时候明明知道对手有什么牌,却不知道怎么搞的,总是一输再输。本质上,这是现有政治体系数据处理能力的欠缺。
未来还有很多新的科技会飞速发展,挑战政治体系,尤其是人工智能和生物科技,但现在的政治体系对此毫无警觉。
选民和政要对生物学、控制论、信息论的认知不足成了巨大的瓶颈。
民主机制已经不能给选民带来权力,权力正在转移,但不知道去哪儿了。
英国选民想象中,是欧盟夺走了权力,所以他们脱欧;美国选民认为既得利益者垄断了权力,所以他们支持反体制的候选人。
可事实上,即便英国脱欧,特朗普当选,权力也不会回到普通选民的身上。
科技有了神一般的能力,而政治却依然短视而无知,这样的搭配问题很大。纳粹和原子弹爆炸的历史告诉我们,权力不能交给狂妄自大却无知的政治人物,那是一种灾难。
而权力也不能完全交给市场,因为自由市场算法也不是万能的,有时候反而是盲目的,在面对全球变暖的威胁或者人工智能的潜在危险时,市场可能毫无作为。
当万物互联,所有数据都开放上网的时候,算法不仅能知道每个人的投票意向,甚至还能从根本的神经原因分析为何某人投民主党,另一个人投共和党时,又何必举行什么民主投票呢?
过去的人文主义呼吁:“聆听自己内心的声音”;而现在的数据主义则呼吁:“聆听算法的意见!”
随着机器学习和人工神经网络星期,有越来越多算法会独立演进、自我改进、从自己的错误中学习。
最早的种子算法是人类设计开发的,但随着算法逐渐发展,就会走出自己的路,前往人类未曾踏足的领地,而人类也无力追寻。
但是,没有人真正知道2050年的就业市场、家庭或者生态将会是什么样子,又或是哪些宗教、经济和政治制度主导世界。
这个世界的变化速度比以往更快,而我们又已被海量数据、想法、承诺和威胁所淹没。
人类正在逐渐将手中的权利交给自由市场、群众智能和外部算法,部分原因就在于人类无力处理大量数据。
我们无法真正预测未来,因为科技并不会带来确定的结果。
至少我们有一点可以明确,未来,本质上就是不确定的。
不过,细思极恐!
千岛书院好文推荐:汉语是世界上最先进的语言