其他

AI深处令人恐惧的阴暗秘密

2017-06-23 花儿街内参


令人恐惧:

AI发展出了自己的语言,

人类无法理解,

不得不进行人工干预


 6月19日据《大西洋月刊》网站报道,Facebook在实验中让两个AI聊天机器人互相对话,发现机器人竟逐渐发展出人类无法理解的独特语言。


Facebook人工智能研究实验室使用机器学习来训练聊天机器人程序。研究人员两个机器人彼此对话,结果发现机器人竟逐渐发展出了不同于人类语言的对话,研究人员不得不对其进行人工干预。


换句话说,两个机器人使用机器学习进行对话策略迭代升级,最终将导致机器人以人类无法理解的语言进行交流。AI自行升级的速度超出预期,让人联想到《银翼杀手》中的科幻场景。


Facebook在研究报告中指出,机器人有时可以很好地胜任客服谈判的角色,甚至懂得使用“先假装而后承认”的对话策略。但是实验中机器人自行发展出新语言让人不安,人们或许可以从中一窥未来世界的样子。


语言被认为是人类独有的技能。Facebook的聊天机器人的表现刷新了人们的认知。


机器学习在推动技术革新的同时,也带来了“黑箱”难题:AI的结论很英明,但其推理过程人类无法理解。人们提出过很多试图破解这个黑箱的方法,包括向神经网络投喂特定主题的数据,然后根据输出结果来推测机器的思维方式。如今,机器能够产生非人类交流方式这一发现,还是让包括系统设计者在内的所有人都感叹人类知识的有限。


“未来的工作还有很多潜在可能,特别是让机器理解更多推理策略,以及在不偏离人类语言的情况下提高表达的多样性。”Facebook研究员在报告中写道。


AI深处令人恐惧的阴暗秘密


  来源:硅谷精英程序员

原作丨Will Knight ; 编译丨Alina;原文丨MIT Technology Review


没人真正知道最尖端的算法的运作过程,而这显然是个严重问题。


去年,一辆神秘的无人驾驶汽车被投放在新泽西州蒙茅斯郡无人的街道上。这辆由Nvidia芯片制造公司的研究员开发的试验无人车看起来没什么特别的,不过,它和Google、特斯拉或者通用汽车研发的车辆都不一样。事实上,它甚至是AI力量崛起的化身。这辆无人驾驶汽车并非在实施程序员或工程师编写的指令,相反,它在观察人类后,完全依靠着自学的算法运行。

 


诚然,做出这样的进步不愧为是一大壮举,但这一壮举难免令人感到不安,毕竟没人知道这辆车到底是如何做出每一步决定的。运行过程中,汽车的传感器直接通过处理数据的巨大神经网络将信息发送,控制方向盘、刹车以及汽车的各个系统,而指令的最终成果甚至和人类驾驶员开并无二致。不过难以预料的事总可能发生,万一哪天这辆车冲撞到树上,或者在绿灯前停下呢?谁也说不准。毕竟目前为止,没有人能够解析它的步骤。这辆无人驾驶汽车的系统过于复杂,连设计这辆车的程序员都无从解构它的每一步行为后再找出相应理由。当然,要去让这辆车自己解答更是天方夜谭——你哪里见过系统可以自我解释是如何执行命令的呢?

 

无人汽车的神秘算法是对于人类的警告,由人工智能引发的种种问题正在向我们逼近。近几年来,已经无人怀疑隐藏在无人驾驶汽车背后的AI技术,即深度学习,在解决各种问题时能展现出多大的能力,深度学习也早已被广泛应用于各个领域,例如为添加图片字幕,识别语音、多语种翻译等等。如今,人工智能应用于诊疗绝症、交易大宗财产或是其他足以改变行业现状的事务已经不再是遥不可及的梦想。它们正在成为现实。

 

然而,如果人类无法找出解决办法能够更好地了解这些技术,开发者无法更好地掌控这些技术,上述的事永远都不可能,或者说不应该发生。不然的话,我们根本难以预料机器失误会何时产生——而事实证明失误总是难以避免。这也是为什么Nvidia开发的无人汽车仍处于实验阶段。

 

目前,数学模型已经可以用于帮助决定假释犯人、贷款人员或是受聘员工的名单。如果你有幸能够接触到这些数学模型,你或许可以了解其背后的原理。然而无论是银行、军队、或是企业老板还是其他人,他们的注意力都集中在更为复杂的机器学习方法上,这些方法可以做出更自动化,也更为高深莫测的决定。在常见的机器学习方法中,深度学习就是完全不同的编程方法之一。“这已经成为了一个严重的问题,未来还会更趋严重,”在MIT研究机器学习应用的教授Tommi Jaakkola表示,“不管是投资决策,医疗决策或是军事决策,没有人会想仅仅依靠一个‘黑匣子’就做出最终抉择。”

 

Tommi Jaakkola


那么,是否应该将质问AI系统如何得出最终结论?在业界这个问题已经开始引起争论。自2018年的夏季起,欧盟或许会要求各大公司向用户解释他们的AI系统到底如何做出最终决策的。然而这一要求其实并不现实,即使是表面看起来相对简单的系统,比如运用深度学习发布广告或推荐歌曲的应用软件或网站,实施起来依然有一定困难。运行这些程序的电脑实际是在自我操控,他们的运作方式可能无人能理解,就算是设计程序的工程师也没有办法做出完全详细的解释。

 

这一现状就向人类提出了一些难以逾越的难题。随着科技发展,人类可能即将跨过某些看不见的尺度,在那个时候,使用人工智能或许还需要赋予它极大的信任才可以。人类也无法完全解释自己的思想过程,但我们也可以凭着直觉做出判断,选择是否信任某些人。那么人类在将来是否可以仿照这一做法,对待机器就如同对待陌生人一样——凭直觉判断,选择信任还是怀疑?毕竟在历史上还从未出现过我们亲手制造却无法理解的机器程序。那么将来在面对这些无法预测行为的神秘机器人,我们将如何与之相处沟通?


这些问题引领着我不断探究AI算法的前沿领域,我采访了Google、苹果公司和各种科技公司的AI专家,甚至还亲自拜访了这个时代最伟大的哲学家之一。


(艺术家Adam Ferriss使用Google的“深度梦境”创造了这一图像,下图相同。“深度梦境”能够莫伊深度神经网络的认知模式来调整图像。此图采用了神经网络的中级层次。 作者:ADAM FERRISS)

 

2015年,纽约西奈山医院的一个研究团队将深度学习应用于记录患者的全面数据,包括检验结果,诊疗记录等等。医院的研究团队将这套程序命名为“深度患者”(Deep Patient),用于记录大约700000名患者的病情数据。当“深度患者”用于测试新的病人数据时,它对与病人病情的推断准确得令人难以置信。虽然没有任何专业性设备,但是“深度患者”通过对数据的分析发现了隐藏在背后的某些规律,因此它得以成功地推断哪些人在什么时候可能患病,甚至包括癌症。西奈山研究团队的对账Joel Dudley表示,“深度患者”掌握了各种手段根据记录“完美地”预测病情,当然,“完美”一词只是相较于人类而言的。

 

同时,“深度患者”也有些让人捉摸不透。试验中,“深度患者”表现出了对于精神疾病预测的高度精准性,令人震惊。例如精神分裂症有多难预料简直是医学界“臭名昭著”的难题,而让Dudley疑惑的是,“深度患者”到底是如何做出准确分析的,对此,他至今没有得出什么结论,毕竟机器人也没有给他任何提示。如果在未来,机器人将真正帮助医生进行诊疗,它们一定得在给出预测的同时做出合理阐述,给出理论依据,证明推断是正确的,或者临时改变病人的药物是合理的。“我们的确可以建立这些模型,”Dudley显得有点悲伤,“但我们却弄不懂他们到底是如何运作的。”

 


然而,人工智能并非历来如此。自人工智能诞生以来,就有两个对立的学派对于人工智能应该被理解和被诠释的程度多少有不同的观点。许多人认为我们制造的机器应该是根据逻辑规则合理运营的,它们的内部流程应当对程序员完全透明化。而另一部分人却认为,“智能化”一词最好的体现就应该是机器能够学习观察,获知经验,然后完全按照某种“生理习性”自由运作——而这也意味着计算机编程实际上被转化成了机器的大脑。不同于程序员编写指令解决问题,机器人可以根据实例数据运行算法,输出结果。机器学习技术发展至今,显而易见人工智能系统的走向更偏向于后一学派的理念:机器自我编程。

 

起初,这种机器自我编程的做法使用具有很大的局限,直到1960至1970年代,它们还被限制于专业领域中。然而,计算机在各行业中的大量运用以及大数据的崛起燃起了人们新的兴趣,于是更为强大的机器学习科技诞生了,尤其是如今赫赫有名的“人工神经网络”。至1990年代,神经网络已经可以自动将手写字符数字化。

 

不过,真正的跨越式发展仍出现在近十年内。在历经几次失败和改进后,神经网络在自动认知领域展现了惊人的潜力和进展,深度学习的确是近日人工智能蓬勃发展的源头,它给予了计算机无穷的力量——就如人类可以识别语音文字这一技能一样,复杂得让人难以逐步记录流程。深度学习在对计算机进行革新时,也极大地提升了机器翻译。如今,深度学习已经在医药、金融、手工等各行各业应用,帮助人类做出各种重要决定。

 

(作者:ADAM FERRISS)

 

机器学习科技在其本质上就比手工编码系统更晦涩难懂,就算对于计算机科学家亦是如此。当然,这并不是说将来所有的AI技术都将变得难以理解,我们只是提出在本质上,深度学习本身就是一个神秘的黑匣子。

 

仅仅深入看看深度神经系统里到底是什么是不足以弄清它的工作原理的。一个网络的推理运算包含于成千上万个模拟神经元的行为之中,再被分配至几十个,甚至是几百个错综复杂的内部联结层级之中。神经元是接收输入信息的第一层。比如一张图片的像素亮度首先发送至神经元,接着才会执行运算,输出新信号。输出信号将流入复杂的网络,传送至下一层级的神经元。如此周而复始,直到机器完成输出。在此期间,单独的神经元会纠正其运算以求最好的输出结果,因此这一过程也被称为“反向传播”。

 

一个深度网络中的不同层级可以在不同的抽象级别上识别事物。如果是一个专为识别狗的系统,那么最低层次就负责识别最简单的特征,例如狗的轮廓或是颜色;高级一些的层次就负责识别略为复杂的特征,比如毛发和眼睛等;最后,最高层次就负责鉴定狗的品种。简单来说,这种做法就可以应用于别的机器输入,自学人类经验,例如演讲的声音、书信中的语言文字或者汽车行驶时该如何操作方向盘。

 


当然,已经有人用独创的战略设备试图捕获机器运行的步骤,以更详细地解释系统运行时到底发生了什么。2015年是,Google的研究员修缮了某个建立于深度学习的图像识别算法,之后,这一算法不仅能简单地在照片中定位物品,更能直接生产物品或者改变物品。通过反向运行算法,研究员们得以理解这一程序如何识别照片上的物体。以照片上的小鸟和建筑举例,在这个名为“深度梦境”(Deep Dream)的工程最终显示的图像上,形似外星人的动物逐渐从云端与植被中显现,梦幻模糊的佛塔渐渐透过森林和山脉跃然纸上。这些图像证明了,深度学习也并不一定全是高深莫测的,Google的研究员就成功地解密了这些熟悉的图像是如何被识别的。不过这些图像也同样在预告我们深度学习与人类认知的巨大差距,这样一来,人们甚至可能忽略人工智能产生的一些结果。Google的研究员注意到,当算法绘制出一幅哑铃的图像,它也同时绘制出了举起哑铃的手臂。因为在机器看来,手臂已经是哑铃的一部分了。

 

借着神经科学和认知科学的助力,人工智能再进一步。美国怀俄明州立大学的助理教授Jeff Clune带领了一个小队,用光学错觉等效人工智能来测试深度神经网络。2015年,Clune的团队发现一旦图像采用了机器系统正在搜寻的低级的模式,神经网络就会被这些图像欺骗,接收到根本不存在的信息。Clune的合作人Jason Yosinski同样建立了用以探测大脑的工具。这一探测工具旨在监测神经网络中央的一些神经元,从中找出到底是哪些图像最能刺激神经。研究发现,图像大多是抽象的(比如印象派画风的火烈鸟,或者校车之类的),这也进一步证明了机器感知能力的神秘性。


(图为1960年,早期的人工神经网络处理灯光传感器的输出流程,位于纽约水牛城康奈尔航空实验室)

 

然而,对于人工智能的“思考方式”,仅仅管中窥豹远远不够。深度神经网络中运算程序的交互作用才是高级认知和复杂决策的关键因素,然而这些运算对于数学方程和变量却宛如泥沼。“假如只是一个很小的神经网络,你可能能够搞懂它到底是如何运作的,”Jaakkola表示,“但是一旦这个神经网络相当大,比如说它有上百个层级,每层又由上千个单元组成,那么要搞懂它就显得有些天方夜谭。”

 

Jaakkola和MIT教授Regina Barzilay的办公室毗邻,Barzilay长久以来致力于将机器学习应用于医药。几年前,43岁的Barzilay被诊断出患有乳腺癌。当然,这一诊断结果的本身的确不是什么好事,但让Barzilay更沮丧的是如今前沿的数据统计系统和机器学习方法都不足以解决这些肿瘤的疑难杂症,也不能有效指导治疗。她认为人工智能有巨大的潜力变革目前的医药学,但是要开发这种潜力,人们不能只局限于用机器学习记载诊疗记录。Barzilay设想可以更大程度上使用这些原始数据,显然她认为这些数据在目前都还没有被物尽其用:“想想看我们拥有多少大数据,多少有关病理的大数据?”

 

Regina Barzilay


去年,在结束了癌症疗程后,Barzilay和她的学生与麻省综合医院的医生们联手开发了一种系统,能够通过挖掘病理学报告来识别有特殊临床表现的病人,供研究者研习。然而,Barzilay也同样认识到,系统在运作时需要给出合理的解释。之后,她与Jaakkola和另一名学生又进一步完善系统,使其能够摘取并且突出显示病理报告中具体表明特殊临床表现的文字片段。Barzilay和学生还开发了另一种深度学习算法,能在乳房X线图像中探测出乳腺癌的早期征兆。现在她们正在致力于让系统能够解释其工作原理。“人类和机器必须得联手工作,相互提升。”Barzilay认为。

 

美国军方已经投资数十亿用于机器学习项目,力图在将来可以操控汽车和飞行器,识别目标,从海量智能数据中筛选重要数据分析。不同于其他领域,军方运用算法时不允许容忍任何无法解释的程序,所以美国国防部在研究机器学习时,如何确认机器的可解释性成为一大难题。

 

DARPA开发的战斗机器狗


美国国防部高级研究计划局(DARPA)的项目经理David Gunning目前正在监测一项名为“可解释性人工智能”的项目。Gunning曾经参与监测了Siri的开发项目,而如今他已经白发苍苍。他说,自动化已经不知不觉地覆盖了军事项目中不计其数的领域。目前,人工智能分析师正在尝试用机器学习鉴定海量监控数据中的模式。各种各样的自动化汽车或飞行器正在被陆续开发、测试。然而,没有士兵会喜欢一辆不知其原理的自动机器人坦克,当然,分析师也不可能在不知原因的状况下就对机器给出的信息做出相应反应。“机器学习系统给出错误警报是一件很常见的事,所以军事分析师必须借助系统做出的解释才能决定是否做出反应。”Gunning解释道。

 

David Gunning


今年三月,DARPA从学界和行业中挑选出了13个项目进行资助,隶属于Gunning监测的项目之下。这13个项目中,有些可以建立在华盛顿大学教授Carlos Guestrin的工程之上。Guestrin和他的同事已经研究出解决方案,让机器学习系统为输出结果提供合理的解释。因此,通过这一解决方案,能够自动从数据中找到案例的机器人就能同时给出运作原理。比如用以识别恐怖分子邮件的机器系统是通过数百万的邮件学习后才能得出结论。在使用Guestrin的方法后,机器系统还能够在邮件中标出关键词。此外,Guestrin的团队还设计出了另一种方法,让图像识别系统突出强调图像中最重要的部分,以此解释其工作原理。

 

然而,这一方式和其他类似的方式,诸如Barzilay研发的方法一样,都有同样的缺陷——系统提供的解释过于简单,在传送过程中极有可能丢失重要信息。“理想境界”是一旦AI和人类对话,它就能提供解释。显然,我们还没做到完美。”Guestrin表示,“距离最后目标,我们还有很长的路要走。”

 

不止是癌症诊疗或是军方决策这种高风险领域,人工智能能否为决策提供解释对于科技发展为人类日程生活中的一部分至关重要。Tom Gruber在苹果公司带领Siri的研发团队,他说,“解释性”至关重要,只有理解才能让Siri变为更智能,更高效的语音助手。Gruber目前并不想透露未来Siri将如何发展,但很显然,任何一个人在接受Siri的附近餐厅推荐时都想知道它推荐的原因是什么。作为苹果公司AI研究的主管及卡耐基梅隆大学的副教授,Ruslan Salakhutdinov将“解释性”视为将来人类与智能机器关系发展中的核心。“只有能够解释才能拥有相互信任。”他说。

 

Ruslan Salakhutdinov


然而,就连人类也有很多行为不能解释,人工智能可能同样如此。“就算有个人能够相对合理地解释(他/她的行为),这种解释也可能是不完整的,所以人工智能也会有这种状况,”Clune认为,“可能这就是所谓‘智力’吧,仅有一部分能够给出合理解释,而另一部分或是直觉,或是潜意识,或是神秘莫测。总之难以诉诸言表。”

 

如果的确如Clune说的那样,那么或许我们只能选择要么相信AI的决策,要么抛弃AI。当然,AI的决策在发展时必须和社会步调相吻合。就如人类社会建立在某种看不见的契约之上,我们设计的AI系统也必须尊重、符合我们的社会准则。一旦我们要设计出机器坦克或是“死刑机器”,我们必须保证他们的决策吻合于我们的道德体系。

 

为探究这些形而上学的概念,我也去塔夫斯大学会见了Daniel Dennet教授。Dennet是一位赫赫有名的哲学家以及认知科学家,如今在研究人类的意识及思想。Dennett最近出版的关于人类意识的百科专著《从细菌到巴赫,从巴赫到细菌》(From Bacteria to Bach and Back)中的某个章节提到,智力在进化过程中一个非常自然的阶段就是演化出了某种体系可以执行连自己都无法解释的行为。“而问题在于,人类应该如何自我调节以做出最明智的抉择,我们对于自我的标准应该定在哪里?对于‘智能’的标准又在哪里?”在那个位于田园牧歌般的大学校园里,Dennet的办公室显得有些杂乱。他如是对我说道。

 

对于科学家们对“可解释性”孜孜不倦的追求,他也提出了警示。“我认为,如果总有一天我们必须运用这些技术,并且生活将依靠于这些技术,那我们一定要尽可能了解这些技术给出的方案背后的原因和原理。”他说道。然而,鉴于我们至今都不能给出一个完美的解决方案,我们依然要对AI给出的解释也抱有警惕,就算是再智能的机器也同样如此。


“如果机器无法和我们一样给出决策的原因,”他说,“那么不要相信它。”


23年后,无人幸免


作者:卢娜

来源:摩登中产(ID:modernstory)


23年后,人类命运将迎来史无前例的“奇点”,你我无从幸免。

 

    01


人类唯一战胜阿尔法狗那个寒夜,疲惫的李世石早早睡下。世界在慌乱中恢复矜持,以为不过是一场虚惊。


然而在长夜中,阿尔法狗又和自己下了一百万盘棋。是的,一百万盘。

 

第二天太阳升起,阿尔法狗已变成完全不同的存在,可李世石依旧是李世石。

 

从此之后,人类再无机会。

 

人工智能,不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是以太网中跃动的字节和CPU中孱弱的灵魂,而是实实在在的宿命。

 

我们已身处大时代的革命之中,科学家将现今阶段,定义为弱人工智能时代。

 

即便是简单的人工智能,其实已打败多数人类。

 

美国亚马逊超级仓库内,无数机器人正在货架间疯狂奔跑;欧洲快餐店内,机器人端着汉堡和薯条7x24小时来去自如;而在南非矿井下,电脑正操作精密仪器,向幽暗处进发。

 

在珠三角,富士康厂区外,那些多愁善感的年轻人,来不及抒发乡愁,就得争抢为数不多的机会。

 

工厂流水线两侧,100万台精密机器人正逐步填满他们站过的位置。

 

这只是革命的开始,随着智能飞速进化,AI已杀入世界每一个角落。

 

全球数百位顶尖科学家,耗费漫长时间,搭建了一个复杂数学模型,通过类似摩尔定律的多重推演,得到一个最终结论。

 

人工智能或将在2040年,达到普通人智能水平,并引发智力爆炸。这一时刻,距今还有23年。

 

23年这个时间,并不是凭空杜撰,更非杞人忧天,数字背后是复杂的社科曲线和人为变量。

 

而且,这只是科学家保守估计。一个砸准的苹果或者一个任性的天才,都可能将节点大为提前。

 

比23年更可怕的是,到达节点后,人工智能或将实现瞬间飞跃。


人工智能专家普遍认同,人工智能不可能锁死在人类智力水平上。它将超越人类,变成我们无法理解的智慧物种。

 

科学家描述中,一个人工智能系统花了几十年时间到达了幼儿智力水平;在到达这个节点一小时后,电脑立刻推导出了爱因斯坦的相对论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能瞬间达到了普通人类的17万倍。

 

这就是改变人类种族的“奇点”。

 

我们,极有可能是站在食物链顶端的最后一批人类。


    02


一个超人工智能,一旦被创造出来,将是地球有史以来最强物种。所有生物,包括人类,都只能屈居其下。

 

以谷歌技术总监雷·库兹韦尔为代表的一群极客,正欢欣鼓舞地期盼这天到来。

 

他们坚信,一个比我们聪明十几万倍的大脑,将解决所有问题,疾病、战乱、贫困,各种纠缠人类的苦难,都不再是问题。

 

为等待这一天到来,库兹韦尔每天吃下100个药片,希望自己能够活得足够长久。他还预订了冷冻遗体服务,如果提早离世,那么还有机会在人工智能到来后,将大脑解冻。

 

他眼中的未来,恍如伊甸。届时,人类身体内,奔跑着无数纳米机器人,帮我们修补心脏或消灭肿瘤。超智能计算机日夜计算,帮我们逆转衰老。

 

甚至,我们可上传记忆,与AI神魂合一。

 

然而,另一派人却忧心忡忡。特斯拉CEO埃隆·马斯克将人工智能比做核能。原子弹问世容易,但控制核武器时至今日仍困难重重。

 

比尔·盖茨也站在马斯克这一边,“很难想象为什么有人觉得人工智能不足为虑。”

 

在他们眼中,超人工智能是盘踞未来的可怕生物。它们的思维方式和人类南辕北辙,且不眠不休,飞速进化。

 

对超人工智能感到悲观的马斯克,正紧锣密鼓地筹备“火星殖民”项目。

 

他计划从2024年开始,逐步把100万人送上火星,并在火星建立起一个完整可持续的文明。

 

这位悲观的天才企业家,其实用心良苦。一方面他寄望于用“火星计划”,转移科学界焦点视线,拖慢人工智能到来的脚步。另一方面,他希望,在火星给人类留一个备份。


23年后,我们考虑的可能不再是逃离忧伤的北上广,而是逃离这个星球。


03


大众对人工智能的最大误解,是认为人工智能和曾经的石头、斧子、打字机、手机一样,不过是人类肢体的延伸。

 

但这一轮人工智能大潮,和以往几次技术革命都不同,人工智能将成为人类的替代。就连我们认为安全无忧的高级脑力工作,都岌岌可危。

 

美国已经有十家律所聘用了Ross,一个背后由IBM人工智能系统支持的虚拟助理。

 

Ross可以同时查阅数万份历史判决,并勾画重点。它能够听懂普通人所说的英文,并给出逻辑清晰的答案。以前需要500名初级律师完成的工作,它数分钟内就能够解决。

 

此外,交易算法已成为华尔街标配。在投资基金办公室里,以往急促的脚步声和电话铃声,已被服务器轻微的嗡鸣声取代。

 

寥寥数个分析师,偶尔抬头看看程序运行状况,在0.01秒内,人工智能就会根据市场走势和媒体信息作出判断,买卖数亿的股票。

 

斯坦福教授卡普兰做了一项统计,美国注册在案的720个职业中,将有47%被人工智能取代。在中国,这个比例可能超过70%。

 

过去用几代人命运承担的大变革,我们要在20年内独自面对。失业大潮即将开始,并没给我们留太多适应的时间。

 

学者分析,在接下来的几十年中,只有三类人,能勉强对抗AI的冲击,即资本家、明星和技术工人。

 

换而言之,面对步步逼近的人工智能,你要么积累财富,成为资本大鳄。要么积累名气,成为独特个体。要么积累知识,成为更高深技术的掌握者。

 

然而,财富堤坝、个性堤坝、技术堤坝,能在人工智能狂潮下坚持多久,无人可知。

 

这真是个荒谬又戏剧的时代,我们在狭小的星球上争吵不堪,黑天鹅振翅而起,地球村分崩离析,当我们以为泡沫剧将一直循环重播时,大结局却平静到来。

 

23年,我们擦亮灯壶,砸掉锁扣,放出的是阿拉丁,还是潘多拉,天知道。

特别说明: 

从2017年6月1日开始,国家《互联网新闻信息服务管理规定》正式实施。为符合这个新规,并继续为读者提供更具市场投资价值的财经信息咨询,故此,今天起开始将微信公号读者引导入“内部会员版”,并可升级为花儿街的正式会员,享受独家私密的深度分析。对由此给读者造成的麻烦,尚请理解。具体转入方法如下:


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存