查看原文
其他

图灵奖得主的20条判断:人工智能最大的威胁不是超越人类,而是人类过分依赖

「人工智能的崛起可能是人类遇到的最好的事,也可能是最坏的事情,但我们还不知道答案。」


这是霍金生前的观点,似乎也成为一种预言。


在人工智能疾速狂奔的时代,人们对人工智能是否可能取代人类这个话题投入了巨大的好奇。


在未来,人工智能将怎样接近人类智能,人类应该如何与人工智能共存,我们是否需要恐惧人工智能......都是需要探究并回答的议题。


2007年图灵奖得主、世界安全计算机系统发展重要贡献者、中美法三国院士约瑟夫·希发基思(Joseph Sifakis)在他的新作《理解和改变世界》中,针对这个问题给出了清晰的解答:人工智能不会超越人类,人类和人工智能是互补的,而非互相替代的关系。


他认为,比起所谓的超越人类,AI会带来的最大威胁是人类对它的依赖可能导致我们无限让渡自己的判断,丧失决策权,最终成为“奴隶的奴隶”。


今天的文章,与你分享他书中的核心观点。


以下内容摘自约瑟夫·希发基思著《理解和改变世界》。


观点摘要


关于人工智能


1.人类和人工智能是互补的,而非互相替代的关系。


人类拥有的常识知识和形成模型的抽象能力,这是当前范式的人工智能无法做到的,因此它们也不可能形成原理性的创新。


而人工智能是可以在不掌握原理的情况下,对于可能存在大量变量的复杂事物进行预测。这是人因为认知能力限制而无法达到的,这称为“AI神谕”,它可能带来一种“新的科学”。


2.目前的人工智能是一种弱人工智能,人类离通用人工智能(AGI)还很远。


机器可以做出令人印象深刻的事情。它们在游戏中可以超越人类。它们能够执行各种任务。最近也取得了巨大的成就。


它们可以执行感官能力相关的任务,比如视觉识别。然而,当涉及到情境感知、环境变化的适应和创造性思维时,机器无法超越人类。


3.自主系统是朝向通用智能迈出的重要一步,帮助人工智能更加接近人类。


让计算机接近人类智能的第一步,是让它表现得像我们所说的强人工智能。


传统计算机与人类的区别在于,传统计算机会自动执行某些预定的功能,是一个自动化系统;而人类则具有自主行动的能力。自主系统便是实现强人工智能的重要方式。


4.合理地使用人工智能和自主系统取决于:第一,根据客观标准评估我们是否可以信任计算机生成的知识。第二,全社会的警惕性和政治责任感。


如果我们不能保证足够的安全性和可靠性,那么就应该限制自主系统的使用。


5.“替代测试”可以超越“图灵测试”判断AI的智能程度。


图灵测试是不够的,需要使用替代测试,如果可以用一台机器替代执行任务的另一个代理,那么我会说这个代理和执行任务的代理一样聪明。


如果我可以将机器代替人类驾驶汽车、教人类或成为一名优秀的外科医生,那么我会说机器和人类一样聪明。


6.改善人类的生活是科技发展的首要任务。


在这个过程中,社会必须以人类生活的改善为目标发展并应用技术。


对我们的社会来说,重要的问题是我们是否能够与机器合作,掌握由机器辅助开发的知识的发展和演进。或者我们将发展出一种由人驱动的科学和机器驱动的科学并存的情况。


7.对于人类来说,最好的情景是机器和人类之间达成一种和谐合作。


AI会带来的最大威胁是人类对它的依赖可能导致我们无限让渡自己的判断,丧失决策权,最终成为“奴隶的奴隶”。


人类需要掌握知识的发展、应用的所有过程,确保不会让这些机器自身为我们做出关键决策。


8.人工智能带来的风险不在于人类被机器所统治,而在于人类接受机器做出所有关键决策。


人工智能、包括通用人工智能都是好事,我不反对这些。AI带来的危险是明确的,主要可能来自于对它的滥用。


但不幸的是,今天我们没有针对这种危险的相关法规。因为政府不知道这些东西是如何开发的,缺乏透明度也就意味着无法应用法规。各个国家、国际机构应该强制执行法规。


9.要识别出人工智能带来的实际风险和真正挑战。


人们都在热议计算机智能的假想风险,也许把真正的风险掩盖住了。


而这些真正的风险才是问题所在,因为它们涉及社会组织的类型及其所服务的关系,特别是社会和政治性质的问题。


失业,防护、安全和风险管理,技术依赖将是人工智能带来的真正的风险。


10.人工智能时代,通过适应性原则管理风险。


有两种风险管理办法:第一种基于预防原则,第二种方法则基于适应性原则。


人们对危机管理的态度出现了一种危险的转变,曾被人们奉为圭臬的预防性原则逐渐被适应性管理取代,


人们认为这种政策的转变是必要的,因为预防性原则的要求会使得人工智能和自主系统等新技术的推广与使用的成本攀升到令人望而生畏的地步。


关于知识和创新


1.知识是有用和有效的信息,可以让我们理解和改变世界。


一方面,能让我们对周围发生的事情,包括物理世界、社会及其产物,有更深刻的认识;另一方面,知识能让我们实现目标。


2.在当今这个时代,拥有知识比拥有物质产品更重要,也更具有战略意义。


人们可以利用知识来控制物质世界并应对全球挑战,当然,前提是人们能够掌握管理知识的元知识。


3.要强调知识的“真实性”,否则,知识将失去它的实用价值——帮助我们理解和改变世界。


4.要想获得更深入的知识,需要一种痛苦的、孤独的努力。


5.人们需要掌握管理知识的元知识。


元知识是用来管理所有形式知识的知识,它使我们能够把各种知识综合起来。


元知识包括解决问题的方法、设计方法和决策方法等,同时还包括在专业技能中使用的非形式化的知识。


6.草率地采用表面上看起来科学的方法是件危险的事。我们必须要有自己的辨别能力,而不是迷信于科学主义。


科学主义假借自然科学中采用方法论的权威,滥用于其他不能经受验证的领域。以所谓基于科学的预测的名义来操控社会进程,是我们所面临的实实在在的风险,尤其是目前人工智能被广泛应用的情况下。


7.科学主义往往伴随着把专业知识神秘化的危险。


专业知识神秘化,让人们感觉好像所有严肃的事情都必须经过专家判断,并由他们来最终决定。


计算机对知识的管理,更是强化了这种神秘的感觉。专家们滥用专业知识带来的权威性,可能会导致一些灾难性的政策。


8.创新是实现技术突破的关键。


美国成功的原因是创新方面十分出色。要实现创新,应该将卓越的大学和卓越的产业联系在一起。


这不仅取决于物质资源,还取决于文化因素、教育以及制度应该认可个体的创造力和创业精神。


9.现代的创新需要形成完善的创新生态系统。


因此现代的创新,并不是关起门来就能完成的。而是要形成一个完善的创新生态系统。这个生态系统是三个因素协同作用的结果:


(1)研究机构;

(2)工业企业;

(3)初创企业。


一个完善的创新生态系统,能够汇集专家、科学家、工程师和管理人员等重要的人力资源,并具有特殊的创新文化,硅谷就是一个很好的案例。


10.在知识和信息社会中,新闻和学术组织这样的机构应当发挥真理捍卫者的作用,帮助公众正确了解所有受关注的重大问题的作用。


糟糕的扭曲的信息,对个人和社会的自由都构成了巨大威胁。


现在,越来越多捏造的谎言成为误导和操纵大众的工具,互联网和社交网络正在成倍地放大这种破坏性的影响。


道德危机和相对主义模糊了真与假的界限,舆论正在被各种各样的信息混淆,人们难以区分未经证实的“新闻”和已被证实的事实,造成了如今的后真相时代。


01

人工智能会取代人类吗?


人类的思维分为快速思维和慢速思维,两种思维对应着不同的计算模式,也就是编程的计算模式与人工神经网络的计算模式,理清不同的思维特点,能帮助我们区分人类智能和人工智能,为探究人工智能接近人类智能指明道路。


快速思维和慢速思维


人类拥有两种类型的思维模式:


较慢却有意识加工的思维,这是程序性的并且需要运用推理规则。我们使用慢速思维去有意识地解决问题,例如分析问题、做计划或制造东西。


快速却自动(无意识)完成的思维,快速思维是自动完成的,却可以让我们解决复杂度极高的问题,例如说话、走路、弹钢琴等。


两种思维模式也对应两种不同的计算模式:


慢速思维基于我们理解事物的心智模式,这种模式与我们对计算机进行编程的计算模式类似。


快速思维则是有意识学习的结果,通过反复地训练,内化成一种自动的模式,这与人工神经网络的计算模型一样。


对应这两种思维模式,如果我们想要制造双足机器人或者能骑车的机器人,可以通过两种方法:


1. 考虑好所有可能的物理情况,然后将机器人的动作编写为相应的程序。我们需要借助力学理论,编写能实时控制的程序。


2. 对人工神经网络进行反复训练,让它在同样的物理条件下做出相似的动作。我们并不需要力学知识,但是可以训练人工神经网络学习如何平衡。


最适合模拟快速思维的是直接依赖物理过程的自然计算机,例如量子计算机、蛋白质计算机,特别是人工神经网络。


它们与快速思维一样,对信息的处理本质上是并行的,而且执行的大都是那种逻辑分析不可能完成的计算。


人类天生拥有常识智能


传统计算机所拥有的任何“智能”都只是程序员的智能,它们只是在执行程序员用符号描述好的命令而已。


随着人工神经网络的出现,情况发生了变化。


人工神经网络采用完全不同的计算模式,这种模式不是靠编程,而是从庞大的数据集中进行学习。


让计算机接近人类智能的第一步,是让它表现得像我们所说的强人工智能。能把特定问题的解决方案与相应的技能结合起来,像人类一样对环境的刺激做出反应。


人类智能的特征是能够把对感官信息的感知/解释、信息的逻辑处理,以及可能导致行动的决策结合起来。


想让计算机表现出人类的行为,需要赋予它相应的语义模型:我们可以把意识理解为大脑在外部世界和内部世界的语义模型中“看到”自己如何行动的能力。


这个模型在我们的婴儿时期就自动构建起来了。


人类的大部分智力都属于我们所说的常识。我们的大脑会使用它的语义模型来评估环境中正在发生的事情以及可能的后果。


这个语义模型不断积累经验,几乎每天都在自我丰富。


理论上,如果我们能够对自然语言进行分析和形式化,按照层级构建出概念之间关系的语义网络,再加上表征和更新知识的规则,我们就可以构建出这样一个模型。


人类思维具有认知局限


人类的思维受到认知复杂度的限制。


实验证明,我们的大脑能够关联的参数数量的上限大约是五个(一个关系与四个参数)。


人类无法同时建立起大量操作单位之间的关系,这对我们理解世界是一个非常大的限制,这导致我们人类的思维并不具备理解复杂现象的能力,也限制了我们所能构建的理论与制造的工件的复杂性。


现象是复杂的,人类思维对复杂现象的认知具有局限性。


在过去的科学中,人类通过简化构建了一种研究复杂现象的方式,但这种方式并不能解决所有的复杂现象的问题。


正是在这些问题上,相信人与计算机之间协作,可以在一定程度上帮助我们克服认知局限,建立起一种新的研究复杂现象的方式。


02

自主系统:超越弱人工智能


人类思维的本性限制了我们探索知识的能力,我们可以利用计算机来克服认知复杂性的障碍,发展并验证能够解释复杂现象的新理论。


人工智能和超级计算机的使用正在为人类知识的发展铺设一条新路。


机器学习的成果


机器学习和数据分析领域的最新进展表明,机器正确地生成知识并做出预测是可能的。


这些技术可以识别数据中的复杂关系,而这些关系可以显示出因果关系并进一步做出预测。


比较科学知识的发展方式和机器学习产生知识的方式,科学发现是观察者经过学习的结果,他创建一个可以解释和预测现象的模型,进而形成一个理论。


而人工神经网络生成知识的方式则是对大规模数据进行长期“学习”。通过学习代表因果关系的数据,神经网络可以用一种外推方法来估计某个原因最可能导致的结果。


如果人工神经网络的输入和输出是物理量,对其做形式化就没有理论限制了。


我们可以通过了解人工神经网络各部分的结构和行为,从理论上计算出表征输入和输出关系的数学函数。


在数学模型无法起作用的情况下,人工神经网络就显得特别有用。但是采用机器学习的方法,并不能完全解决智能的问题。


人类智能的特征是自主行为以及对内、外部环境变化的适应。这是人类大脑能够创造新知识,理解从未遇到过的情况,以及设定新目标的关键所在。


目前机器学习并不能做到一点。只有当某一天,计算机系统能够自主执行大量任务,并且能够适应不断变化的环境时,我们才可以说人工智能和人类智能之间的差距正在消失。


人工智能接近人类的可能:自主系统


传统计算机与人类的区别在于,传统计算机会自动执行某些预定的功能,是一个自动化系统;而人类则具有自主行动的能力,人可以对环境的变化做出反应,也可以在内部目标的驱动下主动采取行动。


人工智能的应用使我们向前迈出了重要的一步,即从自动化系统发展为自主系统。


对于自主系统,我们期待它能够在复杂任务中取代人类,人们的目标是希望达到在没有人工干预的情况下,把人工智能与自动化的流程结合起来,从而实现更高的效率。


在这个系统中,人的作用是设定和调整目标,而目标的实现则完全交给自主系统来完成。


在自动驾驶中,我们只需要输入目的地,自动驾驶系统就能帮我们把车开到相应的位置;在智能工厂或智能农场中,我们只需要输入生产指标,整个系统就能帮我们管理工厂/农场,从而完成生产指标。


实现自主系统和服务是物联网的核心目标。如果这个目标实现了,那么我们将更有信心说,计算机智能可以起到比在游戏中击败人类更重要的作用。


自主系统将“自主”定义为:


为了适应环境的变化,系统在没有人为干预的情况下,实现一系列目标的能力。


自主系统中有五个关键的功能协同工作实现自主性,环境感知和状态表示这两个功能可以理解环境状况,目标管理和策略规划这两个功能可以进行决策,自主学习帮助系统自我学习。


自主系统的体系结构及其五个关键功能


03

人工智能带来的真正挑战


“计算机智能最终将超过人类智能,我们最终可能会成为机器的宠物。”显然,这些观点缺乏严肃性,是站不住脚的。


再强大的机器也不足以战胜人类的智慧。


但他们的这些想法在媒体中找到了滋生的温床,被不加批判地广泛传播,在很大程度上引起了公众的共鸣。


人们都在热议计算机智能的假想风险,也许把真正的风险掩盖住了。


而这些真正的风险才是问题所在,因为它们涉及社会组织的类型及其所服务的关系,特别是社会和政治性质的问题。


风险一:失业


很久以前人们就发现,自动化程度不断提高带来的一个风险是,机器人使用越普遍的行业失业率越高。


除了引发高失业率之外,自动化的趋势还会进一步扩大需要技能和知识的高薪工作与其他体力劳动之间的差距。


有些人认为,传统工作岗位的消失会被新需求所创造的岗位抵消。除非对职业结构进行彻底改革,否则失业和工资差距的问题将会恶化。


风险二:防护、安全和风险管理


当自动化集成程度超过某个水平时,信息系统如果缺乏安全保护可能是极其危险的。


众所周知,即使对那些最重要的系统,人们也无法做到全面保护它们不遭受网络攻击,我们充其量只能希望及时发现入侵者。


在引入人工智能和自主系统的领域,其风险管理与在其他领域有显著的差异。


在这些领域中,不再有独立的国家机构来保证和控制系统的质量及安全。这个责任转移给了制造商。其中的风险是显而易见的,因为用户的安全级别将不再由透明的技术标准决定,而是由制造成本和能够覆盖事故赔偿金的保险成本之间的最佳平衡值来决定。


政府和国际组织明显是缺席的。他们好像认为技术进步本身就是目的。他们很少关心互联网上发生的违法行为。他们认为风险不可避免,因此干脆对其放任自流,就好像进步一定会带来某些不可避免和无法控制的弊病一样。


因此,公众舆论仍然处于混乱迷失状态,而且在一定程度上被那些既不负责也不客观的声音操纵了。


一些人夸大了风险,而另一些人则为了推广技术应用而淡化风险。公众却乐于接受错误的思想,并随波逐流。


风险三:技术依赖


技术的应用解决了人们的许多实际问题并使生活变得更舒适,但这也意味着我们丧失了某些解决问题的技能。


担心人们过度依赖技术并非杞人忧天。因为现在技术不仅是解决单个问题,而且为人们提供了全面的解决方案。


这意味着我们正在过渡到一种新的生活方式——技术提供大量的服务,减轻了我们管理决策的负担。


在这种生活方式中,有越来越多的技能/知识不再是我们必须掌握的了。


因此,正确、合理地使用人工智能和自主系统取决于:根据客观标准评估我们是否可以信任计算机生成的知识;全社会的警惕性和政治责任感。


来源:长江商学院


END

投资如掼蛋,掼蛋如人生(附掼蛋规则指南)

说他在中央混得不咋地

二胎贷、彩礼贷、 出国贷、 新婚贷、墓地贷,请GO DIE!

揭秘泰缅边境诈骗窝点:员工超2万,小组年入5.4亿

要旅游,去缅甸?!

哇!许家印的新消息!

时下最劲爆的“屌茅”,喝起来是真难喝!投资别蹭“利好茅台”热度

医院院长的“财富自由”之路

正部级官员赴美治病,感叹人生只是一套戏装!

瑞幸是时候成为金融巨头了

企业致投资人的一封信:掰说话,先证明你有钱

唉,爱奇艺系啊,被曝业务停摆、全员欠薪,产品已全线下架!

第四次科技革命?一文读懂“室温超导”发展历史、分类、性能及应用

券商厕纸都不让放了,饮水机都不加水了,还得拿奖金去投资,降薪都不好使了……




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存