【技术反思】霍金再发警告:人工智能将统治地球!17位教授这样回应……
全球创新论坛
来源:信息与软件、造就
编者按 :
霍金警告,未来人工智能可能会以生化战争或核子战争的方式摧毁人类。
早在几年前霍金就曾发表过言论称“人工智能将会是人类灭绝的主要推动力之一”。
人工智能的崛起意味着未来机器人的“智慧”将超乎人类,很有可能反抗人类的命令并拥有自己的思想。近日,霍金再发警告:人工智能将统治地球,真实版终结者即将上演!再次提醒世人要特别注意人工智能对未来的威胁。
近几年来,霍金不断发表言论来警醒世人。从一开始的地外生物入侵到某些小行星会撞击地球等等,而他提到次数最多的,也是他自己觉得最有可能的事情就恰恰是工智能的未来人类的危害。对此他表示非常地担忧,但相反,他非常支持人工智能技术,他曾说过人工智能可能是我们文明历史上最为重要的事情之一。
霍金最担心的不是人工智能的开发,而是人工智能会给人类带来的“副作用”。霍金警告说,地球的毁灭正在向我们逼近,人类创造了人工智能,他们可以毁灭我们,但是我们却没有注意到这一点,没有能够建立有效的机制去防止灾难的发生,至今仍然没有机会避免这场灾难。
霍金认为,随着人们科学技术水平的日益上升,导致未来人工智能得到的信息技术会愈发强大。而未来人工智能可能会以生化战争或核子战争的方式摧毁人类。人类唯一的办法,就是运用其逻辑与理性去控制这个可能即将到来的毁灭。
霍金还说,当这些人工智能开始学会了思考或是有了自己的“智慧”以后,地球毁灭也只是时间问题。不可否认的是,现阶段的人工智能科技带给人们非常多的好处,对于人们非常有利,人们也热衷于去开发它并且依赖它。但就是人类的这种懒惰和贪婪的心理,未来将会导致我们走向灭亡。
霍金在一次采访中曾说过这样一段话:
"我说的人工智能将会摧毁人类,并不是他们拥有着常人不可能拥有的智慧或者想法,而是当他们的信息高度发达的时候,如果它们做一件事的目标和人类预期的目标发生冲突时,人类的噩梦就要开始了。"
霍金觉得如果现在人们还不能看清未来,不能为未来的事情做好最坏打算,建立相对于人工智能更好地管理办法,人类最终都会败给人工智能,只不过是时间问题。
在很多人的眼里,霍金的警告只是杞人忧天。他们觉得那些事情与自己无关,想都不要想当人类真正面临像电影《终结者》中所描述的那样,那根本不可能发生。那么人工智能到底会不会像霍金说的那样摧毁人类呢?人工智能又是怎样“反抗”人类的目的呢?
其实到目前为止,人工智能的“反抗”已经开始了。
世界上第一宗机器人杀人事件发生在1978年的日本。据当时的资料记载,1978年9月6日,日本广岛一家工厂的切割机器人在切钢板时,突然发生异常,将一名值班工人当做钢板操作,最终导致工人死亡。
1981年7月4日,日本川崎重工业公司明石工厂的一名修理工人,无意中触动了机器人的启动钮,这个加工齿轮的机器人立即工作起来,把那个工人当成齿轮夹起,放在加工台上砸成了肉饼。
而最近几年,令人印象最深的机器人伤人事件莫过于德国大众汽车制造厂发生的悲剧。2015年7月,大众汽车德国工厂中的一名21岁工人正在安装和调制机器人,在没有任何命令的情况下机器人突然“出手”击中工人的胸部,并将其碾压在金属板上,导致工人当场死亡。事后大众汽车发言人称,“杀人”的机器人在平常并不会和人类有直接接触,而是被放在安全笼中,事发当时这名不幸的遇难员工刚好在笼中对其进行调试。
这也正是霍金和许多科学家所担心的。事实上,对于人工智能, 大家并未达成共识。在有的专家看来,AI的危险性已十分紧迫;但更多专家认为,这种担忧要么被夸大了,要么根本没有必要。
那么,对于人工智能,我们应担心到何种程度?来看看17名来自不同领域的思想领袖是怎样回答的:
吴恩达(Andrew NG)
百度副总裁兼首席科学家
Coursera联席主席、联合创始人
斯坦福大学副教授
担心“邪恶杀手”AI,就好比担心火星上出现人口过剩。有朝一日也许会有这样的问题,但现在连登上火星都还没影呢。人们被这些不必要的炒作转移了视线,从而忽略了AI带来的更大问题:排挤就业。
塞巴斯蒂安·史朗(Sebastian Thrun)
斯坦福大学计算机科学教授
对我来说,人工智能有着无限的吸引力,我一点也不担心。AI会解放人类,我们不用再从事高度重复性的办公室工作,从而拥有更多时间去发挥创造力。我已经迫不及待了。
史蒂芬·平克(Steven Pinker)
哈佛大学心理学教授
气候变化、核武器、耐抗生素的病原体、新法西斯主义的政治运动,还有经济自动化导致的工人失业,这些才是我们要担心的事情。我们不用担心的事情,就是人工智能奴役人类。
玛格丽特·玛托诺斯(Margaret Martonosi)
普林斯顿大学计算机科学教授
AI有望带来巨大的社会效益。它将重塑医药、交通等生活中的方方面面。任何技术,只要能影响到生活中的各个方面,就需要得到政策层面的重视,比如如何发挥它的作用,如何加以约束。完全忽略AI的风险固然愚蠢,但面对科技,“威胁至上”的态度总是不可取的。
丹妮拉·鲁斯(Daniela Rus)
麻省理工学院计算机科学与人工智能实验室主任
AI是一种极为强大的工具,和其他工具一样,其本质并无好坏,关键看我们怎么用。通过收集和分析海洋与温室气体的无线监控数据,AI已经在帮助我们应对气候变化这样的问题。在AI的帮助下,我们得以分析海量病历,创建个性化的医疗方案。AI还在普及教育,确保每一个孩子都有机会学到宝贵的工作与生活技能。
人们对AI心存恐惧与顾虑,也是情有可原。作为研究人员,我们有责任认清这些恐惧,并提供不同的视角和解决方案。我相信,未来,AI能促进人类与机器的合作,改善我们的生活。
布莱恩·卡普兰(Bryan Caplan)
乔治梅森大学经济学教授
要说可怕,设计AI的人也一样可怕。与家养动物一样,AI诞生的目的,就是服务于它的创造者。朝鲜若是掌控AI技术,后果会怎样?听着吓人,可现在朝鲜手里还握着远程导弹呢,两者并无太大的区别。电影《终结者》中AI攻击人类的情形,在现实中纯粹是杞人忧天。
安迪·尼伦(Andy Nealen)
纽约大学计算机科学教授
我有点担心的是“中间阶段”,比如说,自动驾驶汽车与人类司机共用道路时……一旦人类不再驾车,整体交通状况将更加安全,由于人类失误而酿成事故的情况将更为少见。
换言之,我担心的是技术进步过程中的“成长之痛”,但这就是人的本质——探索并推进科技前沿。我的态度不是焦虑和担忧,更多的是兴奋和警醒。
劳伦斯·克劳斯(Lawrence Krauss)
亚利桑那州立大学教授
起源项目负责人
AI既令人畏惧,又让人兴奋。毫无疑问,随着AI的持续发展,我们的生活方式将发生翻天覆地的变化。生活将因此改善,比如自动驾驶汽车,比如很多工作被代劳,这可以让人类解放出来,去从事更有意义的活动。另一方面,它也可能导致大规模失业,还会为黑客入侵提供新的漏洞。高级的网络攻击会使互联网信息的可靠性下降,削弱国内与国际基础设施。
尽管如此,好运总是青睐有准备的头脑,因此,我们有必要探索一切可能性,包括好的和坏的,从而做好准备。因为,无论我们愿意与否,那个未来始终将会降临。
肖恩·卡罗尔(Sean Carroll)
加州理工学院宇宙学与物理学教授
AI有一种特殊属性,它很容易让你想到可怕的科幻电影场景,比如人工智能接管了地球上所有的机器,奴役可怜的人类。这种可能性不是很大,不过,它倒是有可能获得执行某种任务的能力,而它是如何执行的,背后的过程却不为人所知……由此可见,意料之外的后果不可轻视。
仔细而彻底地思索这些潜在后果,以及如何预防,同时又不会阻碍人工智能的进步,这才是正确的应对之道。
尼克·博斯特罗姆(Nick Bostrom)
牛津大学人类未来研究所所长
向机器超级智能的过渡非同小可,出大问题也不无可能,我们应予以重视。这应该会促使数学和计算机科学界的顶尖人才专门去从事AI安全性和AI控制的研究。
乔安娜·布莱森(Joanna Bryson)
巴斯大学计算机科学教授
普林斯顿大学信息技术政策中心研究员
俄罗斯黑客攻击,英国脱欧运动,美国总统大选,或是竞选团队基于选民的社交媒体信息,实施相应的操控,浇灭其投票积极性……如果AI在这些事件中起到作用,或是作为社会技术力量的一部分,导致了财富不平等的加剧和政治极化,就像19纪末、20世纪初两场世界大战和一场大萧条的前奏——那我们就得小心了。
倒不是说我们应该恐慌,我想说的是,我们应该在这个课题上下大力气进行研究,在摸索与治理的同时,走出这些险境。但愿AI也能让我们变得更聪明,帮助我们做到这一点。
斯图尔特·罗素(Stuart Russell)
加州大学伯克利分校计算机科学教授
一个显而易见的风险是,我们没能正确地指定目标,导致不可取的行为出现,并在全球范围内造成不可逆的负面后果。对这种“偶然性的价值错位”问题,我们也许能找到恰当的解决方案,虽然执行起来,可能要非常严格才行。
至于最有可能出现的故障模式,我有两种猜测。其一:越来越多的知识和专业技能都存储于机器之内,并在机器间传输,人类没有必要再学习那些艰深的东西,有动力去学习的人也越来越少,人类社会将日渐衰落。其二:人类失去对智能化恶意软件的控制,抑或是,有人故意使用不安全的AI,以达到不可告人的目的。
朱利安·图吉利斯(Julian Togelius)
纽约大学计算机科学教授
我担心的是,随着技术应用到越来越多的岗位中,就业将受到何种程度的冲击?(在我看来,AI与其他技术并无本质区别。)我们能否设计出新的职位——尤其是在服务业和政府体系中——以此适应变革?或者,我们是不是要付钱让人赋闲在家?
泰勒·科文(Tyler Cowen)
乔治梅森大学经济学教授
AI不会灭掉人类,也不会奴役人类。它会使一些岗位迅速消失,让我们措手不及。白领也不会幸免。到最后,我们还是会适应过来,但重大技术变革的转型过程通常不会一帆风顺。
巴特·塞尔曼(Bart Selman)
康奈尔大学计算机科学教授
社会需要就一些问题做好准备。一个关键问题是,未来,当AI技术能够应付相当一部分常规性工作,该如何应对就业大幅减少的局面?另外,早期AI技术若是有什么需要我们担心的,那也是“不够智能”的问题,而不是“智能过头”。
早期的自动化AI系统犯错几率很大,而且是多数人类不会犯的错误。因此,我们有必要通过全民教育,普及AI和机器学习的局限性,以及其中潜藏的偏见。
摩西·瓦迪(Moshe Vardi)
莱斯大学计算工程学教授
人工智能有四个需要担心的问题。其一,AI对劳动力市场的冲击。技术进步已经给就业带来重大冲击,未来几年,其影响还会不断加大。其二,委派给AI系统的重要决定。人类该把哪些决定权握在手里?哪些可以交付给机器?对此,我们应展开认真的讨论。其三,致命的自动化武器系统。最后,“超级智能”问题,即人类无法控制机器。
前三个问题都已迫在眉睫,而超级智能的风险虽然屡见报端,却并不十分紧迫。我们还有充足的时间去深入评估。
贾安·普利萨鲁(Jaan Priisalu)
北约协同网络防御中心高级研究员
前爱沙尼亚信息系统局局长
我们不能把提升AI技术水平视作非法行为。否则一旦有人打破规则,那么相较于守法者而言,此人将拥有巨大的优势。同时,此人也会被判违法。这种两败俱伤的局面并不可取。此外,我们也不应忽视AI技术水平的指数级提升。如果认识不到这一点,就意味着,在规则被重新制定时,我们就已经跟不上时代了。
在超级智能机器时代,我们就别指望能有良好的生存条件了。侥幸心理是靠不住的。我们也别想着要与AI决战,这样做很不明智,只会激发AI的攻击性。最好的办法也许是,主动塑造不断改进的AI。教会它们如何与人类互利共存。
《中国电子科学研究院学报》欢迎各位专家、学者赐稿!投稿链接
电话:010-68893411
邮箱:dkyxuebao@vip.126.com