其他

周志华:严肃的研究者就不该去触碰强人工智能 | 观点

2018-01-29 监管与合规

撰文| 周志华(南京大学教授)


  


近来“人工智能”很热,关于“强人工智能”的一些讨论也见诸于网媒报端。作为一名人工智能研究者,在此谈点粗浅的看法仅供大家批评。


关于人工智能,长期存在两种不同的目标或者理念。一种是希望借鉴人类的智能行为,研制出更好的工具以减轻人类智力劳动,一般称为“弱人工智能”,类似于“高级仿生学”。另一种是希望研制出达到甚至超越人类智慧水平的人造物,具有心智和意识、能根据自己的意图开展行动,一般称为“强人工智能”,实则可谓“人造智能”。


人工智能技术现在所取得的进展和成功,是缘于“弱人工智能”而不是“强人工智能”的研究。正如国际人工智能联合会前主席、牛津大学计算机系主任迈克尔·伍德里奇(Michael Wooldrige)教授在2016年CCF-GAIR大会¹报告中所说:强人工智能“几乎没有进展”,甚至“几乎没有严肃的活动”(“little progress, little serious activity”)。事实上,人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。那么,这是不是因为强人工智能“太难”,所以大家“退而求其次”呢?不然。事实上,绝大多数人工智能研究者认为,不能做、不该做!


牛津大学迈克尔·伍德里奇教授


首先,从技术上来说,主流人工智能学界的努力从来就不是朝向强人工智能,现有技术的发展也不会自动地使强人工智能成为可能。


不妨看看现在人工智能技术所取得的成功。在图像识别、语音识别方面,机器已经达到甚至超过了普通人类的水平;在机器翻译方面,便携的实时翻译器已成为现实;在自动推理方面,机器很早就能进行定理自动证明;在棋类游戏方面,机器已经打败了最顶尖的人类棋手……可以看出,上述成功有一个共同的特点:它们都是在考虑某种特定类型的智能行为,而不是“完全智能”行为²。一方面,聚焦在特定类型的智能行为上,才使得任务成为可能而非空谈³;另一方面,如果目标是制造“工具”,那么考虑特定类型的智能行为就已足够,自主心智、独立意识、甚至情感⁴之类的东西,根 38 37792 38 14668 0 0 1422 0 0:00:26 0:00:10 0:00:16 2873本无须考虑。打个未必恰当的比方,如果人们的目标是造个工具砸东西,那么造出锤子来就好了,无须考虑让锤子有心智、意识,也不必考虑是否要让锤子自己感觉到“疼”。事实上,人工智能研究活跃的子领域,都是与制造智能“工具”直接相关的;而对“强人工智能”必不可少、却与“工具”不太相关的内容,如自主心智、独立意识、机器情感之类,罕有严肃的研究。所以,现有技术即便发展再快、发展再好,也不会直接使得强人工智能成为可能。


第二,即便想研究强人工智能,也不知道路在何方。


有一种说法,认为如果能够模拟出“人脑”,把其中的神经元、神经突触等全部同规模地仿制出来,那么强人工智能就会自然产生。然而,这种说法从来没有得到过一点点证明,严格说来甚至不能称其为“猜想”,因为猜想也应该有一些即便不够完备但尚能显示可能性的证据,例如通过仿制简单细胞,做出了单细胞智能生物。实际上,我们完全有更强烈的理由认为,即便能精确地观察和仿制出神经细胞的行为,也无法还原产生出智能行为。正如国际人工智能终身成就奖得主、多伦多大学赫克托·莱韦斯克(Hector J. Levesque)教授在他2017年的新著⁵中所说,即便在最理想的情况下,神经科学家也仅是能获得“目标代码”而已,没有理由认为获得了目标代码就能还原出源代码,因为这样的“反向工程”即便对软件程序来说也几乎是不可能的,更何况神经细胞内部还存在“分布式表示”⁶。


第三,即便强人工智能是可能的,也不应该去研究它。


任何一个科学研究领域或许都存在一些不该去触碰的东西。例如克隆人是被主流生命科学界所禁止的。强人工智能的造物将具有自主心智、独立意识,那么,它凭什么能“甘心”为人类服务、被人类“奴役”?有人把阿西莫夫的“机器人三定律”⁷奉为圭臬,但事实上这是行不通的。且不论三定律自身的矛盾和漏洞⁸,凭什么以为有自主心智和独立意识,且智能全面达到甚至超越人类水平的机器,就不会把这些约束改掉呢?即便它是善意的,人类又凭什么认为它会同意比它“愚蠢”的人类的判断?例如它会不会以为把人类全部关进监狱就可以避免人类互相残杀,这才是对人类整体最好的?至于说,到时候人类如果觉得危险了,可以把机器的电源断开……这只是开个玩笑吧,真到那个时候,机器恐怕早就能采用其他的方式摄入能源了。总之,强人工智能出现的那一天,恐怕真的就是人类面临最大生存危机的时候。所以,对严肃的人工智能研究者来说,如果真的相信自己的努力会产生结果,那就不该去触碰强人工智能。


来源:《中国计算机学会通讯》2018年第1期《专栏》,原标题为《周志华:关于强人工智能》。

霍金、马斯克携手力推“阿西洛马人工智能原则”,告诫AI发展底线(附科技大佬圆桌视频)!

本文转载自大数据文摘,作者|任杰邱猛,Aileen

Source article:
 


🌹🌹免费分享:需要阿西洛马人工智能原则(Asilomar AI Principles)”英文全文的朋友,请在文末直接点击”阅读原文“!


【导读】人工智能的发展引起了国际社会对于机器伦理问题的关注,阿西洛马人工智能原则被称为人工智能发展的“23条军规”,是目前国际社会对AI伦理相对系统的阐述,具有较大的影响力。但该伦理原则尚处于初期阶段,很多问题缺乏广泛的共识,需要进一步探索。我国尚无类似伦理指南,应积极构建人工智能伦理指南,发挥引领作用,推动普惠和有益人工智能发展。

阿西洛马人工智能23原则原文:

科研问题


1)研究目标:人工智能研究的目标不是为了创造不受指挥的智能,而是有益的智能。

2)研究经费:对人工智能进行投资的同时,要保证有经费用于研究如何有益地使用人工智能,研究包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:

  • 如何使未来的人工智能系统变得高度稳健,即系统会执行我们所想的而不会发生故障或被入侵?

  • 如何通过自动化提升我们的繁荣程度,同时保持人们的资源和意志?

  • 如何升级我们的法制体系使其更公平高效,能够跟得上人工智能的发展速度,并且能控制人工智能带来的风险?

  • 人工智能该与什么样的价值体系保持一致?它该有怎样的法律和伦理地位?

3)科学与政策的联系:在人工智能研究员和政策制定者之间应该要有富有建设性的和健康的交流。

4)科研文化:在人工智能研究员和开发者中应该要培养起一种以合作、信任与透明为基础的文化。

5)  避免不必要的竞争:人工智能开发团队之间应该积极合作,避免有人钻空子导致安全标准被削弱。

伦理和价值


6)安全性:人工智能系统在它们整个的运转周期内应该是安全可靠的,并且能在可应用的和可行的地方被验证。

7)失败透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。

8)审判透明性:任何自动系统参与的司法决策都应提供令人满意的解释,可被有能力的人类监管机构审核。

9)负责:高级人工智能系统的设计者和建造者,在道德影响上,是人工智能使用、误用和动作的利益相关者,并有责任和机会去塑造那些影响。

10)价值观一致:高度自主的人工智能系统应该被设计,确保它们的目标和行为在整个运行过程里与人类的价值观相一致。

11)人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。

12)个人隐私:人们应该拥有权力去访问、管理和控制他们产生的数据,考虑到人工智能系统有分析和使用那些数据的能力。

13)自由和隐私:人工智能在个人数据上的应用必须不能不当地剥夺人们真实的或认为的自由。

14)分享利益:人工智能科技应该惠及并赋权最大可能的多数人。

15)共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。

16)人类控制:人类应该来选择如何和是否委派人工智能系统去完成人类选择的目标。

17)非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序。

,而不是颠覆。

18)人工智能装备竞赛:致命的自动化武器的装备竞赛应该被禁止。

更长期的问题


19)能力警惕:我们应该避免关于未来人工智能能力上限的假设,但这一点还没有共识。

20)重要性:高级人工智能能够代表地球生命历史的一个重大变化,我们应该用与之相称的警惕和资源来管理。

21)风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须能够被相应的努力所管理和减轻。

22)递归的自我提升:人工智能系统被设计成能够以一种可以快速提升质量和数量的方式进行自我升级或自我替代,这种方式必须受制于严格的安全和控制标准。

23)公共利益:超级智能的开发是为了服务广泛认可的伦理理想,并且是为了全人类的利益而不是一个国家和组织的利益。


猜你喜欢(点击阅读)

【原创连载3】何渊:敬告阿里、腾讯和百度——数据合规,合则生,不合则亡!

【原创连载2】何渊:论数据权的区分保护和利用制度——政府数据篇

【原创连载1】何渊:2018数据权元年——从炮轰支付宝开始 

何渊:欧盟议会全球首个“关于制定机器人民事法律规则的决议”(介绍部分)

 何渊:政府数据开放的整体法律框架

 何渊:人工智能时代“大数据”加上“差异化算法”带来的身份歧视,就是商业领域隐匿的穷人与狗不得入内!

【前沿7】可识别个人信息、隐私以及新概念

【前沿6】打破匿名化的迷思:数字时代的匿名化挑战

【前沿5】美国布鲁斯的经典隐私理论和德国的人格权理论:四种类型的隐私侵权体系比整体保护体系更好吗?

【前沿4】这是私人的,但归我所有吗?—走向财产权的个人信息

【前沿3】关于马的法律—网络法到底该教些什么?

【前沿2】《自动驾驶的监管挑战:面对悲剧性选择人工智能如何决策》

【前沿1】监管人工智能系统:风险、挑战、能力和策略



诚意推荐 欢迎关注


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存