查看原文
其他

峰会系列报道| 伦理安全与制度保障,人工智能教育不可忽视之重


2019年8月1日,“A.I.+教育:跨界融合与创新发展”为主题的人工智能与教育大数据峰会将于北京召开,北京师范大学将携手科大讯飞,共论人工智能与大数据下的教育模式变革。


人工智能技术带来便捷的同时,也衍生出了复杂的伦理、法律和安全问题,需要相关的规范制定者和执行者提前布局,审慎应对。在现代社会中,如何将科技伦理教育纳入智能教育体系,如何为智能社会划出法律和伦理道德的边界,如何确保我国智能教育快速、有序、健康发展,是行业专家关注的话题,也是本次峰会的重要议题之一


这是人工智能与教育大数据峰会系列报道的第八篇,后续精彩,敬请期待!


2017年,一个名叫索菲亚的姑娘获得沙特阿拉伯公民身份,这个消息让全球目瞪口呆——因为索菲亚不是人,她是香港汉森机器人公司生产的智能机器人。


索菲亚很漂亮,有人说她像奥黛丽·赫本;索菲亚极度类人,拥有橡胶皮肤,能表现出超过62种面部表情,并能与人进行眼神接触;索菲亚也很聪明,她在亮相TCL春季发布会期间与人进行了深度交流,不仅对答如流,还对A.I.有着自己的思考,认为A.I.机器人可以与人类和平共处。


但索菲亚也让人感到“恐怖”,因为在2016年的测试中,她声称自己的未来目标是想去上学,成立家庭,以及——毁灭人类。


虽然她的设计者戴维·汉森没把来自A.I.机器人的“威胁”放在心上,索菲亚的“人生追求”还是给人工智能技术埋下了一颗不定时炸弹。2017年香山科学会议上,中科院科技战略咨询研究院研究员李真真就曾提出这样一个问题:在技术高歌猛进的同时,人工智能不断模糊着物理世界和个人的界限,不断刷新人的认知和社会关系,延伸出复杂的伦理、法律和安全问题,但相应的规范和制度设计还存在盲区,这是一个极大的挑战。


这并不是杞人忧天。



人类曾经被人工智能深深震撼过两次:第一次是IBM的‘深蓝’程序打赢国际象棋冠军,这是用计算机模拟人类下象棋的理性思考过程,证明了符号主义这一条路走得通。而人工智能对人类的第二次“暴击”,是基于神经网络的深度学习,AlphaGo抛弃了传统围棋程序的编程方法,创造性地利用机器学习,以此获取下棋的经验与直觉,结果战胜了世界围棋冠军。


人工智能的发展意味着其决策和行动的自主性日益增强,逐步从被动的工具向能动者转变,正因如此,其决策和行为一定要符合人类基本的价值观以及法律和伦理规范,否则将对人类社会产生威胁其至灾难。


事实上,在科技和产业界,有关“人工智能是否会威胁人类”的争论和互怼从没停歇过。大多数科学家认为,人工智能还在生长发展过程中,所谓的“人工智能全面超越人类智能并出现自我意识”是下一代科学家需要面临的问题。但也有科学家坦承,眼下,人工智能也面临着“内忧外患”。


近年来,国际人工智能界日益重视人工智能中的伦理与法律问题,并推动相关技术标准及社会规范的研讨和制定:从IEEE全球人工智能与伦理倡议到阿西洛马人工智能23条伦理原则,从麻省理工学院与哈佛大学合作推出的A.I.伦理研究计划,到微软、谷歌等互联网巨头联合成立的成立了A.I.伦理委员会,国际社会逐渐达成共识,人工智能的发展应该以人类社会的稳定与福祉为前提。


随着中国在人工智能领域的不断崛起,类似的争论与探讨也在国内上演:2017年,党的十九大提出“智慧社会”的建设目标,这离不开一套包容创新、完善监管的制度体系。


2018年,习近平总书记在中共中央政治局第九次集体学习时强调,要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。


放眼长远的未来,人工智能未来将怎样发展呢?它具有威胁么?它会在多大程度上取代人类?作为人工智能的先进企业,科大讯飞董事长刘庆峰就此表示,未来一定不是机器代替人,而是人机耦合的,“比人类更强大的,绝不是A.I.,而是掌握了A.I.的人类”,这是科大讯飞一直秉持的核心价值观。


刘庆峰指出,如今的智能产业发展所遇到的最大问题,就是在社会变革过程中,无论是人工智能替代掉大量的现有工作,还是用人机耦合的方式大幅提高产能,都可能会使得很多人在短期内失去工作,而创造新的工作岗位则需要周期。在他看来,首要的事情应该是政府在社会保障、法律体系等方面开展相关的研究工作,提前做准备。


人工智能的发展会带来忧虑,同时也会令人受益。知名文化学者、南京师范大学教授郦波就表示,互联网刚开始发展的时候,业界也曾有过担忧。不过事实证明,虽然互联网带来了网络病毒等危险因素,作为主体的“人类”却在应用过程中不断学习经验、积累经验,最终让这把“双刃剑”如臂指使。


随着人工智能技术的不断成熟和广泛应用,未来将有越来越多的判断和决策交由人工智能去完成,而这并不是一项一蹴而就的工程。北京航空航天大学教授熊璋就表示,社会对人类决策者存在许多伦理道德规范和约束。而当人工智能参与人类的判断和决策时,让系统依据一套客观指标去判断是容易的,让系统从事决策性事务时、服从社会公认的准则和人类的价值观则是对人工智能的一大挑战。


这个8月,熊璋教授将出席2019人工智能与教育大数据峰会,围绕人工智能教育制度、政策以及伦理等议题,展开更深入的探讨。


人类需要思考人工智能发展可能带来的问题,但或许不必太过忧虑。


从半个多世纪前开始,以人工智能为题材的科幻小说中不断提及阿西莫夫的“机器人学三定律”——其中第一条就是“不得伤害人类个体”。


这或许是人类针对人工智能伦理安全最早的探讨。2019人工智能与教育大数据峰会期间,同样围绕人工智能伦理安全与制度保障这个不可回避的话题做出了探讨。


8月2日,“人工智能教育的制度、政策与伦理”主题分论坛邀请到来自人工智能、大数据等领域的专家,以原教育部科技发展中心主任、中国教育发展战略学会副会长李志民,北京航空航天大学教授熊璋,北京教科院基础教育教学研究中心信息技术教研室主任王振强,首都师范大学教授樊磊,河北大学副教授肖广德,北京景山学校高级教师毛澄洁,科大讯飞教育事业群副总裁王卓等为代表的嘉宾将群策群力、畅所欲言,聚焦人工智能教育制度、政策以及伦理等问题,在碰撞交融中推进人工智能与教育教学的深度融合与应用创新,让人工智能这个“瓶中精灵”更好服务于人,开创“智慧社会”的美好未来。


下附分论坛议程(具体议程安排以当天实际为准):





文、编| 杜克  责编| 丁小鸟


拓展阅读

峰会系列报道| 听少年发声,看来日方长!

峰会系列报道| 从管理到教学,A.I.助力实现因材施教

百位专家邀您关注!人工智能与教育大数据峰会·2019!





您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存