查看原文
其他

人工智能治理论(三):人工智能的治理思路和建议

律小旭 人工智能法律研究 2023-01-13

本平台聚焦互联网和人工智能新时代、新生态法律的研究与服务,整合资源,跨界合作。系由曹旭律师团队运营,业务范围以一般民商事争议解决为基础,创新型中小企业法律服务、创业园区法律支持服务、互联网领域法律服务为核心。诚实守信,勤勉尽责,以最大的努力维护委托人的合法权益。

合作联系微信:soupain 

邮箱:105491396@qq.com

备注:本号原创作品

作者:曹旭律师

首发:人工智能法律研究

阅读说明:节选自论文的一部分。

人工智能已经不知不觉渗透到我们的衣食住行之中,对社会结构、生活秩序乃至国际格局造成了巨大的影响,即便目前仅仅是其最初级的阶段。


如果说,以往人们对人工智能的印象还是仅存在于文学作品里的话,今天,人工智能带来的挑战,则必须由哲学家、科学家、法学家、社会学家、商界领袖和政界领袖等各个群体从每个角度做出严肃的思考和探讨。


2017年7月8日,国务院印发的关于《新一代人工智能发展规划》的通知,将发展人工智能确定为国家战略的同时,提出“制定促进人工智能发展的法律法规和伦理规范”,“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。


本文从法律、伦理、安全、社会治理的角度出发,总结人工智能发展引发的社会问题和目前国际社会尝试解决问题的探索,分析人工智能时代问题的新现象、新特征,提出人工智能治理的新思路和新建议。



人工智能的治理思路和建议


目前对人工智能进行的法律、伦理、安全管理相关的尝试和探索,基本上还停留在描述美好目标,但是还没有具体实现方法的阶段。虽然确立了“以人为本”,即“人工智能系统必须为人类的利益服务”的最高原则,但是究竟怎么样才是为人类利益服务,可能会是一个争论不休的问题。因为人类的利益往往是不一致的,不同的群体、不同的国家、不同的组织会有不同的利益,有相当大的一部分利益是互相冲突的。如果回顾人类发展史,大约5到10万年前,地球上不同区域的人类分别进化为非洲的“智人”人属和欧洲的“尼安德特人”人属、亚洲的“直立人”人属等等,然后“智人”杀出非洲,对包括“尼安德特人”、“直立人”等在内的所有其他人属和全球各类的大型猛兽进行了灭绝,导致全球只留下了“智人”这一个人属。在人类的发展史上,战争和对利益的争夺是从来没有停歇过的。现在要告诉人工智能为人类的利益服务,可是那一部分人的利益呢?


如果人工智能必须遵守人类设定的价值观和法律、道德规范,那么具体什么样的的价值观和法律、道德规范应当被写入呢?这首先应当问人类应该有什么样的价值观和法律、道德规范,这关乎到人类对自身是如何认识的,人的本质是什么,世界的本质是什么,人与世界的关系等哲学问题。


本文并不讨论人工智能是否会具有自我意识,是否会具有人性,而是强调这样一个事实:即使人工智能未必会具有自我意识,未必会具有人性,其照样可以引发严重的法律、伦理、安全和社会问题。


一方面,机器人并不需要做什么恶毒的动机就可以伤害到人类,它们只要把人类正常含义的指令以一种机械而极端的方式执行,就足以带来一场灾难。


另一方面,人工智能的发展不是一个纯技术的过程,而是一个人性充分介入的过程。对人工智能的法律、伦理、安全治理其实是对人性的法律、伦理、安全治理。


所以人工智能引发的问题或者说对人类社会产生的威胁分两种,一种是人工智能本身对人类社会产生的威胁,另一种是人类利用人工智能对人类社会产生的威胁。相应的,对人工智能的治理也分两个部分,一部分是对人工智能本身的治理,另一部分是对人类利用人工智能的治理。


对人工智能本身的治理。至少在目前阶段,人们还不必担心人工智能本身产生“害人之心”。人们应该担心的是人工智能在机械的执行自己的任务过程中,无意中伤害到人类或者造成其他问题。所以这主要涉及的是合理设计的问题。我们应该针对这个问题做专门的研究,内容包括:人工智能在执行任务过程中会有那些情况、那些方式可能无意中伤害到人类?采取哪些措施可以预防其发生?如果发生了可以采取哪些应急措施?预防措施和应急措施的完整方案等等。涉及的细节问题包括,在超过预期的应用环境下使人工智能自动停止执行任务的内置程序;对应用环境的侦测判断程序;对于人工智能应用的风险指数分级管理等等。这种研究不仅仅是技术上的,需要社会学、心理学、法学等多学科的共同参与。


对人类利用人工智能的治理,包括人类正常使用人工智能引起的问题,比如行业应用引起的大规模失业问题;也包括人类非正常使用人工智能引起的问题,比如,黑客和利用人工智能诈骗、侵权。这方面的问题本质上还是对人的治理,但是因为人工智能的因素呈现出新特点。


针对具体问题,本文提出以下治理思路和建议。

(一)个人数据与隐私保护 


个人数据与隐私保护应该建设三方面的内容。


1,建设个人数据与隐私多层次、可定义范围的授权管理系统。


对个人数据根据内容、敏感性、风险度进行分层次的划分,分别定级。在进行授权时,用户可以选择将不同级别的个人数据与隐私开放给应用访问。将个人数据的应用场景进行使用范围的划分和分级,用户授权时可以选择大、中、小、特定、区域等不同的允许个人数据与隐私应用的范围。建立用户授权后可以改变和取消授权的制度。建设用户授权的统一管理软件,用户通过统一管理软件可以看到所有的授权及授权的具体内容,并对授权进行操作。


2,建设个人数据与隐私利益共享制度。


当个人数据聚合在一起后,会形成庞大的价值,这种价值个体应该得到合理分享。所以在上述授权管理系统的基础上,对个人数据按照不同的数据等级和使用范围制定价格标准。商家使用不同级别、不同范围的个人数据需要支付不同的费用。


3,法律规制。


形成专门的法律法规,并且对于贩卖数据、盗取数据、非法交易等行为,制定相应的惩罚措施。大数据时代,个体权益变得非常弱势,产生“数据霸权”现象,个体的数据被任意的收集、贩卖、利用,而使用者不用承担任何费用或责任。这种现象必须得到遏制。


(二)安全问题


针对安全问题,主要应该注意以下方面的内容。


1,透明和可追溯性。


如前述提到的,人工智能的决策过程应该是透明和可追溯的。当不利结果或事故发生时,能够追溯人工智能的决策过程以确认根源所在。所有的决策数据必须是可以被获取并呈交给法院,以供争议发生时评估的。


2,建设具有高度信任感的虚拟之城。


人类信息全面数字化的负面影响之一是,大量垃圾式的信息、不真实的信息,欺骗性的信息出现在交换网络上,真正有价值的信息被湮没在信息海洋之中。而网络的匿名性使得违法罪犯者隐藏在网络之后,难于得到惩罚。一系列连锁反应导致了数字时代的“信任危机”。对数字化信息的系统整理工作之一是:在虚拟空间中建立一个和现实空间主体的社会活动完整映射的虚拟之城。在这个虚拟之城内,每个人的ID都和身份证一样,和现实世界中的个人相对应。数据都是现实空间主体社会活动所产生的真实数据,各个数据从不同的角度反映出对应主体社会活动所产生的真实结果。真实就是信用的基础。信用危机的根源就在于虚假性普遍存在,每个主体都不确定另一个主体所陈述的到底是真是假。虚拟之城则以真实数据为材料,铺设重建信用的基石。


3,行政管理和法律规制的全环节覆盖。


以虚拟之城为基础,将相关的行政管理和法律规制思路体现进去,完整覆盖互联网及人工智能行业的设计、编写、制造、传播、改造、使用等各个环节。


4,问责研究。


如前述提到的,当不利结果或事故发生时,人工智能本身并不能承担责任,而应由人工智能背后的人或组织承担责任。不同的人工智能应用,设计者所内置的功能灵活度不同,用户的参与度也不同,根据其发挥功能的方式,应该确定不同的问责规则。针对这个问题,应该展开专门的研究。


5,武器威胁。


针对人工智能武器的威胁,必须由全球范围内各国共同合作,达成国际协议,确认不可逾越的界限;像禁止核武器和其他被禁止的常规武器一样,列入相应人工智能武器的清单。对于允许的武器,也要详细规定使用场景和使用规则。


(三)社会问题


1,失业问题。


李开复曾在《纽约时报》撰写专栏文章认为,要解决人工智能变革所带来的大规模失业问题,需要发展“关爱服务”类职业。比如陪伴老人就医的志工、孤儿院的教导员、戒酒互助社的志愿者,甚或未来可能出现的——帮助那些沉迷于电脑虚拟现实刺激中的“平行人”重返人生现实的心理工作者。也就是将当下的很多所谓志愿服务工作转为高薪职业,而支撑资金来自于靠人工智能赚取大量财富的少数公司。资金转移的方式还是靠传统的政府税收调节手段等。个人比较赞同这种思路。人工智能提高了创造财富的效率,将人们从很多繁重的工作中解放出来,人们应当利用到使人类获得幸福感更高的方面。政府在人工智能创造的财富如何分配方面需要详细的进行研究和设计。如果人工智能创造了大量财富,却仅仅使得少数人获益,贫富差距更大,那么人工智能创造的财富反而降低了人们的幸福感。


有的观点认为人工智能替代了大量人类工作后,人类会因为不需要劳动而失去成就感,从而感到精神消沉,失去人生的意义。笔者完全不赞同这种观点。失业问题所隐含的恐慌问题其背后的含义是生存问题,并不是成就感问题。失业意味着没有收入,从而无法生存下去。如果政府在人工智能创造的财富分配方面进行了合理的设计,那么社会财富总量的增加应该是使人们的生存问题更不需要担心了。多出来的时间和精力有足够多的领域使人们获得成就感。比如,艺术、绘画、音乐等发掘美感的行为;比如电子竞技、足球、篮球等对抗性的项目;比如陪护、心理疏导员等关爱人类的内容。


财富的重新分配是一个重大的问题,会引起社会结构的变化和一定的动荡,提前进行详细研究和推演是非常必要的。


2,研究与教育。


这里的研究不仅仅指技术研究,更重要的是为了对人工智能引发的法律、伦理、安全和社会问题进行治理,由计算机科学家、哲学家、社会学家、心理学家、法学家等等各行业的专家学者和商业领袖、政治领袖一起共同做出应对。人工智能在飞速的发展,人类智能应对人工智能对人类社会冲击的研究速度也必须得跟上,否则会越来越被甩在后面,导致社会危机的爆发。


进行人工智能相关的科普教育。首先是为了降低违法犯罪人员利用人工智能进行诈骗的成功几率。其次是为了防止“人工智能信仰”的发生。远古人类对于自己所无法解释的自然现象,会结合拟人化的心理,将之归因于神灵。鉴于人工智能的飞速发展,超过某些人类的理解,将来或许会有“人工智能神灵化”的现象发生。最后,人工智能作为人类能力的延伸,需要人的操作。人类整体素质越高,懂得如何和人工智能互动的人才会越来越多。


3,程序特权问题。


我认为“程序特权”是互联网时代出现的一个新特征。程序不仅仅带来进步和便利,程序也正在制造一种基于技术的不平等。程序的背后是一个个具体的人或利益团体,形成程序特权阶层。程序特权阶层利用技术的不平等,无视用户的反对意见,强行推销自己的产品,收集自己需要的信息,甚至直接侵害用户的利益。程序特权阶层是信息时代的最大收益者,然而程序特权阶层并不自觉拥有高度的道德观。现实情况是,程序特权拥有者们缺乏应有的道德观念,一旦脱离了法律的约束,就利用手中的特权为所欲为。当大众饱受被侵权之苦,不但看不到施暴者得到应有的惩处,反而看到施暴者因此而不断的获利,这使大众进一步丧失了遵守公序良俗之信心。这是信息时代反而加深了人与人之间的不信任感的原因之一。


要扭转这一趋势,必须针对程序特权现象进行专门研究,并制定对应的行政管理措施和法律法规。和制定合理的财富分配方式一样,在消除技术的不平等、程序特权的不平等等社会现象方面也应由各国政府发挥作用进行调节。仅仅依靠志愿组织的道德呼吁和自愿遵守是远远不够的。


4,边界问题


虚拟世界的范围跨越国界,每个国界内可以存在多个虚拟世界。虚拟世界的边界和现实世界的国界互相交融的问题也是互联网时代出现的新特征。


一方面,虚拟世界的跨国界特征迫使各国之间互相合作,共同制定对策才能够做出及时、合理的应对。但是各国基于利益的冲突,很难进行有效合作。尤其是棱镜门事件后国家安全问题被提升到显著的位置,和各国之间开展着激烈的人工智能科技竞争,导致国家之间更难一致行动。


另一方面,随着程序特权阶层的实力越来越强大,以巨头集团为代表的利益和以国家为代表的利益必将发生越来越多的冲突。虽然现在程序特权阶层除了经济实力强大外似乎还不足以成为国家的对手。但是随着技术威力的继续增强和对人们生活的深入渗透,程序特权阶层会掌握越来越大的影响力。当各国为了传统纷争互相猜疑、互相消耗,疲于应对时,程序特权阶层则在有条不紊的扩张着自己的边界和实力。在未来,程序特权阶层有可能依仗技术这一个法宝,向在人工智能发展浪潮中处于落后位置的、对技术有较大依赖性的国家施加越来越大的影响。

响应司法部和中华全国律师协会的号召,本号提供免费公益法律咨询。进入方式:点击菜单 “公益咨询 - 免费公益法律咨询”。

行业研究报告分享:

32 联通&华为-面向5G的室内覆盖数字化演进白皮书-2018.6-21页

关注本公众号,并回复关键字"5g室内"。

33 2018新型智慧城市发展与实践研究报告-中国信通院-2018.04-63页

关注本公众号,并回复关键字"城市发展"。

34 智慧家庭标准化白皮书

关注本公众号,并回复关键字"智慧家庭"。

35 2018智慧农业发展研究报告:新科技驱动农业变革-亿欧智库-2018.05-57页

关注本公众号,并回复关键字"智慧农业"。

36 GFK中国-智能家居入口之争:中国消费级机器人分析报告-2018.04-22页

关注本公众号,并回复关键字"智能家居"。


更多重量级研究报告,持续分享中......

曹旭律师原创作品集

本站原创文章,欢迎个人朋友圈转发分享!

刊物、机构或其他公众号如需转载,请联系授权事宜:105491396@qq.com

投稿及商务合作,请加微信sea-cho

如果要加入“人工智能法律研究与交友”微信群,请加微信soupain,备注或发送“加群ai+姓名+职务”。

如果要加入“法律星球”微信群,请加微信sea-cho,备注或发送“加群星球+姓名+职务”。

聚焦互联网与人工智能新时代、新生态法律研究与服务。包括互联网法律、人工智能法律、金融科技法律、区块链法律、AR/VR虚拟(增强)现实法律、物联网法律、车联网法律、智慧城市法律、智能制造法律、大数据法律、云服务法律等相关领域的研究与服务。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存