查看原文
其他

以用户为中心的算法治理是什么?有效市场与有为政府合力推进、多元共治和分类分级统筹安全与创新《追AI的人》第20期直播回放

直播回顾

《追AI的人》系列直播第20期邀请了南开大学竞争法研究中心主任,南开大学法学院副院长陈兵老师分享以友好型算法治理为中心,推进可信人工智能健康发展》。


以下为直播的文字回放,共计10786字。


直播简介回顾:

如何以友好型算法治理为中心,建立健全可信人工智能的算法治理模式和体系?《追AI的人》第20期直播!


陈 兵 

南开大学竞争法研究中心主任,南开大学法学院副院长、教授、博士生导师,司法与社会研究中心主任。天津市“海河英才计划”引进领军人才,天津市市场监督管理委员会-南开大学“竞争治理技术科技创新实验室”主任,兼任国家社科基金项目通讯评审鉴定专家,中国新一代人工智能战略研究院特约研究员。

先后赴中国香港、美国、澳大利亚、加拿大、韩国等高校学习工作。在中英韩文刊物上发表论文两百余篇,完成十余篇咨政报告被人民日报社、光明日报社、教育部、国家市场监督管理总局、天津市法学会等单位采用采纳。独著《自由与秩序——互联网经济法治精神》(知识产权出版社2020年)《数字经济时代法治观澜》(人民出版社2021年)《新基建与数据治理法治化》(人民出版社2022年)《法治推进下的数字经济规范发展》(社会科学文献出版社2022年)《数字经济多维治理的逻辑阐发》(中国法制出版社2022年)《人工智能竞争治理法治化》(人民出版社2023年)等。现主要研究数据治理法治化、人工智能法治、竞争法治现代化、知识产权保护等主题。

分享大纲

1、 人工智能发展对现行法律适用性的挑战
2、 可信人工智能算法要素治理能力待提升
3、 “用户为中心”的友好型算法治理内核
4、 “有效市场”与“有为政府”合力推进
5、 “多元共治+分类分级”统筹安全与创新





人工智能的发展可以简单地分类为:弱人工智能、强人工智能到超人工智能。可信人工智能是指我们希望对人工智能技术产品、产业的应用开发一定是建立在安全、可信、可解释的基础之上。

第一章,探讨可信人工智能对于现行法律适用性的挑战。2011年初,时任全国人大委员长吴邦国宣布中国特色社会主义法律体系已经建成。在十八大以前,通常有16个字即“有法可依,有法必依,执法必严,违法必究”。

到了十八大的时候,提出的是“科学立法”。从“有法可依”到“科学立法”的转变,从某种程度上说明我们已经建成了初步的社会主义法治体系和框架。在这种情况下,现行法律是可以来应对一些社会生活,但是新的技术、新的业态、新的经济、新的模式出现之后,现行法律可能在回应一些新技术、新产品、新业态出现困惑,包括人工智能产品比如自动驾驶,它所引发的法律责任的认定等,以及2022年以来关于算法推荐所引发的一些法律纠纷,如何来进行责任认定?包括在人工智能的大背景下,具体要素的治理问题等。

因为人工智能它不是一个虚幻的存在,它是架构在具体的数据要素、算法要素,包括算力之上,所以数据的采集、流通、共享使用过程中,数据的权属问题、控制权问题、收益分配问题等,都引发了对现行法律适用性的挑战。

第二章,是关于治理的效能。第三章,聚焦到人工智能中的核心部分——算法。如何进行友好型算法的构建?去年中央网信办发布的《互联网信息服务算法推荐管理规定》,我们解读到它是“以人为本”,即“以用户为中心”来治理算法。

第四、第五章是分享对于用户为中心的友好型算法治理的具体架构,包括它的方法、原则、规则的设计。


简单地来回顾一下AI的发展简史,20世纪50年代到21世纪,经历了上图的波峰和波底的波动。为什么现在的AI从技术、产品到产业发展如此快速?实际上跟海量数据的处理能力、存储能力,包括对传输,新基础建设,是同步发展的。

为什么在此之前图灵学习发展的会比较慢?因为之前物理能力不允许,AI它不是一个虚幻的东西,它一定是建构在物理能力上的一种扩容,包括储存的空间,算力的提升。所以实际上算法本身是架构在数据、算力的基础之上,而对于算力来说,它可能更加接近于物理。

AI技术的发展和应用上,中美赛道,与欧盟地区相比较,欧盟为什么相对落后?是我们需要去思考的问题。它的落后是指在技术开发研发上的落后?还是在市场化、产业化、商业化的过程中的落后?所以我们提出了一个问题,如何对AI长期发展提供一种有力的、可持续的战略支撑。

在研究过程中,发现除了数据算法是关键核心之外,如何用法治来保障创新也是值得思考的问题。这里的创新,具体到 AI的场景之下,可能是在实验将技术进行商业化、市场化、产业化的过程中,如何对于它的算法、算力,提供更多的训练机会。

在美国 ,ChatGPT它作为人机产品已经达到了美国高考的中等水平,大家会觉得不可思议,但是也可能会憧憬,但有的人甚至是一种担心。


从法治的角度来说,法治应该是二线的。所谓的二线就是说它是对风险的控制和防范,在某种情况下它不应该冲在社会的第一线。社会的第一线应该是由市场来解决,所以当出现问题的时候,法治应该有它的限度,并不是去责怪法治滞后,因为法治为产业和产品开发的发展保驾护航,只是一个好的愿景。

探讨可信人工智能的治理,包括构建友好型算法治理,或者以人为本的算法治理过程中,法治它设立的是底线,它需要做的是留出足够的空间去做创新,去发展、应用。

AI服务与生活,已经有了很多成熟的产品和比较好的表现。黄色字体内容是在司法领域AI作为一种工具来提出法律意见。以及我们国家在2022年提出,要将人工智能运用于事发场景之中,实际上是有了进一步的提升。以前我们做司法裁判、数据汇集,都是以人工为主,未来可能是让 AI自动生成,让它来生成一些判决书、规则。

包括关于在可信人工智能立法制度建设过程中,未来的立法是否能由人工智能来生产,都是值得去探讨的,而且很有可能会成为现实。但是这会带来一些问题,比如学术研究的学者会不会失业,人工智能可以写文章了,来进行学术的创作。但是不能因为它可能存在的风险,而忽视了它带来的创新发展,作为一种工具,它本身是具有科技的中立性。但是它的存在会带来人工智能伦理问题,所以从法治风险的防范,它要解决的是事前预防,或者事中事后的规制救济。
 

基于商业和工业社会的法律制度安排,到信息社会,再到人工智能智慧中,它需不需要调整?这个是我们需要去思考的,也是我们去必须去回应的。否则我们的制度设计、制度安排、制度实施就有可能成为妨碍创新或者是毁坏创新的不当设计。

从法治的角度,寻找价值观,即在一个价值观之上,进行逻辑的归纳到演绎。因为立法的过程本身是对于现实生活中公认问题的基本价值观的高度共识和概括。所以早期从立法的角度来看,它是一个归纳的过程,聚焦到算法的问题,算法它本身可能没有所谓的好与坏,但是推荐性算法内容生成的时候,会带来一些风险。但是我们要正确地去看待这些风险,不能因为它可能存在这些风险,而不让它去进行应用。
 

举个例子——长短视频之争。反映出AI如何影响市场竞争?它是对现行法律的一种挑战。以前会认为长短视频之间的竞争,好像不在一个赛道上面。一个是长的视频,一个是短的,一个全景式的,一个是二次创作的。

但是其实它们最终争夺的是一样的,都是流量。这种情况下,所引发的竞争注意力会挑战以前对于竞争关系的认定。以前对于防范不正当竞争,我们会寻找这两者之间有没有直接或间接的竞争关系。首先以竞争关系为起点,分析权利义务是否受到的损害以及损害和行为之间的因果关系,但现在发现没有竞争关系的两者之间也可能会产生一种不当的竞争。这是算法引发竞争模式的变化。


在以前的情况下,运用避风港原则就可以,因为海量的数据很难识别,如果单靠人工的去传播,它的损害是有限的,所以采取避风港原则,有利于维护中间平台的正当权益,但是问题是以前的人工传播改为了算法的推荐,它所带来的侵害可能跟以前的人工传播完全不是一个量级。在这种情况下,传统的避风港原则是不是会产生变化?
 
 
对于适用性挑战,党的二十大报告强调要“构建新一代信息技术、人工智能、生物技术、新能源、新材料、高端装备、绿色环保等一批新的增长引擎”。所以目前所遇到的问题,需要靠创新来解决。


2022年,科技部、教育部、工信部等6部门联合发布《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》,统筹人工智能场景创新;最高法发布《关于规范和加强人工智能司法应用的意见》,推动人工智能同司法工作深度融合。

2023年初,Chat GPT火爆的增长,今年3月份我们相应的一些产品的上线,对于人工智能的治理更加关注,尤其是治理法治化的探讨,因为治理它是一个系统工程,不仅可以靠法律,还可以靠其他的工具,需要去探讨如何来在法律治理的范畴之内,对人工智能的发展促进推动。


现行的法律的适用性受到了哪些挑战?可信人工智能基本的属性——安全可靠、可解释、可问责。可问责对应到法律上,其实就是一个责任的归属问题,责任的认定问题。可靠可解释,实际上是会落到具体的要素。比如人工智能中算法的问题,算法如果构成了侵权,算法侵权所引发的法律责任主体是谁?

我们试图着用现行的法律制度来应对新技术、新业态、新产业、新模式所带来的挑战,这是我们需要回应的问题。实际上从总体来看,对于现行法律适用性存在一些问题需要进行什么调整,那么调整的原则是什么?方向是什么?是我们从法律的角度需要去思考的问题,因为它符合整个的逻辑架构。

从产品到产业,都是在蓬勃发展。蓬勃发展的基础,是希望对市场规制有确定性、稳定性、持续性。要如何锁定它?或者说明确它的稳定性、持续性?我个人的观点是希望尊重技术的规律。对于人工智能作为一种技术,它有哪些规律?人工智能产品的开发,从有想法,到有模型开发到上线调整整个的过程,有它的规律。规律性的东西,我们无论是做技术的,还是做法治制度设计,都是应该去尊重的。
 

人工智能发展对现行法律适用性挑战性大概呈现为这么几个方面,一是传统法律适用性不足、应对性不强,无法有效回应安全、责任、发展之间的平衡。二是人工智能现行法律体系存在漏洞,难以有效回应人工智能应用带来的风险。第三个挑战是现行立法制度对人工智能产业发展支撑不足,难以实现安全与发展的平衡。

我们发现在相应的法律层面,并没有细化,比如百度在武汉研究的无人驾驶,这里面要强调的是什么?首先在概念上还需要澄清,因为法律是一个精确的东西,无人驾驶跟自动驾驶不是一个概念,自动驾驶在一定程度下它是要更宽泛,自动驾驶它不排斥人,在某些场景下人可以接管,所以在自动驾驶产品的开发中,它的主体性一定是驾驶员,但无人驾驶是在没有驾驶员的情况下,那么它应该做什么?所以它一个是技术问题,第二个也是对传统的法律的价值观念、伦理的一种调试。

这些在道路交通法中还没有明确,也就是说现在道路交通法安全法里面,它可能还是使用工业社会或者人体作为驾驶员的身份问题,对于自动驾驶,因为主体不确定,责任就没法认定。

所以《反垄断法》中有对于垄断协议中如何判断算法主体性的问题,包括人工智能产品的消费者问题。算法的用户或者算法消费者、算法的应用者、包括甚至算法的控制者,对于算法的消费者本身会不会出现一种身份的混同?都是我们在推进算法,需要去回应的。

因为在传统的法律治理情况下,它的空间感,层次感,对于人工智能来说是不一样的。即电子人怎么来定位?如果不能赋予这些身份性,就没有办法去应对,我们应该采取什么样的步骤去解决?这些目前都还没有答案,但是不解决这些问题,会对人工智能的发展产生一种持续性稳定性的问题。


数据爬取问题,在2019年以来,数据作为一种创新型的与资本、劳动力、土地、技术相并列的5大要素。在5月份,全国政协的双周会议上面,就专门对数字经济做了研讨,对数据参与分配方面也提到了数据的控制权问题、收益分配权问题。

2022年以来,对于数据爬取行为有了不同的看法。15年、16年的时候为什么数据的爬取都通常会支持被爬取方的请求呢?因为通常是一种静态的数据,比如你从我的保险箱里面拿走了数据,或者通过爬虫看到了数据,就认为你侵犯了我的利益,很难赋予数据权利,因为它可能影响数据分配。在2017年,有一个案件,一审认为原告(被爬取方)妨碍被告去爬取的行为,是不利于创新,但在二审的时候却反过来了。数据要素,它是人工智能发展中非常重要的要素。
 

我们在实践中去进一步地完善发展,如上图已经做了一些地方性的立法,在深圳、上海的这些条例出台之后,下一步会怎么做?从制度建设来讲,现在在人工智能领域的立法制度建设,是从地方到中央,跟传统的从上至下的立法安排是不一样的。它是从下至上,从地方的实际先行,立法先行,再有实践,再来看能否形成一个在国家整体层面的对于人工智能促进法。可以预见的是这些问题已经迫在眉睫,尤其是在今年可能会对这个方面有一些突破。


对于可信人工智能,它一定是落在具体的某些要素上面,实际上就是通过什么样的技术来使用什么样的要素,在什么样的场景下得出一个什么样的结果。在治理的过程中,从法律角度来看,对每一个要素进行分析,把每一个要素它的相应的法律规则设计清楚,也就是说在不同的场景之下,对于不同的要素或者同一个要素在不同的场景下,它会怎么样?分析好之后,我相信对于我们去治理或者去回应人工智能所带来的一些问题,就有的放矢了。


对于算法,需要回应两个问题。一个是安全,一个是发展。创新这个词也是解决人工智能产品开发产业发展中最核心的一点,也是目前我们国家在社会经济发展过程中,需要依靠的一个核心动能。


无论是在应用领域的创新、技术领域的创新,还是在制度设计领域都需要创新。所以这就是为什么一个是选择安全,一个是选择创新,安全和创新需要合在一起,这是算法健康发展的一体两面。要健康发展,必须要以安全为基石,以创新为动力,安全是为了更好地创新。

那么创新定位算法,也有它的一体两面,这里引用了李老师的一篇文章里面所提到的,不能因为这些问题的存在,那么我们将算法冷冻了,禁止不让它用了,也是不对的。好比我们对于这个药品的看法,任何一个新的技术的产生,应用和发展,它都会带来对于传统利益结构的变动。目前的现有制度无法回应,这种调整它可能带来什么?带来对现在利益结构的颠覆。
 

我们也要在分析问题的基础之上,提高回应性。设计相应的制度,使它不被歧视。比如在《个人信息保护法》里面,我们就有这样的一些规定。比如算法推荐本身在一定程度上是“歧视”——算法的差异化。针对每个人的不同的消费数据的情况或者消费者画像,推进不同的商品不同的价格。但是问题是什么?问题是信息茧房,因为大家只关注它推荐的产品和信息,所以要求提供另外一种算法,它不具有针对性的算法,让用户进行选择。在这种情况下,通过制度来矫正风险,可以预防风险。

目前为什么会出现算法治理上的问题,比如不透明的问题,这是很难解决。尤其是在技术创新领域——算法机器学习,它更新不停地在进行创作,在这种情况下,从算法的开发和使用来说,它强调效果;从算法的消费来说,强调伦理,治理。
 

目前,我们已经建成了上图相应的这样的一些制度。备案的问题,安全评估和监测、问责问题。从某种程度上,我们国家在算法治理、制度创新和建设方面,走得比较靠前。因为我们有一个很强大的应用场景和用户数量。但是所呈现的问题也非常多,有问题不怕,关键是解决它。从备案、评估监测到问责,基本上形成了一个体系。问题是如何将体系进一步的细化,即它的系统性和明确性不足。


相应的法律法规中,是比较碎片化的。能不能进行一个体系,或者专门针对于算法做基本法的立法,大家都正在努力,如图网信办中宣部和教育部印发的《关于加强互联网信息服务算法综合治理的指导意见》。

未来基于算法,有算法所开发的一些产品,比如短视频、新闻推荐产品,包括自动驾驶领域的产品,智能家居,智慧医疗。其实从广义的角度来说,现在很多情况下是大量的在使用算法。之前提到的Chat GPT,其实它是一种 AIGC,去利用人工智能进行内容生成。

每个国家那么对于各个自身的人工智能的态度是不一样的,比如美国的态度,欧盟的态度是不一样的。中国现在要对算法采取一个什么样的态度,在某种程度上也反映出了对人工智能发展的态度,我们怎么去做的?

从目前一些文件来看,对算法的态度是安全第一,在安全的基础上进行算法的创新和开发应用。实际上这就是也反映出了我们对于AI的态度,安全第一,无论是地方的条例,还是部委的规章办法,还是上升到国务院的立法。所以如何对算法要素进行治理,目前来说还只是形成了立法层次较低,相应较为分散的治理基本框架。



希望未来在治理上能够有一个基点,在现有的立法包括规定里面都有“以人为本”,翻译过来就是“用户为中心”,虽然用户为中心,这里的用户我个人的定义,它不仅仅是消费者用户,还包括商家用户。简单的说,如果拥有海量的数据,创新的算法和强大的算力的企业或者科技型的头部平台,在开发应用和算法的过程中,他们应该保持着一个什么样的态度?


目前来说的话,对于整个算法的开发应用,乃至于算法的治理,单靠国家是难以完成的。所以比如我们在这个平台上,平台规则本身就是一种算法治理的体现,国家将治理权力赋予了平台,这种权力从本身来说,它跟国家的权力来说的话不完全等同。尤其是在大量的数据跨境流动的情况下,出现了算法的全球化的倾向下,所引发的权力,它不是一种单纯的国家权力的体现。在这种情况下,我们不能忽视这样的大平台对这种算法治理的客观作用,就不论承不承担,它都是存在的。

这个过程中提出,从立法的导向上和立法的底线上,如何使拥有这种算法治理能力的主体,能够更加友好的来行使这种权力。以用户为中心,无论是从国家的公权的立法角度来设计算法治理的规则,还是从平台企业的角度,强调用户(用户也不单纯是消费者的个体用户,也应该包括普遍的其他的商家用户),他们的利益也应该在算法治理过程中得到体现。

可以看到,美国的模式,它这里的友好型实际上有一个基本的内涵——公平的问题。这种公平,不仅仅是一种形式上的,还包括一种实质上的公平。我们国家目前特别关注的是国家中心主义的概念,因为我们人民跟国家应该是一体的。强调了国家安全。如何来将这个概念或制度涉及到我们的算法治理中心,即以此为基点来构成一种友好型的算法,是我们需要去思考的。
 


这是我去年的一篇小文章,回应《互联网信息服务算法推荐管理规定》里面的一些解读。


算法应用的红线。爱奇艺和《延禧攻略》、《云南虫谷》都是算法技术应用挑战现有的法律的适用性问题的案例。如何来回应这种适用性的问题?实际上要树立了以人为中心,那么这个问题就好解决了。

包括在判断一些市场竞争秩序,什么是市场竞争秩序?是经营者的利益,还是用户的利益,还是除经营者用户之外的其他社会利益即公共利益。经营者或者是消费者,作为一个群体来说,它本身也代表了可视的公共利益。
 

以用户为中心也好,以人为本也好,这些概念结合时代场景进行不停的进行解释,使这些核心的概念、价值观原则能够在算法治理过程中能够落地,实际上是有一个逻辑,一条主线。

在探讨算法推进所引发的侵权的这一类案件中,应用人工智能的技术和产品进行生产经营的过程中,如果引发了侵权,这里的侵权是一种民事上的侵权,如何进行责任的认定的问题,如何进行划定的问题。


“有效市场”跟“有为政府”的合力推进实际上从监管治理法治化的领域,来推进对人工智能算法要素治理。当然也包括对人工智能的技术产品、产业的治理。随着在十八届三中全会全面深化改革提到如何发挥市场在资源配置中的决定性作用和更好发挥政府作用。


去年,尤其是在遇到了超预期的形势之后,国务院也提出了如何能够将有效市场跟有为政府更好的结合,在这个过程中我们如何来理解有效市场?“有效”需要干什么?这里的“有为”它又是指的是什么?所以可能还需要进一步的去理解它,“有为”跟之前的系统对国家的政策法规的制定,以及它的连贯性理解可能还是需要放在一个时间轴跟框架的场域继续下去。

因为之前可能谈到简政放权,也谈到了这样的一个对政府负面清单。后来遇到了超预期的形式,在市场的信心不足,或者需求方面出问题的时候,希望通过“有为政府”,比如说对新基建的布局,适度的超前布局。即政府对市场要提供信心、动力的时候,强调有为政府,但有为不等于乱为,所以它的基本的内涵还是要清晰的。
 


具体把市场跟政府的关系在当下从“有效”和“有为”结合之后就可以看到在治理要素的过程中我们应该首先做什么?以市场优先,最少干预和必要干预最少原则,来体现政府对算法治理的保障服务。首先从法律的角度,科学立法就制度先行,提高制度的有效供给。制度的有效供给是什么?更多的是“有为政府”的科学作为。

我们可以通过市场的自身来自发地形成规则包括一些行业的惯例,比如前段时间 B站的CEO也提到中国的互联网竞争领域是一个无底线的竞争,2020年以来对于资本无序扩张并强化反垄断,回顾我们国家对一个基于互联网经济所引发的数字经济到了产业的数字化和数字的产业化的过程中是经历了一个野蛮的增长。

增长的过程是量级的增长,要提高它的质要从一个量到一个质的变化,为什么现在强调高质量的发展?实际上它是强调一个质量的问题,所以这个质量在制度层面的供给是多元的,在我们国家的场景下,“有为政府”在有效的制度供给上面应该是发挥主导作用的。

但是这就涉及到立法的问题,我们有很多是一些专项性针对算法备案的问题,针对算法的推荐的问题,但是专业性跟专项还不一样,有的具有很强的专业性,但它是一个综合性的专项,它就是专门针对某一个问题。从质量来说,现在的立法因为由于层级的问题,加上它的时间的问题。从法律层面来看,比如《数据安全法》、《个人信息保护法》、《电子商务法》,包括网信办出台的各种法定法规,有些概念不统一,就会导致企业、市场主体不知道怎么办,不统一的情况很有可能会导致多头治理。


在这种情况下就需要标准统一,权责明确,要形成一个整体。前面提到《个人信息保护法》里面,有算法的解释权的问题,其实算法的解释权里面就涉及到数据的问题,比如说我的数据给不给你,我给你之后你怎么用,你得告诉我它既涉及到什么算法的问题,也涉及到数据的问题,就是你有没有权利在我这里拿数据,拿了之后我让不让你用?这跟数据有关系,但是它又涉及到方法的解释,因为算法它本身就是建立在数据市场,要抓住数据跟算法的双轮驱动的运作机理。
 
那么第二就是协同,第三要素市场,第四企业主体,第五就是市场环境,后面其实都会提到对协同的问题。可以看到现在很多的文件包括规定都是多部门,尤其是文件的出台方面,都是多部门。但同时它也可能会带来什么?治理的逃逸。监管之间可能产生积极的冲突,也会产生消极的冲突。因为监管中除了有市场监管部门,还有行业监管部门。

市场监管部门跟行业监管部门的定位是不一样的,那么数据算法的管理实际上落到根上就是市场主体的问题,市场主体的问题也会有一些不明确的地方。所以,基本上在所有以数字经济为主要业态都会用算法,但在协同监管上不是那么容易,所以说在要素治理过程中如何来协同的问题。说起来比较容易,但是做起来其实真的很困难,需要去不断地调整。
 

第三块要素是市场的统一,从要素市场统一来看,目前要素市场的建设红红火火。广东、广州,包括北京,要建成数字经济高标准,基本上每个地方都有一个数据交易中心,这里的数据交易中心跟数据的要素的统一市场还是不一样的,现在国家要建设什么?要建设要推动一些国家级的数据要素市场,也就是说未来可能会是几个大区,好比深圳、上海交易所。

目前来看的话,东数西算已经形成一个大的格局,东部的4个中心和西部的4个中心对接,有的是应用计算和应用中心储存、储存分析。但是对统一要素统一市场的建设,它就需要有一些规则,大家会统一要素市场的建设,是有利于算法。



最后第四部分就是强化主体的问题,企业平台的风险识别能力。广东有数据首席数据官,有些企业也是有设立的,包括天津的有些企业也有数据首席数据官,现在企业对数据关注多一点。

企业也要在算法治理过程中承担很重要的责任。比如说我们在对于企业的《个人信息保护法》用的是什么概念?如何来开发应用算法本身就是企业要面对的核心问题,也是核心竞争力。通过这样的一个政府、市场、企业,共同来营造的市场环境,生活环境。



现在也跟大家介绍一篇文章专门来探讨算法分类分级如何进行治理,结合数据的分级,比如算法的应用可能会对国家利益产生重大影响,把它定位成一种高风险或者需要进行高管制的类型,哪些是中风险和低风险。分类是比较的清晰,包括生成类推送排序检索和调度决策。


有的是按照提供的数据来源进行处理,分析数据的工具要协同过滤进行分类,因为生成是根据商业应用场景进行分类,所以分类也有依据不同的标准。基于不同的分类就对应相应的制度,在每一个制度的运行过程中,在算法的备案过程中需要考虑到分类分级,在算法的问责中也要分类分级,在算法的评估中也要分类分级。
 

这里面的算法所引发的社会风险的等级要考虑到影响的主体范围,主体是对全民的主体还是只影响某一类主体?比如有些APP可能是一些效率APP它使用的人就比较少,在这种情况下可能就不一样,有些APP是全民APP,比如微信,国民APP都用,范围就很大,主体也很大,一旦出现问题危害就比较大,所以这方面就跨学科,就是需要咨询做算法设计,包括算法应用的人如何看待这个问题。


所谓的从立法的角度来考虑,包括从监管的角度、从执法的角度来看,比如安全问题、创新发展问题,对多元主体利益的影响程度的问题,但是更重要的还是考虑到与现行法律的对接问题。既要在一定程度上来应对算法发展的规律、人工智能发展的需要,同时更好的对接现有法律的体系运行的原则下才能够保持它的稳定性。


无论是产业的发展,产品的开发,算法的稳定是必要的,目标如果不稳定,就会操之过急,这就是分类分级和多元治理为什么要一直强调平台企业它自身的作用。现在可喜地看到很多头部企业,都会有自己的伦理委员会,其实伦理委员在某种程度上可以解决问题。



往期精彩推荐点击标题查看文章● 两大看点大揭秘!《人工智能治理与可持续发展实践白皮书》

● AAIG成立一周年!砥砺前行,谱写新时代的科技之歌~请查收这份最新的自我介绍


● AI治理必修第23刊|高管实锤马斯克要求特斯拉自动驾驶造假视频!懂理性的AI模型要来了?


 听委员说|AAIG薛晖出席杭州市"两会",提出加快建立人工智能产业的多元协同治理机制


 人工智能治理中标准的优势?软法的重要性?国内外治理的前沿实践!人工智能治理亟待标准落地《追AI的人》第19期直播回放


 “算法偏见”是概念炒作吗?「这个AI不太冷」第3期带你揭秘现实AI!

更多人工智能治理和可持续发展好文
点击下方名片关注和星标【阿里巴巴人工智能治理与可持续发展研究中心】

👇AAIG课代表,获取最新动态就找她 关注公众号发现更多干货❤️


有启发点在看喔👇
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存