查看原文
其他

沙盒监管?隐私计算?聊聊多方协同的AI治理模式—《追AI的人》第10期回放




🌟 国内外关于数据保护立法的进展如何?

🌟 人工智能应用中数据合规的具体法律要求有哪些?

🌟 如何兼顾隐私保护与人工智能的发展?

🌟 如何在发展“可用、可靠、可信”的好科技的同时达成治理与发展平衡的社会效果?


《追AI的人》第10期《人工智能应用与数据保护》邀请全国律协网络与高新技术委员会副主任&中伦律师事务所合伙人陈际红律师探究兼顾人工智能发展与信息安全保护的创新路径!本文为直播回放,全文共计10989字。


🔻直播简介:

《左手数据保护,右手AI发展—如何兼顾隐私保护与人工智能的发展?《追AI的人》第10期来咯!》




陈际红

中伦律师事务所合伙人,主要的执业领域是网络安全、数据合规、知识产权和TMT业务,是国内最早开拓数据合规业务的律师之一。陈律师担任全国律协网络与高新技术委员会副主任、北京市律师协会科技与大数据委员会主任、中国互联网协会法治工作委员会顾问和中国网络与信息法学研究会常务理事等职务。

长期被Chambers, ALB、LegalBand和Legal 500等专业评级机构在TMT、知识产权和数据领域持续强烈推荐。陈律师持续服务于众多的国际企业和国内头部企业,在业内建立了良好的专业口碑,并多次参与了与网络安全、知识产权和电信有关法律法规的立法研讨与咨询工作。新华社、人民日报等媒体对他的专业研究与律师执业做过深入报道。




框架要点

一、技术发展驱动了隐私保护的需求1. 隐私与数据保护:技术放大了隐私风险2. 人工智能的歧视和滥用二、国内外数据保护立法的进展1. 人工智能治理的基本思路2. 国内数据保护立法进程3. 数据保护立法:欧洲三、人工智能应用中数据合规的法律要求1. 数据保护基本原则与AI的冲突2. AI的合规路径3. AI的合规工具和合规要求四、多元路径和多方协同的数据治理模式


人工智能的发展一日千里,它不仅给公众生活带来多方面的便利,也彰显着国家竞争力。不过,人工智能的滥用也造成了一些负面影响,其中之一就是数据泄露。所以在今天,本文分享人工智能发展和数据治理的话题。
1
技术发展驱动了隐私保护的需求


隐私与数据保护:技术放大了隐私风险



我把隐私和技术的关系分成四个时代:

第一个时代是熟人社会。在熟人社会里,大家对隐私的概念以及数据保护基本上是无感的。

这从一个案例中就能很明显地感受到。“经营之神”王永庆经营米店十分成功,成功的秘诀便在于,他会记录客户的消费习惯,然后针对客户的消费习惯销售产品。这有些类似于当今的用户画像,即网站/客户端通过用户画像,进行消息的精准推送。

如果王永庆的案例发生在当下,就会出现问题。这是因为,私自收集客户信息而没有得到许可,如此使用也不符合最小必要原则。但这在熟人社会中并不会带来隐私风险,因为在熟人社会中并没有太多隐私的困扰。

第二个时代是互联网时代。互联网时代的特点在于社交、圈子和传播超越了地域边界,当你处在互联网这一端,你不会知道另一端谁在看你的信息。在此阶段,也出现了一些关于互联网时代的负面影响,比如网络暴力。

2008年有一个特别著名的案例,这个案件是在朝阳区人民法院审理的。

姜岩和王菲是一对夫妻,结婚后姜岩怀疑王菲婚外情,于是就将她的心路历程发到网络空间,而后跳楼自杀。跳楼之后,姜岩的好友把这些信息通过网络广泛地转发、传播出去,这使得王菲的生活大受影响,有家不能回,有班不能上。

这次网络暴力,第一次在中国引发了对网络隐私权的关注。当时并没有相关的法律基础,经过专家论证后,人们普遍认为,在互联网时代,我们要保护人的隐私,每个人都享有拥有个人隐私、维护生活安宁的权利。

第三个时代是大数据时代。在这个时代,许多以前获取不到的信息在数据融合的场景之下都能够得到洞察,比如说消费趋势、经济发展趋势、疾病流行趋势等。然而,洞察力提升的同时,人的隐私也无处可藏。之前时代的隐私保护路径在大数据时代,也变得形同虚设。美国的一个研究机构发现,仅使用邮编号、生日和性别信息即可识别87%的美国人。

之后我们进入第四个时代——AI与5G时代在这个时代,人和数据实现了高度融合。

可穿戴设备无时无刻不在收集我们的生理信息,自动驾驶对我们的出行轨迹了如指掌,另外还有居家数字化、金融数字化、AI自动化决策……这些数据应用触碰到人的核心权益,如隐私、财产安全、人身安全等。技术进步扩大了隐私的内涵、隐私的边界,也扩大了隐私的风险。


我们即将进入这一5G时代或已经处于5G时代,这给数据隐私保护带来了更大的挑战。

5G时代的第一个特点是大带宽,即数据流动、传输更加便捷迅速。这意味着数据一旦泄露就是大规模的泄露,这使得数据隐私风险更加难以控制。

5G时代的第二个特点是低时延。以往的数据收集、处理和反馈都会有一定的时间差,而在5G时代实现了数据的实时收集、处理和反馈。没有时间差为人工智能的利用奠定了良好的基础,比如在自动驾驶应用场景中,能够实时反映情况并避免意外事故的发生。但是,当低时延的特点应用在数据收集当中,数据的收集、处理和反馈将在瞬间内完成,如此就很难对隐私数据的展示实现控制。 

5G时代的第三个特点是广连接。5G时代万物皆互联,万物皆数字,电脑、手机、电饭煲、冰箱、电视、空调等都可以连接入网。不过,尽管这一特点给我们带来了更为便捷的生活,也使得收集、获取、泄露隐私数据的接口增多,隐私保护开始面临更为严峻的挑战。

人工智能的歧视和滥用



人工智能造福人类的案例不胜枚举,各国都把人工智能当成下一阶段的国家战略目标,人工智能的发展水平被视作国家竞争力标的。然而,我们必须看到人工智能也带来了很多负面影响。

· AI算法滥用。随着人工智能技术发展,AI算法滥用问题也日益突出。近期新闻中看到的无人机攻击事件就是算法滥用的一个体现:无人机本身存在着自动决策功能,遇到设定目标就会实施开火的攻击行为。· 自动化工作调度。外卖骑手的调度可以比较明显地体现这方面的问题,自动化调度使得对外卖骑手的考核越来越严格,这也引起人们对于人工智能和人之间关系的思考——究竟是人在控制算法,还是算法在控制人?· 自动化决策。现在,我们能够明显感受到人工智能的计划决策对生活的影响。在求职之时,求职单位往往会广泛收集数据,如求职者的公开数据、负面评价、背景调查等,然后再去确定求职者是否符合岗位要求和公司文化。去金融机构贷款之时,金融机构也会通过大数据评价你的风险等级,以决定是否放款以及贷款利率等。人工智能正在对人的权益问题形成一种起决定作用的影响力。· 影响舆论导向。2022年3月1日,《互联网信息服务算法推荐管理规定》正式生效。其中包含对舆论导向的规制,未来关于人工智能对舆论导向的影响,监管部门将采取更为严格的措施。· 深度伪造。近两年,我们看到越来越多的深度伪造(deepfake)产出,而这也带来了一系列问题,如肖像权侵权问题,诈骗问题等,为社会管理带来一些新的挑战,也为社会安定带来一些新的影响。

此外,人工智能带来了信息“茧房”问题。当人工智能根据我们的个人爱好形成用户画像之后,平台会持续推送相关的内容和信息。如果我是一个健身爱好者,那么人工智能就会持续推送健身相关的信息;如果我是一个科幻爱好者,那么人工智能就会持续推送科幻相关的内容……长久之后,在这样一个信息浩瀚的时代,我们所接触到的信息却越来越窄。

人工智能同时带来了AI歧视问题。比如在人才机制决策里,对于少数、弱势群体的歧视时有发生。

最后,人工智能还带来了社会各界关于伦理问题的讨论。我们和人工智能之间到底是主体和主体的关系,还是人和工具的关系?当人工智能具备人格和思想,应该如何与它相处?

一个关于伦理问题的案例如上图底部所示:当车辆在路上刹车失灵,只能选择冲向某一边,此时,一边是一群人违章过马路,一边是一个人遵守交通规则过马路,那么应该如何决策?是按照损失最小原则做决策,还是按照交通规则做决策?这都是未来我们在制定人工智能伦理规则时所要面临的挑战。


2
国内外数据保护立法的进展


人工智能治理的基本思路



不管是国内还是国外,当下进行人工智能治理的基本抓手都是“数据+算法”。其中,数据是一个平台最重要的资源。这些数据怎么去收集、怎么去使用,都要遵循数据收集的透明性等原则。拿到数据之后,平台会通过算法根据用户的行为、画像等进行决策。

平台开发算法的最基本要求是算法的可解释性、透明性和可问责性。过往一个曾经比较流行的观点认为,算法是中立的,所以在出现意外情况之时,算法的运营者和设计者应当免责。现在监管机构思路逐渐改变,认为算法本身反映了设计者和运营者的意志,因此目前普遍接受了“穿透式管理”的理念。

人工智能治理的路径则是“软法+硬法”。在治理人工智能的过程中,单一的路径和治理方法往往效果不佳。

其中硬法,是指具备法定约束力的法律,包括人大通过的法律、国务院的行政法规、部门规章以及具有强制性的国家标准。去做人工智能必须遵循硬法,一旦越过边界就会受到惩处。

然而硬法不是万能的,如果大量制定硬法往往会增加人工智能发展的条条框框,使得人工智能发展受阻。这时候就需要新的路径——软法。

软法是什么?软法是除了法律之外的软性条款,包括行业协会的推荐规则、行业协会的认证、企业的良好实践和倡议等,而这些条款都不具备硬性的约束力和法律效力。当有公司违反,大家只会说这公司不好、不遵循规定,但是不会带来惩罚的责任。

硬法和软法两者形成了互补的关系。软法涉及面更广,而且能够兼顾行业实践,大大填补了硬法的不足之处。将软法加进法的话是目前人工智能治理的基本思路,也是国内外的基本共识。


国内数据保护立法进程



国内在数据保护立法方面可以说是一日千里,立法进程非常快,而且效果显著。尤其是2021年,这应该可以说是国内的数据保护里程碑式的一年。最明显的成果是8月发布并于11月1日正式实施的《个人信息保护法》,以及6月发布并于9月1日正式实施的《数据安全法》。两大法的出台引起了世界范围的广泛关注。

2016年发布并于2017年6月1日实施的《网络安全法》,是中国数据保护立法的第一步,也体现了数据保护立法的基本脉络。另外,《民法典》中也对数据隐私权作出相关规定。



上述几部法典构成了国内数据保护的三驾马车,它们各自分工,构建起中国的网络空间监管和数据保护的主体框架。

· 《网络安全法》:网络安全等级保护;网络关键设备和网络安全专用产品检测与认证;关键信息基础设施安全保护;网络安全审查;网络安全检测预警和信息通报制度。· 《个人信息保护法》 :个人信息范围的界定;个人信息处理的基本原则;个人信息主体权利及保护;个人信息跨境流动的规制;个人信息处理者的义务。· 《数据安全法》:监管对象:数据活动;数据安全标准体系建设;数据安全检测评估和认证管理;数据分类分级保护制度;重要数据目录清单和管理;数据安全风险预警机制及应急处理机制;数据活动的国家安全审查;数据交易和在线数据处理活动;数据跨境流动的监管。


数据保护立法:欧洲


境外关于数据保护的立法有很多,这里主要讲解欧洲的《通用数据保护条例》(General Data Protection Regulation,GDPR)。由于GDPR的数据主体处于欧洲经济水平,并且对于人的各项权利的规定都十分完备,GDPR成为了一项举世瞩目的数据保护立法。

GDPR第3条规定,它具备长臂管辖权,即设立于欧盟的机构从事的数据处理活动,无论其处理行为是否位于欧盟范围之内都需遵循该条例;在欧盟范围内向数据主体提供商品或服务,而无论是否要求其支付对价的,都需遵循条例。另外,GDPR针对欧盟范围内的数据主体的行为实施监测和追踪。

GDPR有着最为严苛的惩处机制,对违反条例的主体进行罚款,罚款分为两层:1000万欧元或企业全球营业额的2%(孰高者);2000万欧元或企业全球营业额的4%(孰高者)。


3
人工智能应用中数据合规的法律要求


数据保护基本原则与AI的冲突



如上图所示,左侧是数据保护立法确立的数据处理的基本原则,无论哪项数据保护立法,均需遵循以下基本原则

· 合法性。数据收集应合法,要具有正当的理由。· 目的明确。收集数据时,需告知数据收集的目的,并且目的需明确,不能出现类似于未来可能要做某事,而先做数据收集的情况。· 最小必要。数据收集到满足当前目的就好,不能再扩大数据收集范围。· 准确性。保证个人信息的质量,包括确保个人信息准确、完整,以及积极响应个人信息主体的更正或删除权。· 可问责性。如对个人信息主体的权益造成损害,需要承担相应责任。· 数据安全。需要采取技术或其他安全保障措施,保证个人信息的保密性、完整性、可用性。

如上图所示,右侧是人工智能对数据的需求。

· 大数据。即使是汽车,在运营过程中也会无时无刻收集着各种各样的数据。人工智能的发展对于数据有着强烈的渴求,一般来说,人工智能收集的数据量越大,其所带来的效果会越好。· 实时数据。人工智能往往需要实时决策,比如金融市场的交易、驾驶车辆对于路况的判断等,都需要实时传输的数据。· 万物互联。我们要从多方面收集数据,万物互联的数据都要涉及到。· 数据融合。围绕提供方的数据融合在一起,能取得一个较好的效果。

从中大家可以看出人工智能对于数据的需求,即大数据、实时数据以及万物互联。数据融合跟我们所要求的目的明确、最小必要以及公开透明等原则实际上是相互冲突的,所以我们要承认在人工智能的发展过程中,人工智能对数据的需求以及对数据的处理,与隐私保护、数据保护的原则存在冲突性。


AI的合规路径



那么,冲突如何去解决?又如何找到人工智能发展和隐私保护的平衡点?这是理论界一直在探讨的问题。无论哪一方失衡,都是大家不愿看到的,所以找寻人工智能发展与隐私保护间的平衡点是至关重要的。

这里分享一个国外的视角。在2020年,美国信息政策领导中心(Centre for Information Policy Leadership,CIPL)发布了《人工智能与数据保护:问题与实用性应对措施》研究报告,该报告就人工智能与数据保护的问题与实用性进行了探讨并提出了应对策略。

首先,报告承认在人工智能发展过程中,人工智能与数据保护有原则性的冲突,比如数据保护工作要遵循数据处理的公平合理,保证数据的透明性、最小必要等原则,与人工智能发展对数据的强需求相左。

该报告提出解决措施,包含六个方面:

· 技术中立。各国在制定政策的时候不应去责备技术,而应管理技术背后的应用方式,这样技术才能得到有效发展。· 关注流程。技术实现都有它的流程,比如说数据收集、计算和处理都要经历一个流程来实现它们的效果。所以可以通过关注人工智能的流程来找到风险点,从而实现人工智能的可信赖、可解释。当人工智能的流程被人为设计,且该人工智能经历流程后得到实现,那么该人工智能可以更好地得到解释,同时也能更好地体现公平性。· 风险评估。我们在做某件事情时,最怕的是我们不知道自己所处的方位,人工智能也是一样。判定人工智能是否合规,需要发现它的风险点。如果没有风险的话,那么这个人工智能是可以做的;而如果有风险的话,我们便需要改进设计弥补风险,增加管理措施,同时改善风险评估时发现风险的机制。这就是所说的,要基于风险找到相对应的策略。· 数据管理。通过数据管理制度,中国企业文化的设立以及该文化下的管理机制,实现了数据的全生命周期管理,为有效的管理实践做出贡献。· 人员参与。公司设立了数据保护官(Data Protection Officer,DPO)的角色,这也是宏观视角下的措施。但是我们要知道,数据保护、隐私保护的推进需要公司多元人员参与,经过多方共同努力才能实现隐私保护的效果。例如在制度设置里,产品端需要在设计过程里考虑到隐私保护;销售端需要在接触到隐私数据的场景下约束自己。· 多方措施。有制度就要有问责制,谁违反了规则就需要被问责。我们有审计制度,通过审计可以看到数据隐私合规的实施效果还存在哪些差距点;我们还有补救措施,同时还有PIA的工具,这是美国CIPL在人工智能发展过程中平衡数据保护和人工智能发展路径所做出的努力。


欧盟委员会于2019年发布了《可信赖人工智能伦理准则》。其中规定人工智能算法合规要符合以下几个要点:

1. 透明度。说清楚人工智能的逻辑是什么。
2. 准确度。保证结果准确可靠。
3. 可靠性。人工智能有的是可靠的,有的是恶意的,比如说数据投毒。

此外还有可解释性、可验证性、可追溯性、问责制,如此构成了人工智能合规的基本要点。

英国信息专员办公室(Information Commissioner’s Office, ICO)也发布了《解释AI做出的决定》,对算法透明度如何实现进行阐述,具体包括原理解释、责任解释、数据解释、公平性解释、安全与可靠性解释、影响解释


AI的合规工具


AI合规的常用工具之一便是隐私融入设计方法(Privacy by design,PbD)。  设计人工智能系统时要做隐私保护的话,需要遵循以下基本理念。

· 主动而非被动,预防而非补救。PbD是主动的而非被动的反应措施,用以预防隐私侵入事件。PbD不发生在隐私风险实现之后,也不提供解决隐私违规行为的补救措施。简而言之,PbD是事先的预防措施,而不是事后的补救措施。· 隐私嵌入设计。隐私设计嵌入到IT系统和业务实践的设计和架构中。隐私设计并非附加物,而是核心功能中必不可少的组成部分。而且,隐私设计也不会削弱系统的功能。· 端到端的安全:生命周期保护。在数据收集前,隐私设计就应嵌入到系统中,并扩展到所涉及的数据的整个生命周期中,从始至终地保障隐私安全。该原则确保了所有数据都被安全地保存,然后在过程结束时及时安全地销毁。· 默认隐私。确保在任何给定的IT系统或业务实践中自动保护个人数据。数据主体无需任何操作就可以保护自己的隐私,因为隐私的保护已经内置于系统中。· 完整功能:正和而非零和。隐私设计旨在满足所有的合法利益和目的,而不是通过零和的方法,进行利益权衡,舍弃某些功能,进而使得完整的功能受到损害。· 可视性和透明性。隐私设计保证所有相关者的操作行为都可以被独立地验证,并且对于用户和产品提供者都是可见且透明的。· 尊重用户隐私。隐私设计要求研发人员和操作人员通过强有力的默认隐私设置、适当的通知、用户友好选择的方式,最大限度地保护个人的隐私。

4
多元路径和多方协同的数据治理模式

多元路径和多方协同的数据治理模式,在治理过程中需要各方共同努力才能达到数据治理的效果。治理过程中,也会有一些新的技术或者新的监管思路,如隐私计算和沙盒监管。


隐私计算


国内对数据产出生产力和数据产业,给予了很多关注,也出台了很多政策,希望数据本身能流动起来产出生产力,所以我们要把数据要素化。

数据作为生产要素去产出生产力,前提条件是要可流动、可交易。而在数据流动和数据交易过程中有一个很大的难题——数据权属往往是不清晰的。数据产生之后,到底是属于平台还是属于个体,其实很难界定。收集的信息需要做交易,数据在流动和交易过程中要有隐私保护,产权清晰对于隐私保护有着重要意义,但是我国目前对数据产权并无明确法律规定,那么在交易过程中,产权不明晰便会对数据交易与数据深化使用产生影响。

隐私计算(Privacy Computing)是一种由两个或多个参与方联合计算的技术和系统,参与方在不泄露各自数据的前提下通过协作对他们的数据进行联合机器学习和联合分析。联邦学习、安全多方计算等隐私计算技术不流通原始数据,只回传数据的计算模型,并以此实现数据价值出库。在隐私计算框架下,参与方的数据明文不出本地,在保护数据安全的同时实现多源数据跨域合作,可以破解数据保护与融合应用难题。

那么隐私计算本身到底能不能解决所有的隐私问题?答案是否定的。

因为在隐私计算过程中,即使通过类似联邦学习输出的模型,在模型里也可能包含了一些隐私信息,比如说标签、画像等。所以它可以降低隐私保护风险,但是并没有彻底解决隐私泄露问题。

隐私计算工具在很多应用场景都有使用。比如去年设立的北京国际大数据交易所,它跟其他交易所的一个不同之处就是采用了这种技术,使得数据交易各方在不产生数据相互披露的前提之下,实现了数据可用。这是目前的一个尝试,具体效果仍在观察当中。

沙盒监管


沙盒原为计算机术语,表示能够为运行中的程序提供隔离环境的一种安全机制,在保证测试环境真实、测试方法准确的同时,不对“盒外”环境造成影响。沙盒监管虽然是起源于金融领域的监管创新模式,但是对于技术创新引发的数字治理各类复杂议题都具有借鉴性。相较于试点试验,沙盒监管更强调监管机构与市场主体的相互协作与正向反馈,依托法律法规和沙盒协议,在沙盒各阶段采取精细化管理,从而更有效地激励市场创新、防范风险。

目前沙盒监管在国外也有一些实践。2017年7月,新加坡个人信息保护委员会与新加坡信息通信媒体开发局(Infocomm Media Development Authority)合作,以“探索数据共享机制”为目的正式启动了隐私保护监管沙盒;2018年9月,英国信息专员办公室开始研究如何借助监管沙盒在促进技术创新的同时保护隐私。

通过这样一个方式,可以在降低时间成本、保证效率的同时,查看有无泄露隐私的风险。


霍金先生在他的遗作中提出了一些问题:

  • 人工智能会比人类更聪明吗?

  • 宇宙里有其他智慧生命吗?

  • 地球未来面临的最大威胁是什么?

  • 上帝存在吗?

  • “大爆炸”之前发生了什么?


我们可以把人工智能和人类的相互关系,当做关乎人类未来的大问题。在霍金先生的思考引导下,超级人工智能的出现,可能会成为人类有史以来最好的助手、最好的伙伴,带领人类走向更加美好的社会。

但是如果使用不当,或者监管不当的话,人工智能便可能成为人类有史以来最坏的事情,这是需要我们警惕并加以密切关注的。



 PPT原件获取,请联系AAIG课代表⬇️


 更多AI治理干货,请关注AAIG公众号


追AI的人 往期推荐点击标题查看文章

左手数据保护,右手AI发展—如何兼顾隐私保护与人工智能的发展?《追AI的人》第10期来咯!



让AI更有益思!一文读懂人工智能训练师: 被国家认可的新职业—《追AI的人》第9期回放



给AI当老师?人工智能训练师让AI更通"人性"!《追AI的人》第9期来咯!



36万人关注的AI治理交互栏目—《追AI的人》年终总结~我们一起向阳成长!



硬核前沿!万字厘清因果推理融入机器学习:浙大况琨《追AI的人》第8期直播回放



2021年最热方向之因果推论能改变下一代AI研发吗?《追AI的人》第8期来咯!



内容风险知识图谱是怎样炼成的:如何应对强对抗下的内容安全挑战?—《追AI的人》第7期直播回放



揭秘阿里安全最神秘的风险知识图谱—《追AI的人》第7期来咯!



缸中之脑详谈:科幻作家和虚拟主播讨论科幻世界中的人工智能伦理—《追AI的人》第6期直播回放



科幻作家眼中的人工智能是什么样的?双翅目带你从科幻视角探究人工智能和伦理道德的关系!《追AI的人》第6期来咯!



全网17万直播观看的PPT公开:准备好进入虚拟世界和数字人共存了吗?—《追AI的人》第5期直播回放



数字人,我的新同事:《追AI的人》直播第5期来咯!



PPT公开:人工智能触犯刑法该如何处罚?责任谁承担?刑法介入人工智能风险规制的慎思!—《追AI的人》第4期直播回放



刑法介入人工智能风险规制的慎思:《追AI的人》直播第4期来咯!



AI好科技(3)AI一眼识别"你算什么鸟"?—《追AI的人》第3期直播回放



低碳AI好科技(2):如何降低超30%的算法调用成本?畅聊多专家结构—《追AI的人》第3期直播回放



低碳AI好科技(1)顶会冠军Writeup:目标检测比赛的常用方法有哪些?—《追AI的人》第3期直播回放



三个学霸的顶会Paper中奖座谈会:《追AI的人》直播第3期来咯!



(下)算法黑箱到底要不要打开?万字长文讲述:如何构建更合理的算法透明规则—《追AI的人》第2期直播回放



算法黑箱到底要不要打开?万字长文讲述:如何构建更合理的算法透明规则(上)—《追AI的人》第2期直播回放



打通外卖骑手算法的任督二脉:《追AI的人》直播第2期来咯!



50页!《AI与安全治理的恩怨情仇》PPT快来下载~真香!—《追AI的人》第1期直播回放



正在直播!AI讲师的PPT里竟然还有软色情...



AI与安全治理的恩怨情仇?《追AI的人》第1期直播来咯!


这个AI不太冷 往期推荐点击标题查看文章

“算法偏见”是概念炒作吗?「这个AI不太冷」第3期带你揭秘现实AI!



你会和虚拟人谈恋爱吗?「这个AI不太冷」第2期带你了解现实、应用中的虚拟人!



"人工智障",是算法翻车还是人翻车?跨界科普栏目「这个AI不太冷」第1季上线咯!


可持续发展 往期推荐点击标题查看文章

犀牛智造入选工信部创新领航应用名单



阿里巴巴副总裁陈龙:碳中和不只是技术和能源问题,更要建立参与者经济


产业实践 往期推荐点击标题查看文章

AAIG-自然语言理解实验室论文被ACL 2022录用,为更鲁棒可解释的算法服务而努力!



阿里深度伪造视频检测技术获评第三届中国人工智能大赛最优级



AAIG受邀参加护脸计划评审会议,共建人脸识别合规应用的健康生态



AAIG应邀参加CNCC 2021“数字服务的监管与治理”技术论坛



博士毕业后,他在淘宝“扫垃圾”?



阿里“塔玑”太逼真:外籍模特不再吃香?



阿里建全球最大奢侈品商标数据库:无偿提供给全球科研团队使用识别假货



AAIG参与发布《人工智能产业担当宣言》



为AI攻防测能力,清华联合阿里、RealAI发布全新测试基准平台Adversarial Robustness Benchmark



阿里巴巴成立人工智能治理与可持续发展实验室(AAIG)



阿里新一代安全架构核心AI技术夺冠,机器阅读理解准确率战胜人工



阿里研发AI技术可识别拦截数十国多语种脏话图



为了对付羊毛党和黑灰产,电商平台的AI大招是这样放的



阿里自研芯片亮相的同时,张勇对外公布了这一计划


技术干货 往期推荐点击标题查看文章

史上首次,强化学习算法控制核聚变登上Nature:DeepMind让人造太阳向前一大步



元宇宙是新技术还是新泡沫?



AI在茫茫人海中,看到只有你被Deepfake了



给AI系统做“安全体检”,阿里安全提出自动化AI对抗平台CAA | AAAI 2021



给图片打「马赛克」可骗过AI视觉系统,阿里安全新研究入选ICCV 2021



你算个什么鸟?AI十级“找茬”选手诞生



「启发式领域适应」成果入选NIPS2020,新一代算法「鉴黄师」诞生



4项新一代安全架构核心AI技术沉淀的论文被国际会议ICASSP收录



用“算法”模拟光束可攻击自动驾驶车辆,专家呼吁重视AI安全



张钹院士解读AI安全治理三大痛点+信通院AI数据安全治理的七条建议



准确检测DeepFake视频,阿里新算法从多个人物中识别被篡改的人脸



只要AI跑得快,色情黑话就追不上我



让 AI 训练 AI:揭秘阿里、浙大的 AI 训练师助手



阿里AI技术获国际视觉大赛双冠军 “低碳AI”降低30%算力成本


更多人工智能治理和可持续发展

技术干货+产业实践分享

点击下方名片关注和星标

【阿里巴巴人工智能治理与可持续发展研究中心】

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存