查看原文
其他

“全视之眼”下的数据利用与保护| 圆桌论坛 第031期

政治学人 政治学人 2021-04-25

回归生活的政治·圆桌论坛

第三十一期——

“全视之眼”下的利用与保护:

信息化时代的数据运用

问题发布


       信息化社会中,万物数据化、网络化,万物之灵的人类在肉身之外具备了“数据二重身”,我们的工作、学习、生活、消费清晰地转化为政府机构和商业公司数据库中零散或集合的数据丛,被运用于加强行政管理、制定公共政策、描绘客户画像、投放精准广告、挖取商业利益。不可否认,基于公共利益的数据利用提高了政府管理效率,提升了公共机构的危机预测预防能力与公共政策精准度,数据的商业利用则提升了社会资源的共享效率。继Facebook数亿客户数据泄露丑闻四海皆知后,《一位92年女生致周鸿祎:别再盯着我们看了》等揭露数据利用影响的文章传遍网络,生活中越来越多的电信诈骗与电话骚扰此起彼伏,数据运用所带来的人身监控、隐私侵犯、数据泄露等问题成为专家学者和大众热议的焦点。在这种“全视之眼”(All-seeing Eye)下,数据运用不当,会不会导致现代人处于数据化的“全景监狱”之中?政府和立法机构应该如何履行职能,保护个人对自身数据的相关权利?

      《中华人民共和国网络安全法》2017年6月1日起正式实施,中央网信办选取的包括微信、淘宝、支付宝、高德地图、滴滴出行等在内的十款常用网络产品完成了隐私条款更新,并提供更多选择权,但仍然漏洞百出,也有太多的企业对此置若罔闻。2018年5月25日,号称史上最严格的数据保护法案——欧盟数据保护法General Data Protection Regulation(GDPR)正式生效,明确保护所有欧盟居民的个人数据,并根据国家间数据跨境流动的特点,开创性地将保护超越地域限制,延伸到了所有向欧盟居民提供服务并产生数据的服务提供商。这或许为未来各国的数据立法提供了重要借鉴。但数据时代,应如何避免数据化的“全景监狱”?如何达到利用数据和保护数据的平衡?政府应在其中如何与时俱进?这些问题都值得我们探讨。


本期讨论重点

1.数据保护与数据利用不可调和吗?

   二者应如何平衡?

2.数据利用的不同主体如何达成共识?



嘉宾介绍

主持人:

 许红梅 

南京大学

马克思主义学院

博士研究生

参与嘉宾:

 柳亦博 

山东师范大学

公共管理学院

讲师

 贾   开 

电子科技大学

公共管理学院

讲师

 文禹衡 

湘潭大学

法学院

讲师

 齐   乐 

北京航空航天大学

可靠性与系统工程学院

博士研究生  


点评嘉宾:

 段伟文 

中国社会科学院

哲学所研究员

科学技术和社会研究中心主任


观点阐述

柳亦博

全民开放数据需要考虑代价

在探讨数据利用时,一个关键的问题是“谁来利用”?即追问利用这些数据的主体是谁。我认为,数据利用的主体应是“全体公民”,应将数据使用权与基本公民权利绑定在一起。这是因为,在信息时代,掌握充足的数据对一个人的生活意义重大。我们看到,过去只有从事学术研究的学者们才关注冗杂抽象的社会数据,如今,即便一个不从事知识生产的人,也不得不尽力去了解那些指标、排名、增量、变化、规模等等数据才能不在社会发展中被抛下。因而,我们说在信息时代,数据与其他纯公共产品一样应是非排他的,政府应当定期在官方平台对外发布统计信息,同时也要承担审查责任,对其他机构进行的数据清洗、挖掘和再发布进行审核和认证。

当然,面向全民开放数据并不是没有代价的,比如,隐私泄露风险就是其中代价之一。在经历过大型企业数次数据外泄事件之后,人们开始关注大数据笼罩下的隐私保护问题。然而,那些热闹的讨论却似乎总在围着一个难以清晰指称的“隐私”概念在兜兜转转,让人一头雾水。这是因为,隐私本就是不断变化且边界模糊的。我们今天谈的隐私保护问题,早已与“个人隐私”最初成为问题时的情形大相径庭了——对于隐私权的诞生,韦思岸(Weigend)曾经提出过一个有趣的观点,他认为最初催生隐私权概念的是17世纪时的烟囱建造技术,正是由于“宾夕法尼亚壁炉”的发明使得人们可以在屋内关闭门窗的情况下生火取暖而不用担心窒息,于是家及家中之事才得以披上隐私的外衣;沃伦与班迪斯(Warren & Brandeis)则认为隐私问题诞生于19世纪便携相机被发明出来之后,当时学者们担忧的是一个在公共场合被偷拍的人如何合法保护自己私人空间的问题;还有很多学者认为隐私权概念诞生于19世纪中后期公民投票时的无记名制度。事实上无论采信哪一种解释,都不影响我们之前的判断,即隐私概念是随社会发展而流变的

另外,隐私还是一个边界模糊的概念。举例来说,多数人也许不会认为自己上传在微信朋友圈里的一张普通照片属于隐私,但是当这张照片被人盗用来行骗时,我们对隐私被侵犯的激愤感就会突然袭来,并会理所当然地认为这张照片属于我们的个人隐私,忘记了当初上传这些照片的人是我们自己。由此可见,其实我们所担忧的是我们的某些信息会被坏人用来作为伤害我们的“武器”,而不是担心留有我们相貌的图片被别人看见,毕竟如果面容是隐私,那么在一个被摄像头覆盖的城市中,想要不留下任何影像的生活几乎是不可能的。现在算法工程师们提出的许多保护隐私的技术性解决方案(如差分隐私)其实无法在根本上解决问题,因为这些方案必须作用于一个具体的指标范围,但人们对究竟何为隐私的回答相当含混模糊,这就使得技术性的隐私保护变得非常困难。

必须看到,我们不可能只享受大数据带来的便捷却不想交出自己的数据。随着大数据技术的铺展,每个人的隐私边界必然会不断缩小,这是我们讨论隐私保护时的宏观背景。以智能手机、智能穿戴设备为终端触角的大数据每天都在记录和分析着我们,包括性别、年龄、健康、收入、消费、偏好、出行、社交、政治倾向等等在内的近乎一切数据都会汇集起来,以供数据分析和挖掘。我们每个人都被暴露在这种数据洪流中,没有单独上岸的自由,除非我们过一种远离文明世界的自我放逐般的生活。

数据应该归全民所有,但有权利用数据并不意味着能够利用数据。今天,我们的数据开放程度上远超上个世纪,然而参与治理的专业知识门槛反而变得比20世纪法团主义勃兴时高出很多。从本质上看,这是由于大数据的汇集特征使得数据处理必然是集中式的而非分布式的,有能力去利用海量数据创造知识的是少数几个大型组织。这种技术排他在很大程度上成为了一面看不见的玻璃墙,有可能极大地抑制公民自由结成法团参与公共事务的热情,进而导致治理领域中那些规模较小的组织完全消失,并最终孕育一个数字利维坦。回想一下,海德格尔曾告诫人们要警惕现代技术对人类的摆置,“技术陷架”(Ge-stell)会促逼着人们深陷于一种结构化安排中无法抽身。如今来看,这个形成中的数字利维坦可能向世界昭示着海氏在八十年前的预言将要变为现实,而这将是比隐私泄露严重得多的问题。

贾开

▶数据治理议题仍需具体化

当前几乎所有人都会在某种程度上关心“数据治理”,一方面意味着公共知识的普及,另一方面可能也意味着这个议题还将持续性的“混乱”下去。在相对长的一个时间内,我们可能仍然不会有共识性结论并甚至以制度化的方式确定下来——虽然以GDPR为代表的一系列规范创制已经往前迈了一步。

造成这种“混乱”的原因可能有三方面:

首先,作为一项新事物,在未全面展现其影响之前,自然不会有太多共识性的基础。尽管当前我们似乎已经进入数字社会,但到底什么是数据,数据怎样产生、流动、利用、消失,都仍然是未解的命题。仅就数据流动而言,其就经历了从“点对点”的双向数据交换转变为牵涉多主体、多环节、多方向的实时连续流动,从静态的、可预知的、确定的数据流动已经转变为动态的网络进程这两大变化(引自隐私法专家Paul M.Schwarz教授),而这种变化在未来可能还会进一步演进。

再者,作为一个与每个人都息息相关的事情,数据治理牵涉多种不同的利益格局平衡,因而可能根本就不会有一致性的共识。很多人已经提及过“数据”并不是一个“实体”,而可能是一种“关系”,涉及不同主体之间的相互影响、相互牵制。导向某一方的制度选择很可能便会损害另一方。正因如此,在没有形成类似于成本收益分析这样明确的判断方法之前,我们很难说将会作出明智的制度选择。

最后,伴随着人类社会数字化程度的提高,人类社会的异质性事实上都可以转换为同质性的“数据”。换言之,当我们谈论“数据治理”时,我们可能在谈论任何事情。从这个角度讲,数据还不同于石油、水或其他,因为所有人类生产生活行为都可以被转换为“数据”。我们怎么可能对这样一个整体形成共识?

上述三个原因的解释并不在于否定“数据治理”讨论的意义,反而是提出了“数据治理”讨论的三个前提,即:我们究竟在讨论什么阶段的数据治理、我们在讨论平衡哪些主体之间的数据治理、我们在讨论哪个部分的数据治理?

这也引出我的观点:我们需要把“数据治理”简化为不同小的部分,并将其放入人类社会已经形成的制度框架、思维框架之下,然后可能才能推进相关议题的共识。

当然,这并不是指我们就要沿袭以往的框架,思想解放和制度创新是永恒的话题。但即使如此,我们仍然需要将“数据治理”具体化,并找到将其具体化的维度、层次、体系。在此基础上,才会推进“数据治理”的讨论共识。

齐乐

▶依托设计与管理的数据安全

当代系统工程学的创始人之一钱学森博士指出,“产品可靠性是设计出来的,生产出来的,管理出来的”。套用这句话展开我们对数据安全和数据利用的讨论。

第一层:数据安全是设计出来的。

新西兰枪击直播事件发生后,在Facebook等知名媒体上大量传播,造成了不可估量的社会负面影响。在网络发达的媒体社会里,每个人的功能都是一个数据节点,与他人有着或多或少的连接。新西兰枪击直播事件向我们展示了一个数据节点利用杠杆将其恐怖行为在瞬间向全世界散播的“成功案例”。数据传播途径四通八达,防范技术却未及时跟进。至少在音频、视频流媒体方面并没有做到充分的安全性设计。考虑到传播的包括个体和媒体组织,一个去中心化的策略群可以用来改进当前的预防机制:

1.细分过滤触发事件,引入激励机制优化过滤策略。

将数据的传播当做是一个行为,这个行为事前受到过滤算法和数据安全审查人员的控制,人工智能算法根据奖励权重比例进行阻截。对于人工审核员而言,对于恶意传播事件的成功阻截应纳入其个人的绩效激励之中。

2.流媒体可获取性延迟技术。

为过滤策略赢得更为充分的数据分析决策窗口期,增加阻截有效度。

3.建立在线预防文化奖励机制。

有能力做是一件事,做不做是另外一件事。个体在数据合法传播过程中具有举足轻重的作用,在预防不良信息传播的积极文化中,每个人都会为传播有益和阻碍有害信息传播得到褒奖。这种预防文化是可以通过技术设计而习得的。

第二层:数据安全是管理出来的。

这一层比较容易理解,在运用技术手段将数据安全内嵌、合法使用预防文化激励机制下,如果仍有个人或集体试图突破安防机制恶意利用数据,那么必须有明确的处罚机制引入,震慑其违法行为。这就是我们公共管理部门需要协同技术部门要共同细化完成的任务,即如欧盟的数据保护法案。

第三层:数据共享利用是人类的未来。

基于公共利益和资源共享的数据利用是我们未来工作学习的方式。MIT斯隆管理学院的组织管理大师Thomas Malone在《The future of work》一书中描述了一种去中心化的未来工作的组织方式,他称之为集体智能。在这种构架下,常常并不需要“上级”规定员工在组织中的职责,在充分信息共享的前提下,大家共同来决定一件任务的发展走向。成功的例子如Linux开源软件开发,Facebook、Youtube、GitHub、大众点评等等,这些工具或平台的强大在于用户的自主贡献,他们通常自发的去做这些自己喜欢的事情,这个过程往往并不需要组织,也不需要耗费公共资源。未来的教育、社会公平、技术突破、科学进步都要依赖这种去中心化的自我演化机制。

总结:设计数据安全机制、培养数据使用文化、促进数据共享利用、共创人类美好未来。



学术争鸣

一、不同主体如何达成共识?

许红梅

请教各位嘉宾,数据利用主体(政府、企业、个人)中存在明显的实力悬殊,个人的力量如何整合才能与前两者抗衡?如果说遵照能力越大责任越大的伦理逻辑,数据利用最大的受益方(其内部驱动力必然是微弱的)如何才能履行相应的保护职责?弱势的个人如果没有自我数据保护意识的觉醒,未来力量悬殊会持续加重。数据领域的马太效应会越来越明显。互联网企业掌握的媒体不愿自发启蒙,官媒的重心不在此处,那我们难道只能依靠自媒体吗?

红梅博士提出的问题(个人数据权利如何在信息时代不被政府或企业倾轧),其实是一个传统的政治学问题的变形,对此政治哲学家们也曾给出多套解决方案,比如订立社会契约、自由结成法团、分权相互制衡等等,都是出于保障个人权利的目的。保护个人的数据权当然是必要的,但这种保护需要维持在何种程度上,则是值得进一步探讨的问题,毕竟数据保护的最终目标在于拓展个人自由而非缩小它。在信息时代,究竟是交出自己的信息能获得更多自由,还是拒绝被数据化才能获得更多自由?恐怕所有使用过互联网的人都会发现,只有交出信息才能拓展个人自由——比如,交出位置与出行信息以换取导航、购票、代驾、天气预警以及其他交通服务,否则就只能在越来越复杂的现代城市交通网中不断迷失。所以,从信息要求开放的时代特征而言,我们只会交出越来越多的个人数据,那么把这些数据交给那些值得信赖的大型组织,恐怕将是所有人无奈的妥协。

柳亦博

文禹衡

回到政府、企业、个人中存在明显的实力悬殊的问题上,目前,最弱势的是个人,觉醒的个体追求的是数据安全价值;企业是“数据寡头”,追求的是数据经济价值;政府追求的是数据的社会(治理)价值。

可以实施数据评级制度,按照数据收集量、敏感重要度、损失代价等进行评级,这个量级给监管部门报备,对这些数据寡头实施监管;评级特别高的企业可以强制推行用户的数据信息安全收费服务,明确责权利,防止滥用。就像存款保险一样,虽然不常用,但是可以应对极端情形,也可降低公共管理部门的行政干预支出。

齐乐

文禹衡 

齐博士提出的进路挺好的,数据保护和利用的问题是整个社会层面的,在这个角度而言确实存在“两难困境”。数据治理的全部内容不只是“保护”与“利用”,但这二者平衡是否应该上升到一个理念的高度是值得思考的。制度的着力点在于形成一整套体系化的规则,例如数据性质界定(不能够直接讨论数据的法律属性,而是应该从数据自然属性、社会属性展开谈及法律属性),然后才有数据权属的问题,当数据权属的初始配置完成后(个人、企业、政府间的配置,或者是个人和企业间配置),接下来就是数据流动问题(数据交易等),至于数据载体为应该归属到数据权属凭证。不过,是否要考虑在这些隐藏问题形成最小共识,要不要遵循的另一个前置性的“最小共识”,找到前置性的最小共识,是否有助于后续问题最小共识的大成?

二、 “数据保护”和“数据利用”是否可以平衡?

文禹衡

齐博士的观点归纳起来主要是在讲“数据安全”和“数据利用”的问题,这里可以析出两组表达不同、意思相同的关系,即“数据保护”和“数据利用”的问题或称“数据安全”和“数据红利”的问题。数据保护是手段,数据安全是目的;数据利用是手段,数据红利是目的。这一组问题非常重要,也是我们当下进行数据治理所需要考虑的基础性问题,因为它涉及到的是在数据治理过程中的利益平衡的本质问题,即数据治理所追求的效果应该是“在追求数据价值最大化的同时,将公共领域和私人领域的风险最小化”。尽管单独谈论“数据利用”和“数据安全”都很重要,那么请问如何平衡好“数据安全”和“数据红利”(即“数据保护”和“数据利用”)的问题呢?在这个问题上是否能给出一些设想或具体的方案?

技术的进步既然让我们走到了今天这一步,那么必然是有其存在的意义。在任何一项新生事物产生后,我们所做的就是要用科学、符合道德的方法发挥其价值,避免其带来的社会等方面的代价或者说是成本。那么如何着手去分析并落实这个问题的解决,也就是如何达到数据安全和数据红利的的平衡呢?数据本身的属性既具有正向,也具有负向,不同数据其正向和负向的程度不同,由此带给公共和个人利益的好处和危险性也不尽相同。那么,数据的流动过程中涉及了机器和人两个方面,那么我们解决问题的途径一是要通过机器,二是要通过人。

齐乐

通过机器,意思是我们用以传输信息的基础建设,其本身对于数据的特性需要加以鉴别,对于数据的传播也要设定相应的权限,也就是数据安全是需要设计的,公共管理部门的智囊团要对数据的通用保护技术予以门槛性的规定,对于存储大量个人重要信息的网络平台必须通过相应的安全性测试,保证在标准测试条件下的数据安全问题。当然,更要规范社交网络平台对于隐私保护的能力,预防引起积累连锁效应。流媒体的监管更要严格,智能监察只是一种手段,可靠性目前并不高,要持续提升其管理效度,并要结合人工审查,避免出现大规模的违规传播。解决问题的另一渠道是通过人类个体,无论是使用数据创造正向价值的人还是违规传播、使用数据的人,其行为都要受到规则的指引和约束。公共管理和立法部门就是要规范网络数据使用和传输的行为,让好的行为畅通无阻被助力,违法行为被暴露和监管。当然,技术的手段也可以助力良好使用和传播数据文化的形成,比如现在让小学生家长陪同孩子学习的各种安全文明上网常识。如果每个人都能形成良好的行为习惯,再结合日益完善的网络安全技术及法律监管机制的日常运行,我相信数据安全和数据红利的这种平衡是可以比较好的实现的。

齐乐

文禹衡

数据保护和数据利用的平衡问题似乎还没有引起学术界或实务界更多的重视,刚开始出现大数据“热”的时候,强调“数据利用”,要学习国外的数据开放运动,要尽可能地消除数据孤岛,这些做法没有问题,但那个时候没有保护数据的意识,也正是在这个阶段没有做好相关“规则”的顶层设计。直到近些年来,大规模的数据泄露、数据滥用、数据杀熟等社会性问题频发时,社会的焦点才慢慢聚焦到“数据保护”,强调要严格保护。此时,还有一个时代背景就是GDPR的出台和生效,这一号称史上最严格的个人数据保护法,让其他国家的企业在“叫骂”声中不断地实现“合规”。GDPR不仅规范企业行为,我国2020年冬奥会也开始受到GDPR规则的影响,国际奥委会要求各方遵守GDPR 。但是,一味地保护数据,而限制数据利用也会产生社会性问题。在《个人信息保护法》和《数据安全法》已经列入了立法规划的时代背景下,这一期的讨论主题非常有价值,希望能够形成一些具体的智慧成果提供给立法决策部门。立法应该遵循一个理念,这个理念必然不是在“数据利用”和“数据保护”中只执一端,而是应该将其平衡起来。如果立法的价值取向为“兼顾数据保护和数据利用”,那么所有的规则设计都必须围绕这个理念展开。

齐博士说得很有道理。通过机器和人,根源还是通过人的管理,行政手段、法制手段、教育手段等综合途径规范数据利用。但我国大型互联网企业现在是按照两套规矩在执行:对欧盟高规格合规,对国内依然没有停下收集、分析、挖掘个人数据的步伐。

许红梅

文禹衡

根源还是通过人作用。如果技术能够解决就交给技术,如果是技术无能为力的社会问题,可能就需要制度来解决。制度内容包括法律规则、行政手段、教育行为等等。国内的相关立法还没有完善,数据收集还处于“野蛮生长”的状态。通过仅有的几个有关数据纠纷的司法案例来看,将来可能会出现一个令人担忧的情况:为了让数据更好地利用起来,而将数据的“权利”配置向企业倾斜。如果按照德肖维茨的观点“权利来自于大规模的恶行”,在数据领域的“大规模恶行”尚未出现时(当然是最好不要出现),那么普通公众的数据权利启蒙运动需要更漫长的努力来推动。

是的,国内数据利用确实“野蛮”,本来《网络安全法》保护就不够全面,遵守的还是极少数被点名的互联网企业,大部分互联网企业仍旧我行我素。一方面数据安全的执法对技术要求高,成本不低,另一方面,普通民众没有自我数据保护意识。李彦宏就说过,中国消费者很容易为了一点物质利益奉上自己的个人信息。我国现在力图在大数据时代弯道超车,就必然打通各个数据关节点,全力提高数据利用效率。那最后掌握数据的终极金字塔尖怎么去监管,也是个问题。推动数据安全意识启蒙,除了学者,媒体也应该充分参与。

许红梅

齐乐

这个大规模的恶行提的好啊,比如我上次说的枪击事件视频被疯狂传播的情况,这个始作俑者成功了,而传播者就成了帮凶。这会激励下一个同样恶性的行为再次出现。普通公众是否受到数据使用和传播规范的教育此时就显得特别的重要,如果安全使用数据形成了一种习得的技能乃至成为一种文化,那么这种违法就不具有大规模积累效应的基础,那么社会危害度也将是相对离散的、较低的。

反过来说,如果形成了这种“技能”和“文化”,那么问题也就得到解决了,此时不需要“大规模恶行”来推动相关的立法。要在相当的普通公众中树立数据安全意识。从效果来看,很大程度上数据安全的“技能”、“文化”可能会比数据安全“立法”所带来的效果应该会更好。此时,就需要考虑一个问题“技能”和“文化”的形成所需要的社会成本与相关法律规则制度形成所需要的社会成本的大小问题,也就是经济学上讲的“最优”。

文禹衡 

贾老师提出的问题具有方法论上的意义,数据的全球性流动,决定了数据治理问题不可能是地域性的。对于诸如“数据”“安全”“权利”等问题的思维模式在不同的国家、地域文化和法律文化中不尽相同,即便在同一国家、地域的不同学科中也不尽相同。“数据治理”具体化并找到将其具体化的维度、层次、体系,具有“元命题”意义上的重要性。不知道,贾老师对此可否给出进一步的思考。目前我对贾老师提出的问题所找到的解决方案是,引入费肯杰“推参阐述”方法。推参阐述I,仅仅承认特定的思维模式在认知价值上的平等性,在一个思维方式内部致力于推参阐述性的、后效一致性的思考;推参阐述II,通过比较限定于依据另一种模式或思维而对某一思维或模式进行批评的否定;推参阐述III,是一种“共同性的”剩余状态“、元理论的形式,其从通用的标准出发并且由此使思维方式比较的评价得以可能,对于通用的评价基础是最小公分母(最小共识);推参阐述IV,则是建立于第三步基础之上的政策问题,被称为在思维模式中的"应用人类学”,显示什么行不通是推参阐述IV战略的一个实质部分,但是如果实现何种思维方式前提能被选择、选择何种前提必须被后置,且如果某些经济(或者法律、社会)结果被期望,积极的“设计”也是可能的。这套方法具有很强的实用性,例如贾老师讲的“共识”问题和齐博士讲的“设计”分别在推参阐述III和推参阐述IV中得以统摄起来。

文禹衡 

贾开

 “数据安全”和“数据利用”的平衡是具有启发性的思考框架,最终的政策选择决定了对某些主体的保护,也决定了对某些主体的“牺牲”。我想提出的另外一个问题是,是否存在绕开这一两难选择的可能性。

一方面,从动态视角来看,技术的发展可能为以前看似两难选择的窘境提供突破口,比如说区块链。理想情况下,区块链是可以既实现保护、又不影响利用的。当然,区块链技术是否能够实现这一美好目标仍然存疑,不过至少当前人们仍然抱以信心。另一方面,数据治理是否不完全是“保护”与“利用”的平衡?一般说,两难选择是对于同一个主体而言,但数据保护和数据利用事实上是针对不同主体的。对于公民个人来说,其数据是很难被自己利用的,而且单个公民的数据实际上是没有太大价值的,只有累积在一起的数据作为整体才有更大价值;对于公司而言,其所在乎的更多是整体性的数据安全,而并不一定是单个用户的“数据保护”(即使在名义上公司仍然会强调个人信息的保护)。不过如果将分析视角提升到整个社会层面,似乎就存在“数据保护”和“数据利用”的两难选择——但此处仍然存在的问题在于这二者是否就是主要矛盾(或者本质矛盾)了?

沿袭这一思考,再往下挖,可能发现,“数据保护”和“数据利用”的矛盾背后,还隐藏着数据性质界定、数据权属界定、数据流动形式、数据载体形态等一系列问题。换言之,“数据保护”和“数据利用”的矛盾也可能还不是制度的着力点,而还有其他内容。

信息时代,也有学者称其为后隐私时代,这一称呼本身就说明了“数据保护”的范围将不同于之前对个人隐私的判断,可能在后隐私时代,依靠制度扎起的保护隐私的围栏要比今天人们想象的小很多。我们现在“利用大数据实现精准预测”,其实是基于无数个个体数据的汇集来实现的,即便是不加密的个体信息也非常容易隐藏在海量的大数据中,其他的个人很难抓取某个人的信息,而大型组织又对一个人的信息不感兴趣。因此对于个人而言,我认为现有的数据保护技术已然足够了,开发更严密的数据保护技术只是出于国家安全层面的考虑,比如为了应对国家间的网络黑客攻击等。所以,在这一点上我同意贾开老师的观点,数据的“保护”与“利用”并非两难问题,至少不是严格的非此即彼的两难问题,而且它们在伦理上也不是结构对称的,明显前者在多数伦理观的价值排序上优先于后者。

柳亦博



质询与回应

TO许红梅:

请问如何在公民参与数据治理和天然导致的大组织独占的数据资源开发权之间寻求平衡呢? 

许红梅:

       这个问题很难谈平衡,因为平衡往往是实力相当、势均力敌的双方或者各方力量的动态性角力下暂时的平静与稳定。公民作为个体,其人力、物力、组织程度与大组织相比,完全不在一个能量等级,可以说是天壤之别。再加上数据鸿沟、技术壁垒、意识形态影响,目前很难找到公民数据治理的有效办法。公民要参与数据治理,也许可以考虑从几个方面入手:一是通过学校教育和社会宣传,普及个人数据主体意识、数据安全意识和数据治理意识,并通过具体的数据安全事件培养公民的数据治理能力;二是建立相关NGO,集结一批数据技术专家、媒体从业人员、学者等,提高公民数据治理的组织化程度。三是积极推进立法机关制定数据安全法或者专门的隐私保护法,让更多有影响力的数据技术专家参与政府相关决策在这些基础上,提高公民的数据治理能力和整体实力,才能让他们具备与大组织进行讨论谈判的资本,促使组织在数据开发中尊重个人隐私的数据保护,甚至对使用某些个人数据进行付费,以更明确数据利用的权利义务。依据基本的公正原则,谁开发谁保护,谁收益谁保护。既然大组织是数据运用的主要获益者,它们就有义务做好数据保护,也有义务提供非敏感的一般性材料给公民使用,以满足公民的数据治理权。在此过程中,政府的态度和作用非常重要。期待公民数据治理权早日实现,虽然任重道远。

TO柳亦博:

1.请问政府(专家)调研数据,以及所得结论报告如何最大化与公众共享?

2.作为公民,信息被收集是必要的也是不可避免的。那怎样看待政府收集居民信息和网络企业收集用户信息二者的关系? 

柳亦博

       1、关于政府(专家)调研数据如何尽可能多地与公众共享这个问题,我猜测这个问题重点针对的可能是掌握知识的专家面向政府提交的不公开的调研报告,因为如果是其他可公开的调研数据,是可以在虚拟政府线上平台中轻松获取的,至多是用身份证号实名注册一下。那些数据之所以是不公开的,可能因为其涉及国家安全,也可能是因为专家出于保护自己劳动成果的考量,前一种情况的保密是必要的,后一种情况则可以设置一个保密期限,既尊重专家学者的劳动,又能够最大化共享数据。当然,需要强调的是,我个人认为,目前社会向政府强势施压要求全面数据开放的意义其实不大,反而容易造成一些负面的反弹。如果政府一股脑地把海量数据堆放在数据平台上,不贴标签、不做归类,也不对其他主体清洗之后的数据真实性进行审查认证,这就相当于把人抛入数据海洋中任其自行捞针。如此一来,对于无法从大数据中抓取关键信息的绝大多数人而言,他们的处境与政府全面开放数据之前,非旦未有任何改善,反而可能变得更糟:可能会反复遭遇大组织的盘剥。因为那些拥有知识、技术和资源的大型组织更有可能利用这些数据扩大它们与其他行动者在社会网络中影响力的差距,并利用这种差距生产更多不平等。因此,在目前的技术条件下激烈的要求数据全面开放,并不会让绝大多数人变得更自由,我们在信息社会依旧无法阻止技术性集权的发生。

        2、政府收集数据与企业收集数据之间的关系,就是公共部门行为与企业行为之间的关系,从目的来看,政府是为了更精准的管控,企业是为了赚更多的钱。但是,有时候这两种行为会出现矛盾,企业在赚更多钱的过程中可能会削弱政府管控社会的能力,那么政府就要以监管的形式介入企业的信息收集行为了。随着我们身上穿戴的传感器越来越多,被动暴露的个人信息也就越来越多维,而且这些数据之间是具备相关性的,通过相关数据的组合就能得到大量的个人信息。虽然所有企业都会在搜集数据之前象征性的征得同意,但不会有人真的逐条阅读冗长的授权协议,因为即便发现了不满意的条款也很难修改合同。政府不会对这种情况置之不理,必然会干预企业对用户的数据收集,至于何时以何种方式干预,则需视具体国家的情况,一般来说政府都会在那个企业发展到“大到不能倒”之前出手,或抑制、或拆分、或吸纳。

TO贾开:

您指出隐私的模糊性问题,但是目前有些什么共识的标准可以界定吗?这一界定关涉后面数据运用及治理的一系列问题,希望您谈谈自己的看法。

贾开:

       隐私的模糊性可以有多重理解,比如不同偏好的人对于隐私的理解可能不同、不同文化背景下的隐私内涵也可能不同等。就我们聚焦的议题来看,我们更多关注隐私在以下两个方面的模糊性:隐私随着技术演进的发展性和动态性,隐私在当前高度数字化形态下的流动性。

       前者是指在不同的技术环境下,人们对于隐私的理解是发展的、动态变化的。隐私的覆盖范围从房间扩展到电话亭、私家车、电话,伴随技术的成熟和普及,以前不被视为侵犯隐私的行为可能逐渐纳入到隐私范畴。

       隐私的“流动性”则具体与当前数据的流动性紧密联系在一起。当我们讨论“隐私”时,自主或者不自主的,我们可能都会浮现出一个“房间”的形状,即我们要将自己与外界隔离开、成为断点。但这种想象空间在当前可能并不是现实,无处不在的摄像头、无处不覆盖的数据网络,以及当前“无所不能”的人工智能,都存在于“数据流”的时代。在此环境下,究竟什么是隐私?“我”与“外界”的边界在何处,是一个很难界定的问题。

      这就是我所理解的“隐私”的模糊性。至于说共识的标准,我觉得仍然是存在的。比如我们强调隐私的保护,强调隐私之于人的基本权利,都是没有发生改变的。只是说,在当前情况下,我们要如何更新我们对于“隐私”的理解,以形成适应当前发展需求的新的共识,可能是更重要的。在这一点上,前面各位老师讲到的文化比制度更有效,可能是契合的了。

TO文禹衡:

您提到了网络安全法的实施,同时微信支付宝完成隐私条款更新,但同时在违法必究方面有短板,如何解决?数据安全方面,需要专业的人员和充足经费,如果数据利益的收益抵不上数据保护的支出,数据安全的可持续保护能走远吗?

文禹衡:

       上次提到的应该是《个人信息保护法》和《数据安全法》已经列入了立法规划。《网络安全法》以“网络安全”为要旨,侧重的是“总体安全”;反观《通用数据保护条例》以“个人数据”为要旨,侧重的是“个体安全”。《网络安全法》对于“隐私”的“违法必究”问题做了概括性和指引性规定,任何个人和组织不得利用网络从事侵害他人名誉、隐私等活动,违反此条例按规定应处罚,我国目前没有对“隐私”进行专门性立法保护的传统,主要是分散在《民法总则》、《侵权责任法》、《治安管理处罚法》这些不同的法律部门中。除此以外,还有其他的法律法规都可以通过解释论路径加强隐私保护和追责。就我国目前而言,与其说网络环境下保护隐私违法必究有短板,不如说保护“个人信息”“个人数据”的违法必究存在短板,这可能需要依靠已经列入到立法规划的《个人信息保护法》和《数据安全法》来补强。

       至于数据安全的可持续问题,如果只是考虑到企业层面维护数据安全的“收支”平衡,可能会走入一个误区——企业维护数据安全需要专业的人员和充足经费,而这些经费都是最终由企业承担。这种担心,有点类似《通用数据保护条例》颁布的时候,企业界的舆论发声很大——增加了企业成本,但是目前从实际情况来看,对个人数据(或个人隐私)保护做得好的企业,其竞争优势反而更加明显,也有越来越多的企业选择数据合规。数据作为新的资源,因其所带来的收益是多方面的,更多的是间接带来的总收益,而不能够局限于“数据的直接经济利益”。对于企业而言,其在“囤积”数据资源时,实现数据驱动商业竞争、商业营销等商业活动,就已经获得相当的收入了,如果不能因此带来更多的收益,企业会选择不利用数据驱动,因为事实采集、处理、分析等数据行为也需要成本支出。在这种情况下,要转换一个思维,不要总以为企业是因为维护数据安全而额外付出了成本,反而是因为企业利用了数据,那么理应从利用数据所获得的收益中支出一部分来维护数据安全。此外,即便是维护数据安全所需的开支,企业总会通过各种形式“转嫁”到消费者,企业只不过是维护数据安全支出的媒介,而成本最终都是还是分散到每一个具体的消费者。从整体而言,当我们选择数据安全的时候,就意味着选择了承当了维护数据安全的成本,立法成本、执法成本、司法成本,当然还有以企业为媒介的守法成本。我们可能通过交税的方式间接地承担这些成本,还可能因为所消费的产品或服务的价格中就已经折算了这些成本。

TO齐乐:

您说数据共享是未来趋势,可是这个趋势在目前通过技术设计及制度还没办法“完美”的情况,我们还能做些什么?或者说有无必要先暂停部分数据的运用?

齐乐:

       数据共享和保护的确要协调发展。如果将当前数据共享和保护的发展看作一个进化的过程,这个过程不可避免的会促使作为数据产生者和使用者的个体、团体通过“体验”不同操作行为的后果而不断规范其被规则掌控的行为,而我们公共管理部门要负起制定、执行、科学普及这些规则的责任。在数据保护和制度尚未完善的今天,应该强调的是,习惯的培养和文化的造就远远不是点一个“我同意”就可以完成的,这些规则应当从技术和管理角度以一个更为经常、显性的形式更为频繁的呈现给数据操作者,尤其是呈现给具有更高权限和大量级的数据操作者,这些频繁的音/视觉和后果提示将直接影响着数据操作者的行为,将大概率阻断不当数据操作行为链,降低数据误用风险。我们也只有在数据使用单元的数据使用行为更为规范的不远未来,才能更加安全的享受数据共享的红利。



学人点评

段伟文

       大家的讨论十分热烈也非常深入,有关数据利用与数据保护的相关问题都涉及到了,提出了很多洞见和有价值的建议。在此,我也想谈谈对这个问题的初步思考。

       当前,数据利用与数据保护之间的冲突之所以备受关注,关键在于记录人的特征与行为的数据正在成为智能科技创新的首要资源。对人的数据的收集与利用带来了大量的创新与应用,但也导致了数据收集的无节制和数据滥用等不容忽视的问题。虽然公众和行业管理者在不同程度意识到了平衡数据利用的收益与风险的重要性,对于数据滥用的治理却非易事:当前的各种智能终端与监控设备往往具有技术上的不透明性和隐蔽性,个人信息与个人数据的范围的模糊不清,选择同意或选择退出的执行十分复杂,数据收集的必要性也不易界定。同时,企业等数据利用主体也陷入某种自相矛盾的焦虑之中:一方面担心严格的监管会制约创新,另一方面又意识到目前这种秘密的和侵略式的数据收集与利用方式必将难以为继。为了摆脱这些现实困境,切实化解数据利用与数据保护的冲突,必须立足具体的数据利用场景,诉诸实践的智慧。

       首先,对于数据这个概念要透过具体的数据技术应用实践做进一步的思考,要随着技术的发展在概念上有所创新。我们看到,不论是欧盟的“个人数据”还是我国的“个人信息”,虽然都与个人隐私相关但又有所不同,它们都是随着相关技术的发展而得到界定与更新的。如什么是个人敏感信息,往往与具体网络、大数据和人工智能以及各种传感技术的发展相伴而生。因此,数据不是抽象的概念,讨论数据的利用要结合具体的技术应用形式。当前,APP对个人信息的不当收集就非常值得深入探讨,探讨其中具体的风险与创新的平衡、数据收集与利用的限度、个人的数据控制权等问题。为了更好地应对数据收集与利用中的各种伦理和法律问题,要根据具体的应用与场景对数据概念作进一步的细化和厘清,甚至创制一些新的数据概念。实际上,欧盟的一般数据保护条例提出的被遗忘权、可携带权等数据权利而不是简单地使用隐私权等既有概念,就是一系列概念上的创制。创制概念的目的是为了借助对事物新的理解更好地行事。值得进一步探讨的是:(1)能否根据数据共享和数据交易的特征对数据进行分类,以便更好地确定数据的权属和相关利益,使数据利用得到更有效的治理;(2)能否创制出符合中国实际的数据概念和数据权利,以更有效地应对数据利用的新发展对数据保护带来的开放性挑战。

       其次,落实个人数据权利与保护公众利益,需要从对数据利用的正当性的审查与纠偏,以及对数据利用主体的责任界定与问责两个方面入手。追问数据利用的正当性,需要对数据及其利用的本质有更深的认识。不能仅仅将数据简单地理解为对事实的被动反映,而应该看到数据利用的全过程—-数据收集、数据画像、数据分析等以及由此形成的认知与干预—-均为一系列有目的的行为因此,应该在具体的应用与场景中追问数据收集与利用是为了做什么,细究其正当性,对恶意利用、算法偏见等予以必要的纠正。与此同时,行业主管部门有必要在加强审查企业与机构等主体收集与利用数据的内容和目的的基础上,进一步建立数据利用后果的问责机制,以此明确数据收集与利用主体的责任—-特别是对数据收集与利用所带来的严重权益侵害等负面后果应承担的责任。值得指出的是,对数据利用后果的问责与举证责任密切相关。在数据权利保护的实践中,需要权衡的问题之一是,对于那些必须予以特殊关切的权益的保护,如当数据的收集和利用可能危害儿童的身心健康权和教育权时,数据收集与利用主体是否应该先自证其数据收集与利用的行为无害。在具体的数据治理实践中,应该引入务实的数据全生命周期管理与治理机制,将对数据利用的正当性的审查与纠偏和对数据利用主体的责任的界定与问责有机地结合起来。具体举措是:对于一般的数据利用的目的进行备案管理和形式审查,遇到问题再根据情况进行实质审查;对有潜在严重危害的数据利用则要求责任主体在实施前承担自证无害的责任;对恶意的数据利用和不良后果严重的数据利用实施严格的问责并予以切实具有阻吓效果的重罚。

        其三,数据治理要着眼数据驱动的智能社会的未来发展,从构建智能文明的维度探索平衡数据利用与数据保护的深远意义。随着大数据与人工智能  的发展,带来了世界的数据化与人的特征与行为的数据化,人类社会正在走向一切皆被记录、一切皆被分析的解析社会,数据化生存成为一种全新的人类生存方式。数据的产生将无处不在,数据流将成为世界和人的存在与演化的引擎。例如,从智能冰箱、智能音箱到教育机器人和陪护机器人,其价值都在于源源不断的数据流的产生。由此,数据利用与数据保护之间的冲突必将对人类的智慧带来前所未有的挑战。一方面,对人的数据解析可能成为一种无所不在的非人格化权力,将人降格为一种可分类、优化、监控和预测的数据化对象——数据拟像;另一方面,主体的能动性可能促使个体不甘于作为被表征与干预的数据化对象,而通过与数据的动态交互参与世界、他人和自我的数据的制作与再制作进程。展望未来,人的数据化生存意味着数据将成为关乎人的存在与演化的新一代技术伴侣:人与数据的交互与聚合不仅将使数据成为人类进化的全新基础,还将通过万物的数据化形成一种基于“智能体—数据拟像”的“人—机—数”共生网络。



回应点评

贾开

       非常感谢段老师的评议,我个人也受益匪浅。我想重述的,可能是段老师观点中,我认为很重要的分析视角。伴随着数字化、智能化进程的加深,数据治理实际上并不仅仅只是针对某个对象、聚焦某个领域的狭隘议题,其更像是在讨论整个人类社会的治理问题(因为所有东西都被数字化了)。在尚不能对数据治理形成一般性的概念、框架之前(类似的问题在于,我们对于人类社会这个整体又是否形成了一般性的概念、框架),我们的分析视角可能仍然需要将其切分、细化,就像段老师提到的数据分类的构建、数据权利的细化等。

文禹衡

关于数据的概念共识,可以考虑借助其他学科已经达成的最小共识,比如情报科学领域信息价值链就将“事实、数据、信息、知识、情报/智能”做了比较科学的区分和关联。如果能够就数据的概念达成共识,那么个人数据的概念也就能达成共识。从欧盟《通用数据保护条例》界定的“个人数据”的定义来看,符合“信息=数据+社会属性”的基本内涵,大致符合信息价值链划分的层次。数据自由流动属性决定了数据问题必然是全球性的,不宜在数据概念和数据权利等方面搞“中国特色”的定义或内涵,可能在全球语境下进行概念界定较为妥当,才能形成数据有效治理的基础。如何在全球语境下达成数据问题的最小共识,可能需要回归到推参阐述方法。顺便说一下人工智能的问题,在当前的人文社科研究领域可能吹起了人工智能泡沫,将人工智能过于玄化。究其本质,简要理解,人工智能是以数据为实体、以算法为程式,算法偏见更多地是所谓的数据造成的,而不是算法本身。人工智能的规制、算法偏见的规制,关键还是得回归到数据治理上来。分场景能解决的是不同数据利用与保护的特殊规则问题,换言之,数据利用与保护仍需要一套最低限度的通行规则。因为,分场景的本质就是类型化,在法律规则的设定方面,穷尽列举类型是不可能的,有效的做法是“列举+概括”。因此,需要的是数据利用与保护的一般规则(普适性)+特殊规则(分场景)。数据本就是人机交互的产物,这并不是近年来才有的事,之所以在近些年得到特别的关注,是因为技术的发展——云计算技术、大数据技术、存储技术等的发展激活了数据的资源活性,由此引发了数据泄漏、数据滥用等问题,最终侵害或危及到个人的权益。数据问题的出现是因技术带来的,那么数据问题的解决的第一条路径可能依然是技术,只有当技术无能为力时,再寻求第二条路径——包括法律规则、管理策略等在内的制度。



主持人总结


许红梅:

非常有幸参与此次论坛,聆听贾老师、柳老师、文老师、齐博士的精彩发言,并邀请到段老师做深入点评。也非常感谢此次讨论的助手黄同学全程参与,以及质询团的提问。

无论愿意与否,人类社会的数据化进程都正在如火如荼进行且愈演愈烈。在井喷式几何级增长的数据洪流中,如何在数据运用过程中平衡政府、企业和个人利益,维护数据安全,保全个人数据隐私,是一个值得深思、探讨的现实问题。此次讨论主要围绕几个问题展开:

第一,数据利用为何会有风险,风险何在。对此,大家一致认为人类社会信息化、数据化势在必行,个人将不可避免地交出数据,融入数据化生存的历史潮流。由于数据规模化收集的资源垄断、数据集中式处理的不透明性和隐蔽性、数据利用的技术壁垒与场景多样化,大型社会组织和商业公司成为了数据红利的最大享有者,由此而带来的公民隐私泄露、数据不当利用甚至数字利维坦不仅是风险,而且已成为现实。这为我国的数据治理带来了新挑战。

第二,如何平衡各方利益,实现数据安全。经过大家的激烈讨论,主要通过三大途径:首先,设计数据保护技术机制,将其嵌入数据利用的全过程。可以试行的技术方法包括:实施数据评级制度,按照数据收集量、敏感重要度、损失代价等进行评级,根据评级进行相应技术管制。设计去中心化数据过滤机制,结合算法过滤、人工数据安全员的审核过滤、流媒体可获取性延迟技术、在线预防文化奖励机制等过滤涉及个人隐私和危害公共安全的数据。通过区块链技术实现数据的公开、透明、民主化运用等。具体的技术设计保护方案将随着计算机技术的演进和数据保护理念的变化而不断发展。

其次,通过制定相关法律,清晰界定数据分类、数据权属、数据流动、数据载体等目前较为模糊的概念,划定公民数据隐私的边界与公民隐私权的内涵,规定数据利用主体的法律责任。在此基础上,系统设计数据运用过程中各方的法律权利与义务。现有的《网络安全法》倾向于保护整体网络安全,但是2018年9月10日公布的《十三届全国人大常委会立法规划》中,第61个项目《个人信息保护法》和第62个项目《数据安全法》被寄予厚望,这两部规划中的法律对于我们所热议的数据保护至关重要,如果在此过程中专家学者们能根据中国国情创制新的数据概念和数据权利,充分平衡各方利益,将会对构建“数字中国”和我国的数据治理模式产生深远的影响。

再次,通过行政手段,加强数据运用的过程性监管。公共管理部门应设置技术部门,对数据的通用保护技术予以门槛性的规定,监督存储大量个人重要信息的网络平台通过相应的安全性测试,对于数据评级中涉及公共安全的信息及时上传监管部门备案,对于运用大量数据的场景和目的向数据所有者作出说明,保证数据安全。

最后,通过学校教育与社会宣传,培养公民的数据安全和数据保护意识,在一系列实践活动中让民众习得数据保护技能,养成数据安全思维与习惯,形成民间对不规范甚至违法数据利用的监督与制约。

相信通过一系列技术、法律、行政、教育、文化手段,人类社会可以在追求数据价值最大化的同时,实现公共领域和私人领域的数据风险最小化,并在万物数据化背景下逐渐构建“人—机—数”共生的数据智能文明。围绕数据运用与数据安全的争论将如影随形,伴随着社会的数据化发展进程不断演变。无论何时,我们都会看到历史前行过程中的矛盾与困惑,但只要怀着深切的人文关怀,群策群力,集思广益,总会有“回首已是满园春”之时。再次感谢参与此次讨论的诸位老师和同学们,谢谢大家全程热情参与、冷静思考和倾力支持。


往期精彩回顾

你为何如此焦虑|仁济医院424事件|流量操控公共舆论|煤改气|基因修饰|学术不端|教育公平|AI角色|再谈东北|文化产业监管|脱贫攻坚|生育风波|“指向弱者”的暴力|高考状元|国家与个人|人才新政|LGBT|高校X骚扰|知识付费|学生会|地域黑|网络审判|城市人口政策|“江歌案”|女士优先车厢|社区运转|共享单车 

转载授权:圆桌论坛为政治学人推出的系列活动,以上为本次论坛全部线上活动纪实,文章为原创作品,任何纸质或网络媒体转载请联系授权(微信号:zzxrbjtd)。


嘉宾招募:欢迎海内外教师、博士生参与圆桌论坛的讨论,欢迎发送您的意愿和个人简介到zhengzhixueren@sina.com邮箱报名。


质询团招募:欢迎高校学子加入质询团,第一时间对圆桌论坛的嘉宾提问!请添加圆桌论坛管理员(微信号:zzxrzxt)咨询,一周内会回复。


议题征集:如果有感兴趣的议题,欢迎点击“阅读原文”告诉我们~

统筹:黄韦萍

编辑:董宇瑶


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存