查看原文
科技与未来

我们正在迎来一个没有隐私的未来

卡丽娜 · 维丽兹 思庐哲学 2023-09-23

作者简介:卡丽娜 · 维丽兹(Carissa Véliz),英国牛津大学哲学院及人工智能伦理学院副教授,专注于私隐、科技、政治哲学及公共政策范畴。

当我们回顾人类在历史上的所作所为时,大部分人都会承认其中有许多事令人不齿。千百年来,许多人做出了残害同类的暴行,做出过的糟糕决定带来无数不必要的动乱和苦难。为何人类在历史上无法做得更好?这可能在一定程度上归因于贪婪、自私、沙文主义、鼠目寸光、粗心大意,以及其他蒙蔽了我们道德观的错误和偏见。虽然这个世界仍被一些毫无意义的苦难蹂躏,但某些地方已经有所改观。举例来说,《世界人权宣言》的颁布以及医学伦理的进步都是一些促进人类善待彼此的新举措。在反思历史的过程中,与那些历史故事的主人公们相比,我们在判定何为明智,何为愚蠢时似乎有更强的判断力。

《未来道德: 来自新科技的挑战》

[英] 大卫·埃德蒙兹  编著

蒋兰  译

中国科学技术出版社

2023年1月

比起现在的道德问题,人们更能在过去的道德问题上明辨是非。其中一个颇有道理的原因是我们对过去发生的事了如指掌。但是,现如今,我们只能通过想象判断今日的举措对明日的影响。

另一个我们可以对过去有明确道德判断的原因是我们可以置身事外,无须亲身经历,尤其是年代久远的问题。举例来说,因为我们不是在“工业革命”时期的商人,所以我们更容易理解工人身处恶劣的工作环境在道德上是有多么不可接受;因为我们无法体会搏斗的乐趣和商业的诱惑,所以我们更容易会为罗马人强迫奴隶做角斗士而义愤填膺。因为过去的事情不牵扯我们的利益,所以我们有相对公正的道德观。

设想一下,很久以后的伦理学家们将如何看待我们在现在和不远的未来的种种举动?这能够启发性地引导我们重新审视目前的伦理问题,使我们跳脱出现在的环境,虽程度有限,却十分发人深省,因为我们站得更高更远。

在你来看,未来的伦理学家们会如何看待处于数字经济时代的我们对于个人隐私的处理方法呢?他们会认为我们当下的方法能够有效推进科学进步、政治稳定和个人福祉,还是会认为这会侵犯人权并带来不公、政治动荡以及不必要的烦恼?让我们先了解隐私问题的现状,然后再评判隐私被日益侵蚀的趋势究竟会让我们的前途更光明还是更黑暗。

01

隐私现状


现如今,英国、欧洲大陆和美国的公民保有的隐私大大少于20世纪90年代。在那时,大部分公司对用户的个人信息知之甚少,甚至可以说一无所知。对于有犯罪前科的人,政府掌握了其部分信息,但是对于守法公民的个人信息,政府实际能够掌握的很少,而且掌握的信息也大多分散在各个不同的机构。如果警方突然怀疑一个人可能是罪犯,他们也只能从那一刻开始收集用于后续调查的信息。

个人隐私十分重要,因为它保护个体免受权力滥用的伤害。它好比一个眼罩,迫使整个社会系统公平公正地对待每一个人。因为招聘员工的用人单位无法获取应聘者的个人隐私,所以他们无法以“身体健康状态”为由区别对待某一应聘者。

这一切在21世纪的头10年逐渐改变。谷歌和其他科技公司认识到,它们能够利用用户(在使用其产品或服务的过程中)产生的个人数据,构建用户的个人信息档案,从而向他们推送个性化广告。然而,谷歌和它的同行们从未征得用户或政府的同意,它们只是在默不作声地做这件事。在它们的行为终于广为人知时,这一个人信息获取机制早已生根发芽。此时,政府部门并没有动力规范这种数字经济,因为政府认识到,他们可以直接复制私人公司收集的数据,用于自己的目的。在2001年“9 · 11”事件发生后,政府对个人数据的渴求激增。出于国家安全的考虑,他们希望尽可能多地搜寻每个人的信息。

今天,只需轻轻点击几下鼠标,商业公司和政府就可以轻而易举地获取每个人的海量个人数据。几乎每个人都在口袋里装着一个“间谍”,它就是我们熟知的智能手机。使用数字科技的人会被获取的日常个人信息,包括定位信息、通讯录、通信数据(例如:呼叫了什么人,向谁发送了信息,什么时间,什么地点,持续了多长时间等)、购买记录、浏览记录和生物识别信息(例如:面部特征,指纹)。

这些数据十分敏感。拥有这些数据,别人就可以推断出你住在哪里,你的工作地点在哪里,你的伴侣是谁,你是否堕过胎,你是否吸毒,你是否去教堂,你有哪些疾病,你的购买力多强,你的政治信仰是什么,以及更多信息。如果警方开始怀疑某一个人是罪犯,他们可以立即调查其多年的个人信息,并从中搜寻潜在的犯罪行为。他们常常能够以一种断章取义的方式,在你过去的言行举止中搜寻到任何可疑的或反社会的蛛丝马迹。如果用人单位从数据分析公司(专门收集个人信息转卖给其他企业的公司)那里购买了你的个人资料,那么它就能以宗教信仰、政治观点、健康状况等各种理由歧视你,但你永远不知道其中的内幕。


02

一个没有隐私的未来


你的智能手表振动了几下。这是你该起床的时间。你的智能管家对你说:“早上好,我注意到你昨晚睡觉时心率有点快。或许,你需要加强锻炼。新的一天不妨就从跑步锻炼开始吧。”

你实在不想去跑步,因为你十分疲倦,稍微有点头痛。并且,你更愿意读报纸。但是拒绝智能管家的建议意味着你的健康保险账号里的积分会被扣除,这将会使你的保险费变得更贵。这一信息将被同时卖给你的人寿保险公司、你的雇主、你的银行、你的政府,以及其他团体。被扣除一分就有可能导致你被扣工资或失去贷款的机会。因此,你必须去跑步。

你在跑步时感到恶心反胃。你希望你能绕过智能手表的监测,停下来休息片刻。今天又是感觉需要请病假不去上班的一天,但你不会这么做。因为这么做会自动触发急诊预约,只会让你的头疼更加严重。多余的检查无益于减轻你的压力。你明白你需要的只是一段放松的时间,但是你只能继续全副武装。

回到家,你的智能管家建议你早饭吃一点麦片粥。你已经吃腻了麦片粥。显然,燕麦有助于降低胆固醇,而拒绝这种健康饮食的后果就是损失健康保险账户中的积分。所以,你还是吃下了这碗粥。

你打开了你的笔记本电脑。多年来,你虽然一直以这种固定的方式工作着,但是你依旧记不住你做的所有工作已经保存在电脑上并发送给了上司。你不能停下手头的工作,休息一会儿编辑一下私人短信或者看一会儿新闻,这给你带来了很大的压力。工作软件(在过去被称为间谍软件)实时监测你的注意力,每小时的打字频率,以及其他事情。它与你的智能管家相连。每当你松懈的时候,它都会督促你继续工作。“你好像分心了。”你的智能管家说道。你的智能管家十分严苛。如果上厕所次数过多,你将无法完成它布置的每日任务。讽刺的是,你的工作效率反而没有以前高了。你编写的文字可能在篇幅上变长了,但是在质量上变差了。大部分文稿都是废话连篇。

一天的工作终于结束了,你躺在沙发上休息。你仍在头疼。你打开手机翻看,不知不觉中,你打字、点击和滚屏的方式已经被机器学习算法分析了一遍,可以用于推断你的情绪状态和认知能力。这种单调的细节(比如滑动鼠标的速度过慢)可以显示你是否患有抑郁症、记忆力障碍、注意力障碍,等等,知道这些反而会加深你的焦虑。即使你知道这个算法蠢得无可救药,但你的上司会全盘按照算法说的做。

一封邮件警告到:你的银行账户遭到了黑客攻击。又一次发生这种事了。你想知道这次要花多长时间,多少钱解决这个问题。但是你现在无法处理,所以你决定出去散一会儿步。

你清楚地记得那些可以隐秘地探索这个城市的日子。你可以不用被无时无刻地监测、注视、分析,去任何你想去的地方闲庭信步。你可以迷失在陌生的街区,随意探索街角的咖啡馆。时过境迁,这些事变得极具风险。无人机和卫星在上方监视着你。面部和步态识别系统可在你经过每个闭路电视摄像头时识别你的身份。如果你去了一个治安糟糕的街区,你有可能被判定为可疑人员,你的社会信用积分可能会被扣减。如果你正好临近一群示威者,你可能会被加入黑名单。你已经有二三十年不再抗议任何事了,不是因为心中没有不平,而是不想惹麻烦。这次,你觉得最好待在安全的游览区。

你路过一个书店。你无比怀念能在书店自由地浏览群书的日子,那时你会购买和阅读与政治、性、爱情、健康相关的书籍。但你现在再也不会这么做了。因为这过于暴露你的个人隐私。有传言称,时不时会冒出一些地下书店,里面一个摄像头都没有,人们不允许携带电子设备。他们以物易物,不使用电子支付。但是,仅仅只是摘掉智能手表就足以使你陷入麻烦。你不想引起情报部门或是其他调查机构的注意。自从新冠肺炎疫情暴发以来,相关规定强制人们时刻佩戴智能手表。你的智能手表时刻监测着你的心率、体温和皮肤导电性(以测试你是否在出汗)等各种体征。该措施旨在预防疫情的扩散。真希望这些数据仅用于此目的。

你希望能够咨询律师一些与个人信息的某些用途相关的问题。你不能确定这些用途是否合法,但你知道接触律师本就是一件危险的事。预设律师和其他所有人一样都被监听十分合乎常理。

你回到家,打开电视,收看新闻。首相正在鼓吹本国的经济如何做到独步世界,他的执政如何让这个国家再度富强。你尽量不做出明显的面部表情。情绪监控公司通过智能电视上的摄像头监测并分析你的情绪,并与政府机构分享这些数据。政府和公司都坚称情绪监控是服务于“民主”的。

政府声称,他们可以通过你的个人数据推断出你的政治观点,所以就没有必要再进行选举投票了。他们说,此举将广大民众从投票的负担中解脱出来。但是你无比怀念投票。你不信任算法推算出的结果,特别是因为现在你所接触到的很多媒体十分个体化。他们为你量身定制个性化的推送,然后再用这些内容揣测你对公共问题的看法。这是否是一种恶性循环?

你为那些从未有过投票机会的年轻人感到悲哀。在一定程度上,民主是一种传统,一种由前辈传授予你的技能。你十分担心这种传统走向衰亡。为什么一切都发生了翻天覆地的变化?


03

隐私、自由和民主


有人可能会批评我描绘了一幅过于暗淡的画面:当然,使用个人数据不一定会导致民主和自由遭到侵蚀。难道我们就不可以在不干预自由的前提下,用大数据预防疾病传播,发展个性化医疗服务,更好地满足我们的世俗欲望吗?或许可以吧,但前提是我们必须规范数字经济的发展。

那么我们应该采取何种保护措施,避免我所描述的未来成真?首先,我们应该禁止过度个性化的内容。如果那些政客割裂了整个社群,那么信息鸿沟就能动摇民主的根基。为了使所有公民都能及时获取信息,我们需要确保所有人都能得到相同的信息。这样一来,记者、学者,以及普通民众可以核查真相并对其进行批评,从而迫使政客在行动上与其立场保持一致,而不是向不同群体兜售不同的信息。

为了避免歧视和个人数据的不公正使用,我们应要求收集和分析个人数据的人承担相关的信托责任,要求他们将数据所有人的利益放在第一位。我们的私人数据绝不能被用于侵害我们权益的行为。就像医生只能在她的职务范围内尽其所能地帮助患者一样,处理个人数据的相关人员只能将这些数据用在造福大众的事情上。如果你的智能手表监测你的心率,那么这个数据就不能被卖给你的雇主,或者是不将保护你的核心权益视为主要工作目标的数据分析公司。

为了进一步激励人们正确地使用个人数据,我们需要禁止个人数据的私自交易。你是谁,你从事何种工作,以及你的弱点是什么等个人隐私应禁止被倒卖。那些购买这些数据的人利用人类的脆弱面为自己牟利。如果收集个人数据是有利可图的,那么在利益的刺激下,数据商将会收集远超必需量的数据,并将其卖给想买的人。数据商甚至会将个人数据卖给诈骗分子。如果我们彻底禁止个人数据交易,我们就能有效抑制利用个人数据牟利的不法现象。

设想一下,如果我们做出一些调整,例如禁止推算一些敏感信息(比如根据一个人的音乐偏好推算他的性取向),整个世界会变得更美好:民主和自由繁荣发展,个人数据仅被用于科学技术的发展。

我提倡的为了保卫民主自由而应采取的限制措施,其实也是为了捍卫个人隐私而应采取的措施。我们不可能在未实现后者的前提下实现前者。

我们需要隐私权来捍卫个人自主权。当他人对我们过于了解时,他们就有可能对我们的信念和行为横加干涉。举例来说,赌场可能会利用广告精准地吸引赌客。这绝对利好赌场,但是这可能会使赌客倾家荡产。有了隐私权,我们才能匿名抗议,我们才能不记名投票,我们才能私下与医生、律师、记者接触,我们才能阅读所有我们感兴趣的内容。这些和其他事情一起构成了民主自由的基石。

04

选择自己的冒险旅程


目前,隐私权正处于一场激烈争斗的风暴中心。一方面,谷歌、脸书,以及其他数据商巨头正在尽可能地挖掘和分析个人数据。他们游说世界各地的政府,并试图让这些政府依赖他们。如今,越来越多的数据分析工作被外包给像Palantir这样的公司  。该公司与英国和美国的公共机构存在合作关系。情报机构和公共卫生部门辩称,他们需要足够多的数据来保证公众的健康安全。另一方面,对于现代科技巨头的抵制潮—— 来自消费者、人权组织、隐私专家、一些商业公司,以及像《欧洲通用数据保护条例》和《加利福尼亚州消费者隐私法》等新法规——的出现,代表促使政府和大型公司尊重个人隐私的力量已经出现。对未来道路的选择权在公民手中。我们可以使用和分析个人数据。但是,为了防止数据被滥用,我们也要保护隐私权,这有助于捍卫个人自主与民主自由。

本文出处:大卫·埃德蒙兹,《未来道德:来自新科技的挑战》,中国科学技术出版社,2023年版

文章采编:雪球

排版:初尧

审核:王抗



爆文推荐




首届“飞出迷楼·思庐评论奖”征文正在开展,欢迎大家踊跃参加征文,也欢迎大家争当大众评审,2023的秋冬,我们在思庐等你!



觉得此篇好文有启发,点个“在看”


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存