曹刚:阿里、腾讯、滴滴们的七个道德难题
The following article is from 中国伦理在线 Author 曹刚
阿里、腾讯、滴滴们
的七个道德难题
作者:曹刚,中国人民大学伦理学与道德建设研究中心主任。曾为中国人民大学法学院博士后、中南大学法学院教师,主要研究法律职业伦理、伦理学等。
来源:微信公众号“中国伦理在线”于2021年8月26日推送。
中国人民大学伦理学与道德建设研究中心主任
曹刚教授
阿里巴巴、腾讯、滴滴们有三个共同特点:其一,它们都是互联网超级平台企业。其二,它们都拥有大数据,大数据是它们的生命线。其三,它们都是通过融资、上市、收购、投资、并购等资本运作来拓展产业蓝图,形成超级平台的。这些超级平台企业的运作、管理与治理面临着如下法律与道德难题。
01
隐私权问题
在大数据社会里,首当其冲的当然是隐私权问题,这也是人们最关切又最无奈的问题。
在《每天听见吴晓波》中介绍了一个有趣的研究。《美国国家科学院院刊》发表了一份调研报告,报告的结论是:最了解我们的不是别人,而是“赞”。据称,来自剑桥和斯坦福大学的研究团队做了一个实验,他们召集了北美86000个志愿者,一方面邀请这些志愿者的配偶、家人、朋友和同事对志愿者们进行性格分析,同时让这些志愿者在“我的性格”软件中完成一份100道题目的性格测试问卷,以此来全面了解这个人的性格特质。另一方面,打开这些志愿者的Facebook,取样他们在过去一年里点过的几百个赞:通过电脑分析10个赞,便能比他的同事更了解这个人;通过分析70个赞,对这个人的了解程度超过了他的朋友或者室友;分析150个赞以后,对这个人的了解程度就会超过他的家人;分析300个赞,对这个人的了解程度就会超过他的配偶,成为最了解他的人。这个有趣的结论在现实中也得到了验证。2012年2月16日《纽约时报》刊登了一篇题为《这些公司是如何知道您的秘密的》的文章,文章写道,一位愤怒的父亲投诉了连锁店塔吉特,因为这家商店居然给他还在读高中的的女儿邮寄了婴儿服装和孕妇服装的优惠券。让这位父亲无奈的是,尽管他千万个不愿意相信,但他女儿是真的怀孕了。为什么这家商店能知道连父亲都不知道的秘密?这是因为塔吉特的数据分析师开发了怀孕预测模型,通过分析这位女孩的购买记录——无味湿纸巾和补镁药品,就预测出了这个女顾客应该是怀孕了,既然怀孕了,自然就需要购置婴儿服装和孕妇服装。细细琢磨上述研究和案例,我们就不难理解大数据社会里隐私权保护所面临的困境了。
人性如花,扎根于阴暗潮湿之处,却努力向着阳光伸展开放,保护隐私可以说是人的根性需要。亚当和夏娃偷吃了禁果,“他们二人的眼睛就明亮了,才知道自己是赤身露体,便拿无花果树的叶子,为自己编作裙子。”可见,有了自我意识,就有了隐私意识,而有了自主意识,隐私权意识也就产生了。
按照德国联邦宪法法院运用的“范围理论”,私人领域由三个部分构成。一是最内部的“隐私领域”。这是个人最隐秘的、最不为人知的生活领域。二是私人的领域。这是除个人核心的隐私领域之外的家庭之中和私人之间生活交往的领域。三是最外部的社会领域。这是个人之间日常的交往活动中所涉及的领域。以此外推,就是公共生活领域了。三个领域由内及外,隐私性逐渐变弱,直到公共领域隐私性为零。反之,由外及内,隐私所内含的人格利益越来越多,隐私的保护力度也越来越强,直到最内部的“隐私领域”,因为与人格尊严密切相关,甚至需要通过宪法来予以确认保护。
但这样的隐私保护模式在大数据社会里似乎不灵了。一个高中女生怀孕了,这恐怕是女生最怕别人知道的秘密了。她只不过是在商店购买了无味湿纸巾和补镁药品,商店并非私人领域,购买也非秘密行动,此类药品也非私密信息,但在信息技术背景下,她所留下的各种信息都被收集、处理、编辑和合成,最后轻易地触及到了最内部的隐私领域。由此可见,在大数据的世界里,公共领域与私人领域、一般信息和敏感信息的划分已经失效了,而这种区分却是传统隐私保护的基础。可见,那种建立在区别公私领域和敏感信息的隐私伦理和隐私权保护模式遭遇到了挑战。
另一个问题是,为什么具有这种挖掘数据能力的商家就不能帮着保守秘密呢?那是因为塔吉特的数据分析师在开发怀孕预测模型时,想着的就是推销婴儿和孕妇服装。换言之,商家发明、创造、应用大数据技术的目的是挣更多的钱。其实,这种大数据的经济模式是一种隐私消费的经济模式,收集的个人数据越多、越全面,对用户的了解就越深,广告投放的针对性就越强,挣的钱就越多。可见,当个人信息的收集和处理构成了一种经济模式的构成要素时,隐私保护问题就成了一个棘手的现实问题。
02
大数据信任问题
社会信任有三种类型,即:人格信任、制度信任和大数据信任。在熟人社会里,人格诚信是主导。乡里乡亲,彼此的脾气秉性和为人处世都知根知底,是否信任对方,取决于对方的人品。在陌生人社会里,社会交往是以制度为中介的,遵纪守法才能使陌生人之间建立起普遍的、稳定的信任关系,所以制度信任是主导;在大数据社会里,拿数据说话才是最靠谱的,而这个数据是大数据。关键是,大数据信任体现了与人格信任、制度信任不同的思维模式。
在传统思维里,我信不信你,看你的德性,看你是否遵纪守法,有了这个“因”,才有信任这个“果”。事情总有个前因后果,这恐怕是我们根深蒂固的思维方式。但大数据却告诉我们,无需探寻原因,其实也难以探寻原因,你就相信结果就行了。因为只要拥有多维性、完备性和真实性的大数据,通过算法所得到的结果就是可信的。举个例子,沃尔玛的分析人员会对每个阶段的销售记录都会进行全面的分析。有一次他们无意中发现,在美国的飓风来临季节,超市的蛋挞和抵御飓风物品竟然销量都会大幅增加,虽然不明就里,但他们相信这个结论,并决定把蛋挞和飓风物品放在一起销售,结果蛋挞的销量大增,带来了丰厚的利润。这就是所谓的大数据思维。
这种大数据思维导致了两个结果,一是对大数据的盲目信任,甚至是大数据崇拜。一切的决策,无论是人生的决策,还是商业决策,甚至是政治决策,只要有大数据作为决策依据,其结论就是可信的,因而也是正当的。另一个就是对大数据的恐惧。如果我们只知道结果,却不明白整个推导的过程,也就是算法,我如何能信它?这就是“算法黑箱”带来的信任问题。就像走夜路,在漆黑的夜晚,你告诉我肯定不会出事,但这个结果并不能消除黑夜里的那种恐惧和忧虑。
信还是不信,这确实是个问题。
03
算法歧视问题
互联网上的算法歧视问题已引起人们的广泛注意。数据鸿沟会带来数据歧视。2020年8月,一段“老人无健康码乘地铁受阻”的视频在网上热传,这反映了“数字鸿沟”的年龄歧视。算法歧视还表现在雇佣歧视上。据美国卡内基梅隆大学的一项研究显示,谷歌的广告系统存在性别歧视。在推送“年薪20万美元的以上职位”的高收入工作招聘信息时,男性用户组收到1852次推送,女性用户组仅仅收到318次。女性得到的推荐机会,仅为男性的六分之一,这是性别歧视。如此等等,算法歧视已经是一种严重的社会问题了。那么,解决算法歧视问题要面临的什么难题呢?
第一,超级平台拥有算法权力,这种权力具有了某种公共性。超级平台的规模足够大,有数亿甚至数十亿的用户,并且涉及到我们生活的方方面面,由此具有某种社会基础设施的意味。你能设想买东西不用支付宝?交际无需微信?购物撇开京东?如此以来,这些平台的拥有者和管理者就拥有了准公共性的权力。问题是,国家的公共权力是人民转让和委托,并最终是为人民服务的。而这些平台所拥有的权力其实是资本的权力,资本是唯利是图的,资本为了增殖,必然会消解一切具有内在价值的东西,这其中就包括了人格尊严,而人格尊严正是平等的价值基础。歧视不过是平等的对立面,那么,一旦平等的价值基础被釜底抽薪了,算法歧视必然沉渣泛起。
第二,有些大数据崇拜者主张 “一切皆可量化”,甚至认为公平也可量化。有些学者和大数据从业者也在讨论“公平可以量化吗”的话题。在伦理学看来,这是个很奇怪的问题,甚至是不值得回答的问题,但这个话题的背后却隐含了大数据思维的一个道德盲点,即从过去预测未来,并把事实与价值、是与应当混为一谈。预测是大数据的主要功能,并成为各种决策的依据,但把大数据应用到道德决策上就会出现麻烦。以前做过坏事,将来就一定会做坏事?重新做人是否可能?封建社会的妇女人人裹脚,并以此为荣,如果有大数据预测,是否未来的社会里,妇女也应该人人裹脚?可见,算法歧视的背后还藏着很深刻的元伦理的问题。
04
算法剥削问题
《外卖骑手,困在系统里》一文中揭示了“与生命赛跑”的外卖骑手的生活困境。据称,2016年,3公里送餐距离的最长时限是1小时,2017年,变成了45分钟,2018年,又缩短了7分钟,变成了38分钟, 2019年,中国全行业外卖订单单均配送时长比3年前减少了10分钟。这让人想起了卓别林的《摩登时代》。尽管在大数据时代,算法背后的零工经济成为剥削工人的新方式,但换汤不换药,剥削的性质是一样的。
但如果如果有人告诉你,你在刷朋友圈时,在玩王者荣耀时,也是在劳动,也是在被剥削,你信吗?学者告诉我们,有一种劳动叫数字劳动,而数字劳动中,有一类是受众劳动与玩乐劳动。就是说,你在消费时,在玩时,因为生产了很多数据和信息资源,所以消费和玩也是劳动,而你生产出的这些数据和信息资源都被公司无偿占有并拿去挣钱了,这叫剥削。这种观点让人不明觉厉,莫名奇妙地觉得深刻。
啥叫剥削?不公平的利用他人的资源叫剥削。所以,这里的关键问题是,那些个大数据企业不公平地利用了你生产的信息资源了吗?如果你是成人,你获得了消费的便利和游戏的乐趣,同时给公司贡献了他们借以牟利的信息资源,这似乎没有什么不公平的。但如果公司根据人性的幽暗面,譬如好色、窥私欲、不自制等等,设计出令人成瘾的游戏或产品,让人不由“自主”地沉溺其中,而公司借以获取信息资源用以牟利,那么,这可以说是不公平地利用了他人的资源,可称其为剥削。可见,啥是数字劳动,怎么才算数字剥削,并不容易定义,它们所带来的问题也不容易解决。
05
数据主权问题
2021年6月30日,滴滴在美国纽约证券交易所上市。7月2日,网信办就发布公告称,为防范国家数据安全风险,维护国家安全,保障公共利益,对“滴滴出行”实施网络安全审查。审查期间还要停止了“滴滴出行”新用户注册。这是我国自《网络安全审查办法》发布以来的首次公开审查行动,数据主权成为观察这场监管风暴的最好视角。
根据美国证券交易委员会通过的《外国公司问责法案》最终修正案,在美国上市的滴滴必须呈交以审计底稿、或是用户数据和城市地图为代表的部分数据。要知道,滴滴的司机和乘客每天会上报数十万量级的路况事件,不断收集来自城市交通、教育、医疗、行政资源的分布的核心数据,其中包含了大量的国家机密,涉及国家安全的重大利益。包含着这些数据的审计底稿,是交还是不交?当然涉及一个国家的数据主权问题。
应该说,美国凭借其强大的政治、经济、科技实力,利用具有全球公共性质的互联网和数据资源来谋取一国之私利,并通过长臂管辖原则,不断侵犯他国主权,严重破坏了全球伦理和国际法治秩序。在这种情况下,捍卫国家的数据主权不但是必须的,也是合乎国际正义的。
值得讨论的问题是张一鸣提出的。2020年8月4日,张一鸣发表《不要在意短期损誉,耐心做好正确的事》的一封内部信,回应了公司将出售 TikTok 美国业务引发的争议。在信中,他提出,作为一家全球公司,大家工作中要有火星视角。张一鸣也许倡导的是一种“多元兼容”的企业伦理,但“火星视角”概念的提法,立即引发了网络舆情,招来了一片骂声。
火星视角是个什么视角?严格来说,火星视角是内在而又超越于地球的视角,是一个人类命运共同体的视角。在这个视角里看数据主权,也许有另一番景象。贝恰在跟池田大作对话时谈到:1648年的威斯特伐里亚条约确立了国家主权原则,这个时代“欧洲大陆当时人口稀少,到处为森林所覆盖。仅有极少数的读书人在摇曳的蜡光下读书。到什么地方谁都要徒步走去,骑马的人是极少数,而且骑在马上也很不舒服,能够坐马车旅行的人就更少了。今天,通讯和运输网巳密布于全世界,知识、快速信息、电子计算机和人造卫星等发达得几乎叫人难以相信,而且还有那种‘炸弹’。” 贝恰的结论是,国家主权作为历史的产物,它要解决当今的全球性问题已经捉襟见肘了。这意味着,我们要换一个视角来看国家主权的问题,这个视角也许就是“火星视角”,否则就难以解决这个时代面临的诸多问题,当然包括大数据所引发的各种全球问题。问题是,“火星视角”里的国家主权包括数据主权会是什么样的呢?如何解决现实国际政治中的主权冲突问题呢?这是全球伦理治理和国家法治所面临的一个难题。
06
市场垄断
“二选一”是一种典型的垄断行为。2010年腾讯和360之间爆发了“3Q大战”,这是最早的中国互联网“二选一”案例。爱库存和唯品会之争则是最近的一起“二选一”事件。在《平台经济领域的反垄断指南(征求意见稿)》中,对二选一的垄断性质已有明确界定。禁止“二选一”,就是反垄断,垄断之所以要反,是因为垄断破坏了市场经济的自由竞争秩序,垄断侵害了消费者的权益,垄断还会损害其他的社会价值。所有这些都已形成共识,不是什么难题。
最令人担忧的是,超级互联网平台会利用其垄断地位,借助资本扩张,在其他社会生活领域,取得支配地位,从而带来社会不公。当代最大的资本就是在互联网领域具有垄断地位的数字资本,资本的本能是增殖,增殖就要流动,资本流动无孔不入,是谓扩张,流到不该去的地方就是无序扩张。问题是,什么地方是资本不该去的地方呢?以阿里为例,阿里以电商为主业,在转向物流、外卖、生鲜等相关领域的同时,在文娱、体育、教育、医疗健康、出行旅游、社交、汽车交通、房产酒店等诸多领域都能看到它的身影,这些地方该去还是不该去?我觉得,其中有一个判断标准,就是数字资本不能凭借着超级平台的垄断优势,在其他具有非经济属性的领域,譬如政治、文化、教育、医疗及其他社会领域,取得话语权和支配权。否则这个社会就变成了一个资本的屠宰场。中央规定2021年的重要任务是防止垄断和资本的无序扩张,随之而来的一系列举措,都表明了给资本扩张确立道德边界的决心。
07
信息茧房
信息茧房是凯斯桑斯坦在《网络共和国》一书中提出的概念。这个词的源头,可以追溯到尼葛洛庞帝所著《数字化生存》。在这本书中,尼葛洛庞帝创造了一个词:Daily Me——我的日报。这使我想到了袁世凯。一心想当太子的袁克定伪造了专供袁世凯阅读的《顺天时报》,专门刊登一些鼓吹帝制的文章,使得袁世凯陷入“信息茧房”之中,从而影响了袁世凯的政治决策。在大数据社会里,“信息茧房”相当于超级平台通过大数据的个性化推荐,给我们每个人都办了一份报纸,报纸上都是自己喜欢看的内容,久而久之,读者便以为自己看到的就是世界的真相,坐井观天而不自知。
信息茧房是否真的存在?我是表示怀疑的,因为在现代社会,算法推荐难以做到信息源的垄断。只不过,凯斯桑斯坦是宪法学教授,他之所以提出信息茧房,是担心信息偏食会影响到民主共识的达成。这种担心具有某种警示的意义,所以我们不妨列出,将其看做是一个需要认真对待的问题。