查看原文
其他

陈宁豫|数字经济背景下个性化推送行为的实践现状及其法律规制

陈宁豫 上海市法学会 东方法学
2024-10-09

数字经济时代,以用户画像为基础主动向用户推送定制化内容的个性化推送技术已经成为各个行业网络服务平台的核心运营手段,该技术不仅能够有针对性地、高效地推送信息,也提高了数据资源的有效利用率。但个性化推送服务的应用也带来了个人隐私信息泄露、侵犯个人隐私信息、网络平台主观过错认定分歧等法律风险。综合我国发展实践现状来看,利用数据脱敏、用户画像的去标签化、用户实名制信息数据隔离等措施可以有效保障个人信息安全,为司法实践中区分合规的个性化推送行为提供思路;监管体系的完善和个人信息侵权救济制度的构建对于解决用户的问责通道和行业健康发展有不可或缺的作用,保障个性化推送技术有序向善发展。

随着数字技术的飞速发展,发展数字经济已经成为推进中国式现代化的重要驱动力量。中国信息通信研究院2023年4月发布了《中国数字经济发展研究报告(2023)》,将2022年我国数字经济发展总结为实现了量的合理增长、结构优化促进质的有效提升、全要素生产率进一步提升和数据生产要素价值进一步释放等四个方面表现。当数据不断融入社会经济价值创造的过程中,重组再造经济社会形态和人们的日常生活,其价值和重要性也不断地凸显,被称为“数字经济时代的黄金与石油”。国际数据研究机构Statista统计称,2020年由于新冠肺炎疫情导致居家办公、学习、娱乐的需求和时间大幅提升,使得全球制造和复制的数据量达到了64.2泽字节(ZB),创下了新的纪录,到2025年全球数据创造量则预计达到180泽字节(ZB)以上。2023年国务院新闻办公室发布的《新时代的中国网络法治建设》白皮书中公布,目前我国网民人数已达10.67亿,已经形成了全球规模最大的网络社会。

面对如此庞大的用户群体和海量数据,如何解决“信息过载”、实现信息的精准搜索和筛选成为数字时代极为重要的问题。在这种背景下,门户网站、搜索引擎和个性化推送技术应运而生。其中,个性化推送服务以用户的使用数据为基础进行挖掘和分析,进而得到用户画像,实现信息的精准投放,较好地实现了对大量数据信息进行快速筛选、分类和投递的过程,满足了人们对于个性化和“定制信息”的需求,逐渐成为数字经济时代互联网企业获取用户信息和提高用户黏性的有力武器。目前该种技术已经被广泛使用于购物电商平台、新闻客户端等多个日常生活场景中。但个性化推送技术在为平台、企业和用户带来经济效益和便利的同时,也产生了个人信息泄露、算法歧视、大数据杀熟等诸多新问题。

目前世界各国对此研究和规制的进度各不相同。国外对于个性化推送技术使用者,也即网络服务提供者侵权的注意义务于1988年的《美国新千年数字版法案》中首倡,随后各国也相继出台了针对个人信息保护、企业问责、监管惩治等方面的法律法规。在国内而言,目前我国还没有统一的立法,相关的规定多分散于各领域内。近年来侵犯用户合法权益的事件频发,使得公众对自身信息和隐私保护意识不断加强,这一问题在立法保护的具体研究中的价值也显得更为重要。有鉴于此,本文通过探讨当前个性化推送行为的现状、法律风险及其规制策略,试图为该技术在数字经济时代安全、可控、健康发展提供法治保障。

一、个性化推送技术的实践现状

个性化推送技术是指通过收集、分析用户在使用期间的行为特征,在此基础上利用算法勾勒出用户画像、得到用户喜好,进而有针对性地投放信息给用户。目前我国法律中规定的“主动推荐”等内容推荐形式与个性化推送在技术原理上存在一定的差异:首先,推荐是用户主动使用应用程序、主动打开后呈现的结果,而推送则是应用程序端主动发起的,只要用户允许App通知就会自动接收相关信息;其次用户只要在应用内持续刷新或者使用,推荐就会一直存在,而只要用户关闭通知就不会再收到推送的消息;再次,推荐面向的用户群体中高活跃度用户占比较大,毕竟推荐的前提是用户主动登录和查看,而推送则面向所有用户进行发送通知,目的主要在于唤起低活跃度用户的注意;最后是两者的内容覆盖面也有所不同,个性化推荐的内容覆盖方方面面,而个性化推送更关注特殊主体的需求,在内容上有更为严格的审核标准,尤其在节假日和特殊时期有更多的注意事项和要求。个性化推送技术在采集到用户信息之后主动向用户投放特定信息的特征,相较于用户主动搜索的推荐技术,在信息检索速度和对点信息发送上有着天然的优势,因此该技术也被广泛地使用在日常生活场景中。


(一)个性化推送技术的应用现状

个性化推送技术目前主要应用于各种购物电商平台、音视频播放平台、新闻客户端等,主要用于对消息实时推送,用户通过点击推送的内容即可直接进入应用内查看详细内容。大部分手机应用软件都设置了“个性化推送接收”的设置选项,用户可以在后台自主选择是否接受消息推送,接受后算法将根据用户的年龄、性别、所在地区、浏览和收藏的内容等方面向用户进行消息推送。在用户的手机锁定情况下,推送消息将以弹窗的形式出现在手机屏幕上,点击即可直接打开阅读。后台的运营团队将实时监控消息推送的效果,对于内容上乘、点击率高的内容还将继续扩大推送规模,进行第二轮个性化推送或全用户推送。

在新闻资讯平台中,推送内容集中在各种新闻资讯、短视频,以及新闻的二次传播等方面。据不完全统计,腾讯新闻平均一天的推送新闻条数能达到37条,百度新闻日均20条,今日头条日均30条。电商平台根据用户的购买历史、搜索记录和浏览习惯,向用户推荐相似或者相关的商品,以淘宝为例,“猜你喜欢”已经不再新鲜,目前淘宝已经能根据用户近期在其他相关网站上的搜索和关注的《法律研究》集刊2024年第1卷记录分析用户的喜好,并进行商品的个性化推送。社交平台通过用户的社交网络关系、活动记录及兴趣点,向用户推荐与其相关度高的好友、群组和活动,例如微博近日改版后已经开始向用户推送已经关注的用户的关注内容。音乐平台基于用户的听歌历史、评分和收藏,会向用户推荐符合其口味的歌手的其他作品、相似类型的歌曲和专辑等,比较典型的是网易云音乐和QQ音乐的“每日歌单”推送功能。


(二)个性化推送技术的法律规制现状

对于个性化推送行为在应用过程中暴露出的一系列新问题,世界各国都在积极出台相关政策法规。总的来说,目前各国对于个性化推送暴露出的问题主要还是从个人隐私保护、算法规制等方面进行立法的。在个人隐私数据保护方面目前规制模式主要分为三种:一是统一立法,由国家和政府主导进行规范;二是以行业自律为主,在相关法律中分散规制;三是国家主导和行业自律相结合。其中欧盟选择了统一立法、对各企业单独赋权的立法模式,美国则依靠行业自律、分散立法进行规制。两者均已经形成了具有地区特色的规制模式,一方面都为用户赋予了广泛的权利,一方面对平台和数据收集方明确了需要承担的责任和严格的监督、惩罚条款。

目前我国对于个性化推送技术设计的算法规制和个人信息保护还多见于分散立法,现行立法中与个性化推送技术相关的算法规制、个人信息保护相关法律主要包括:

表1  我国个性化推送算法规制及信息保护相关立法

综上可以看到,我国对于个性化推送技术的现行立法多集中于从个人隐私保护、平台及服务提供商行为规范等角度开展的,法律分布较为分散,高位阶专门法律尚未制定,低位阶规范性文件中的法律效力较弱,尚未形成完整的针对个性化推送行为的法律体系。

二、平台个性化推送行为的法律风险分析


(一)“画像偏见”带来的权力侵害

通过对用户的个人信息、行为数据、使用习惯、偏好特征等方面进行分析,能够形成一个对用户的全面而准确的描述,也即一种虚拟的用户模型,一般称之为“用户画像”。用户画像的实现能够描绘一个完整的用户形象,帮助企业更好地了解目标用户,有针对性地进行营销推广和服务改进。算法作为勾勒用户画像的基础,算法歧视带来的“画像歧视”问题也愈发不容忽视。

算法歧视主要包括两种类型,一种情况下基础数据并不存在歧视情况,保持了中立,但导出结果的多项数据结合在一起造成了偏见的结果。例如美国警察部门的预测性警务算法,其目的在于帮助警察预测各地区的犯罪可能性大小并自动预警,但是由于这一系统只关注了各地区的逮捕人数和邮政编码,导致非洲裔人群由于收入较低被自动划入高犯罪人群,成为预测犯罪的对象,因此该预警系统也被一部分媒体称为“种族主义者”。另一种情况下是“BIBO”现象,即算法输入数据本身带有偏见,导致算法的输出结果也具有偏见,该种偏见可能来自数据采集时对某些因素的忽略或偏重、样本来源不充分或不够随机、算法模型本身存在特定偏向或限制导致结果存在偏向。这种情况下将会导致偏见数据在算法中被无意识地操纵和强化,从而影响输出结果的公正性和准确性,此时输入正确数据并不能改变结果,只能通过增加样本多样性、优化算法模型等方式来调整算法模型本身,提高算法的可靠性和公正性。

算法出现歧视现象后,得出的用户画像不可避免地会产生带有个人偏见的情况,大数据杀熟是其最为典型的一种形式。所谓“杀熟”其实是算法歧视中一种隐蔽的类型,算法往往会对不同的用户产生不同的处理模式,其中典型表现为价格歧视和特定推送。用户画像的愈发完整使得平台方能够全面地掌握用户消费水平和消费偏好,算法则会根据用户购买能力和兴趣进行私人化的“价格定制”。携程网就曾被用户控诉同一产品对不同的用户展示不同的价格,甚至将价格提高到原来的数倍;2019年快手平台也被曝光在不同用户之间展示不同的广告,部分用户因此被收取了不必要的增值服务费;某些网约车平台会通过分析用户的历史订单等信息,对早高峰的约车价格进行提高,甚至会限制某些特定地点的服务。


(二)用户知情权利之侵害

新用户在使用App或平台时,平台会向用户提供相应的服务协议来征得使用用户信息的权利。早期的服务协议往往位置隐蔽、颜色较浅,处于用户不易察觉的位置,近年来随着政策法规的要求和人们对于自身隐私权保护意识的加强,各种应用软件将服务协议设置为弹窗的形式出现在登录界面中,或者在用户登录时出现在界面下方并配备勾选选项。部分应用要求用户勾选服务协议及隐私政策后才能够使用该软件,但在进入软件后可单独取消对于隐私政策的允许,代表性的应用是高德地图。另一部分软件则将隐私政策和用户协议分开进行展示,用户同意用户协议后只能享受体验感较差的基础服务,要使用完整服务需另外同意隐私政策,这类App以淘宝为例。

虽然相比之前,用户协议和隐私政策的出现已经变得更加显眼和实用,但是其内容依旧冗长复杂,以一种格式合同的形式展示给用户。不能使用软件或只能使用基础服务的设置使得用户只能同意协议内容,在实践过程中大部分情况下用户也不会完整的阅读服务协议就选择了同意。因此从这两个角度而言具体什么信息被企业收集、哪些信息被使用等问题用户并不知情,服务协议和隐私政策的设置实质沦为一种形式,用户的个人信息保护并未得到充足的保障。对此情况,欧盟在《数据保护通用条例》(以下简称GDPR)中明确规定,数据的收集和处理必须建立在用户同意的基础上,并且获取用户同意如果是以书面形式作出的,应当使用清晰、平白的语言,以用户易于理解的形式,尤其是针对儿童的情况,任何违反此规定的声明都不具有效力。我国有的学者则认为用户的同意说明用户愿意为得到相关服务而用信息进行交换,是用户在进行利益权衡后自行做出的意思表示。另有学者表示当用户能得到的服务远大于其所付出的信息时,信息收集方有权自行处置用户信息。


(三)个性化推送行为监管不到位

由于对于个性化推送行为的法律制度构建还不完善,因此实践中的监管往往是在出现了侵权事件后才采取措施对用户救济。但正常情况下监管范围应当包含算法的设计、技术的实际应用到出现问题后平台的改进措施。事后监管不仅是对平台和服务方行为的放任,也会加重用户和消费者的维权负担。从监管手段上来看,目前我国的监管采用的是评估检查的方式。但算法的不断更新和自我学习进化,使得个性化推送行为也在不断变换方式。单一的监管方式并不能有效且高效地起到监管作用。在监管过后的惩罚措施上“一刀切”的方式也不可取,监管一方面是为了保障广大用户和消费者的自身权益,另一方面还要起到维持行业发展稳定、保证市场发展活力的作用。因此在监管过程中把握好平台和服务商与用户和消费者两方主体之间的平衡与稳定是至关重要的。

从监管主体出发,由于监管对象是在算法技术上发展起来的新型服务方式,因此监管人员应当具备相当水平的技术能力和一定的行业了解,才能精准把握可能出现的风险点和侵权方向,从而实现更加完善和全面的监管。个性化推送服务涉及领域和行业的广泛性以及其与人们日常生活的联系紧密程度,决定了只依靠专门的监管机构并不能真正实现全流程、全方位的监察。企业自律、公众监督等主体与监管机构相结合实现监管渠道的进一步拓宽,才能将监管效果发挥到最大。

三、个性化推送行为的性质认定

由于法律规制不可避免的滞后性特征,对于个性化推送行为可能引发的侵权责任及平台方应当承担的责任,我国目前并没有明确的法律法规进行说明。个性化推送行为从外观上与现行法律法规中规定的“个性化推荐”行为并不完全相同,所以已经出现的相关案例中,平台方在面对个性化推送行为引起的诉讼时,常常以算法中立、技术不具有价值判断能力为理由,来避免承担侵权责任。基于此,为了合理分配相关主体之间的责任分配、为法律法规的设立提供有益帮助和参考,从法律层面明晰个性化推送行为的性质和实质尤为关键。以下将探讨目前学界中主流的几种性质认定分歧。


(一)个性化推送行为主观过错认定分歧

当推送的内容出现抄袭、违规等侵权现象时,平台方就可能面临着共同侵权的法律认定问题。由于推送内容通常是软件内的用户进行输出之后由平台推送,因此平台方作为个性化推送技术的使用者,也即服务提供者是否要承担侵权的间接责任成了目前司法实践责任认定中的关键点。而要认定其具有间接责任,需要明晰平台方在推送过程中是否具有主观上的过错。目前既有的法律法规中均以平台方“知道”或“应该知道”为标准,但这种衡量模式过于宽泛和模糊,并不能为司法实践给予精准的指引。而正如前文所述,个性化推荐与个性化推送两者存在着一定的技术差异,我国民法典、《信息网络传播权保护条例》等相关法律法规中则是针对个性化推荐行为进行了规定,因此个性化推送行为在主观认定中能否直接适用现行的法律条款也存在一定的分歧。

1.统一适用现行推荐规则




部分学者认为个性化推送行为与个性化推荐行为并无太大差异,应统一适用于现行的法律法规。原因在于以下三点:首先,平台进行个性化推送的前提是对内容进行了审核,或者至少进行了基础的检查,所以平台应当对内容的侵权与否有一定的认知。其次,有学者认为个性化推送行为虽然本质是由算法驱动的,整个推送的流程都在算法的规定之下,表现为“技术中立”,但平台使用这一技术的根本原因在于提高用户黏性、为企业获取更高的利润,推送这一行为本身也具有直接传播的属性,因此应当认定平台方的直接责任。还有学者认为个性化推送技术背后的算法是人为设计的,因此个性化推送的过程、方式和内容当属于背后设计者的意志,所以可以看作是信息管理员的角色,当属于《信息网络传播权规定》中的人为推荐的情形。

2.应区分适用现行推荐规则




有学者主张个性化推送行为与现行法规中的“主动推荐”并非同类行为,不能直接适用。首先个性化推送行为是基于算法自动得出的结果,并没有人工参与,平台的权限仅在于调整算法的内容,但是对于具体推送的信息并不能全面干涉,个性化推送依据的算法主要用于搜取信息,而非审查信息内容;其次个性化推送形式下并没有传统信息推荐中设置的栏目、榜单等,也没有对内容展示大段的描述性文字;最后,实现个性化推送技术的内容推荐算法和协同过滤算法都不需要对推送的信息内容是否侵权进行识别,因此不符合《信息网络传播权规定》中对人为推荐情形的描述。


(二)个性化推送行为认定的积极和消极层面

根据前文所述,要证明平台方在推送内容侵权中存在主观过错,则需证明平台方和推送技术提供者对该侵权行为明知或应知。“明知”表示推送服务平台明确知悉存在侵权行为,“应知”则指在合理的注意义务范围内,推送服务平台应当知晓该侵权行为。而在进行认定时,如果平台方在服务过程中主动介入,则可认定为积极行为;如果平台方仅仅未履行自身的注意义务,则认定为消极行为。由于个性化推送行为与信息推荐在技术和外观上存在一定差异,因此在认定信息推送行为是积极介入行为还是消极不履行义务的行为上也存在一定的分歧。

1.从积极层面认定个性化推送行为




将个性化推送行为认定为积极行为有以下两种观点:第一,不能将个性化推送行为认定是算法中立的机械化运作行为。对于“技术中立”的理解不能抛弃其背后蕴含的社会定位和蕴含的价值观念,对于“技术中立”和“技术利用”要进行区分,技术中立并不代表运用该技术的行为也是中立的。平台方使用个性化推送技术的最终目的是提高用户忠诚度、优化运营效果,实现最大化的商业利润,基于此种目的的技术使用行为不能称得上是完全中立。第二,个性化推送背后依托的算法蕴含了平台方为了实现利益最大化的价值倾向。平台方在对算法进行编写时,目的是加强用户粘性、提高商业利益,因此会根据自身应用软件的服务内容和营销定位,将企业和平台的价值观及运营偏好融入算法中,以打造符合其平台风格的推送模式。在推送服务运行过程中平台也会实时监控用户反馈和推送效果,根据实际情况与算法模型得出的结果之间的差异不断调试和修正,而这个过程中很难说平台的主观意愿没有对算法发挥作用。

2.从消极层面认定个性化推送行为




个性化推送行为作为与个性化推荐“一脉相承”的类似信息传播方式,同样会对服务提供方提出更高的合理注意义务。第一种观点认为用户信息发布与信息的传播属于两个环节,个性化推送机制的出现使得两者在主体和程序上分离开。由于平台方使用了个性化推荐的程序,某种程度上可以说在主动搜找相关信息进行推送,使得侵权内容有了更多机会被公布出来,并使原本看不到此内容的用户“被动”地得到了浏览信息的机会。此时推送信息撰写的用户仅仅处于“上传”的角色,该信息的浏览量和传播范围很大程度上取决于推送算法的设定。因此平台方在过程中可以理解为扮演了直接传播的角色,理应承担更为严格的注意义务和审查义务。

第二种观点是个性化推送行为实质是平台方为了追求更大获利而自主选择的运营模式,该技术使用户黏性增高、提高用户留存率等多方面有更大的优势和更高的经济效益,因此平台方有责任对“高回报”付出更多的责任和管理义务。如果对提供服务的商家平台并不要求其承担注意义务,无异于默认其能够在不承担更高的平台责任的同时获取更高的商业利益,即高风险高回报。这显然有违基本的法理逻辑,也使得互联网算法时代下的利益天平更倾向于平台一方,加剧用户与企业间的权利义务矛盾。此外作为内容推送机制的后台管控方,平台在使用这项服务时就已经介入了服务范围的软件应用层。根据危险控制力理论来说,风险管理者更了解风险,并能更有效地管理防范,同时也具有治理侵权风险的成本优势,因此平台方有义务对其管控下的推送内容承担不可转移的责任。

四、我国个性化推送行为的规制路径优化


(一)数据脱敏及用户画像去标签化

个性化信息推送建立在平台通过收集用户信息进而勾勒用户画像上,而目前司法实践中出现的大数据杀熟、算法歧视、个人隐私信息泄露等问题很大一部分原因是数据的没有进行特殊处理,用户画像未能去标签化。

数据脱敏是指通过按照设定的规则和策略对敏感数据进行变换和修改,从而可以有效地解决敏感数据在不受信任的环境中被滥用的问题,也被称为数据“去隐私化”或数据变形。数据脱敏有两种形态,一种是在数据运输和静态储存过程中将数据加密,可以通过解密重新恢复数据;另一种是在分享和公开之前先将数据模糊、覆盖,此种处理后数据就不可再复原。为了防止平台在收集用户信息后造成个人隐私泄露,在较为暴露和不可信的环境中应当对数据采取不可恢复的脱敏方式,以免被非法利用者盗取。而在安全的环境下仅将数据用作存储或传输,可对数据进行可恢复性数据脱敏,在运输和存储过程中保证数据的隐私性和安全性,当用户重新需要找回数据时,还能通过解密的方式重新恢复。

个性化信息推送的预测功能建立在精准的用户画像的基础之上,而用户画像又是由算法对用户进行“标签化”后得到的。标签一方面能加快算法对于用户需求的反应速度,使信息的推送更加精准,另一方面正确的标签能使对于用户需求的预测更加准确,减少用户搜索信息的时间成本并让企业和平台实现信息的精准投放。但个性化信息推送对于用户画像的依赖使得当用户画像中对用户的标签出现错误、用户标签不当过分暴露时,造成的后果会更加严重。不仅是信息检索时间的增长,更严重的情况下还会对用户的个人名誉和人身安全造成危险。例如前几年频发的滴滴顺风车女性乘客遭到侵害的事件,正是因为在打车软件中对于乘客的性别、年龄等形象进行了描述,给女性独身乘客的人身安全带来了极大的安全隐患。所以对于平台而言,尤其是与个人敏感信息紧密相关的领域,要加大对用户画像的去标签化,尤其在公共的应用软件等环境中,更要注意对用户个人标签的暴露程度和标签准确度。


(二)完善个性化推送技术监管制度

由于目前我国在个性化推送上的法律规制体系尚未形成,因此用户并没有一个完善和成熟的申诉程序,现有的申诉、举报等途径并不能满足司法实践中的需求,企业和平台方给出的投诉渠道也存在运行不畅的情况,使得用户的举报投诉流于形式,并不能真正得到问题的解决。对于个性化推送信息的监管领域,目前缺少明确的主管部门,由于立法的分散导致各个部门仅在各自的领域和职权范围内进行监管,事后对于平台和企业的监管机构不明。对此需要完善个性化信息推送的算法问责机制,指明监管机构,形成流畅的用户问责通道,同时充分发挥社会公众的监督和舆论作用,共同作用促进行业健康发展。

1.设立专门监管机构




随着个性化信息推送技术在社会中运用的领域和场景越来越广泛,收集的信息种类也更为丰富,专门的监管机构愈发显得重要。对此,欧盟曾提出过设立“人工智能伦理委员会”,以为行业发展制定相关的伦理指南,约束技术使用者在使用技术时依旧在伦理框架内;根据美国《2019年算法问责法案》,其赋予了联邦贸易委员会对要求使用、存储、分享个人信息进行自动决策系统的企业和平台进行影响力评估和数据保护影响评估的权利,实际上也是使联邦贸易委员会担任了一部分专门审查的工作和角色。另一方面,在个性化推送背后涉及的算法规制领域,不管是对算法代码的审查还是运作过程的审查,都具有极高的专业性和复杂性,因此亟须一个拥有专业知识技能人才的审查机构有针对性地进行监管和调查,在减轻政府部门监管压力的同时,获得更好的监管效果。

同时不能忽视的一点是,人工智能和机器学习的迅猛发展使得算法程序也在不断向智能化的方向发展,机器学习技术的应用让算法程序能在不断地运用过程中自我学习、自我革新。算法程序的更新意味着监管内容和方向的变化,如果仅仅依靠人工根据审查规则进行监管,势必会出现审查程序和规则有滞后性和局限性的问题,“用算法监管算法”将是未来算法监管领域顺应时代发展不可或缺的方式和思路。“监管算法”不仅能在事中的监管过程中发挥作用,处理依靠监管人员难以解决的复杂算法问题,在对平台是否存在侵权、大数据杀熟、算法歧视等问题进行调查时,同样能够作为留证举证的有力帮手。“监管算法”的出现将大大减轻监管机构和人员的压力,并且能够随着被监管算法的更新同步更新,也能更为迅速、全面和精准地发现问题。

2.公众参与及社会监督




法律的性质决定了监管制度存在一定的局限和滞后性,此时社会公众的共同监督能够很好地弥补欠缺的部分,也提醒平台和数据使用方注意自己的行为。纽约地方法案中提出处理自动化决策系统侵权的法案中建议设立的特别工作小组,也是由专家学者和社会公民、组织代表共同组成的。一方面在监管过程中要充分发挥群众、社会组织和第三方专业机构的作用,另一方面在专门监管机构除了专业技术人员、研究人员之外,也应当设置相关的行政人员和法律协助人员,除了技术监管外,还要承担起为被侵权用户维权时进行损害评估认定、专业报告制作、提供帮助和支持的责任。


(三)个性化推送中实名制信息数据隔离

用户画像和用户标签的过于精准化也会使得在实际场景中缩小目标用户的数量,在特定场景下会造成用户身份被识别的风险。固定的标签组合和特定的推送场景,以及过于精准的个性化推送同样会让用户对个人信息的隐私性产生不安全感。我国为了规范网络环境,对网络用户进行了实名制认证的规定,用户在新注册或登录开始使用相关服务时,需先提供身份信息及手机号码,因此数据收集方除了得到用户在平台使用过程中产生的数据信息外,还会得到用户的实名认证信息。实名制的初衷是为了更好的规范网络环境,阻止不良信息的肆意传播,从这一角度而言,数据收集方不得将用户个人的实名认证信息用于商业用途,应当将“使用数据信息”与“个人信息”进行分离,并且在整个个性化推送技术实现的全流程中将两者隔离开。如果直接获取用户的实名认证信息,企业和平台将会形成“实名信息-直接用户画像-信息推送”的算法路径,而正常情况下通过用户使用相关服务得到相关数据的路径为“使用数据-数据分析-间接用户画像-个性化推送”。从此出发,能够更为清楚地区分合规的个性化推送行为和侵犯个人隐私信息行为。

实名认证数据隔离在司法实践中同样能够发挥作用。目前关于个人信息侵犯的案件中,原告通常只能证明损害事实,而对于信息泄露方和使用方却并不能提供相关证据,从而被法院驳回请求。在相关法律内容规制不足的情况下,法院若都以待证事实证据不足、当事人承担举证不能的不利后果,只通过客观证明责任来对个人信息纠纷案件进行审理,那么将会对法院的司法公信力和权威性产生不利影响。数据隔离的设置能为判断平台方是否存在过错提供一个解决思路。通过查验数据收集方是否将实名认证等个人信息与使用软件和平台过程中产生的设备信息两者进行隔离,进而判断数据处理方是否有责任以及如何进行责任分配,法院也可要求平台方主动提供设置数据隔离的相关证据证明个性化推送行为的正当性和合法性。


(四)用户个人信息侵权救济制度构建

在个性化推送服务中发生的个人信息侵权案件,大多数用户所受的损害并不严重,但在此类案件审理过程中获得的赔偿通常无法完全弥补他们所遭受的财产或精神损失。作为被告方的往往是大型的互联网企业,诉讼成本与滥用用户信息所获取的高额利益之间的悬殊差距,将会导致用户信息侵权行为愈发猖狂。对此,在规制侵权行为的赔偿标准中,可以引入最低数额的法定赔偿标准,当侵权行为对于用户的日常生活还未能造成较大影响时,用户可以在实际受损数额与法定最低赔偿数额中进行选择,以实现更加公平合理的救济。而对于涉及用户可直接用于身份识别的隐私信息或涉及较为广泛的群体利益时,在审理过程中应根据网络平台方的行为恶性程度、主观动机和实际获取利益多少等方面,设置相应的惩罚性赔偿,提高平台方的侵权成本从而使得企业在运营过程中合法使用用户个人信息。

另一方面,在目前的司法实践中,有多数案件涉及的侵权用户数量非常广泛,但对于个体而言造成的损害又较为轻微,因此也被称为“大规模微型伤害”。对于被侵权的各个用户而言,诉讼过程中的时间和金钱成本与所遭到的侵害相比较高且复杂,大多数用户会选择放弃诉讼、不要求平台方承担侵权责任。因此为保护用户的合法权益,应在此种损害出现时需要国家公权力机关或相关官方组织的介入,以“公共利益代表人”的身份追究平台方的侵权责任,减少用户个人在维权过程中付出的成本,同时由公权力机关出面进行集中诉讼也能减少重复诉讼给司法机关带来的工作压力,节约司法资源。

结语

随着科技的快速发展和数字化转型的推进,数据经济逐渐成为未来经济发展的重要方向。个性化推送技术作为建立在数据挖掘、分析和运用之上典型的数据技术,在实现精准营销、个性化服务的同时,也引发了一些法律和伦理问题。因此在数字经济发展的过程中,我们需要不断探索和完善个性化推送行为的规范和法律规制模式。未来我们需要建立更为完善和严格的隐私保护、数据收集、处理和使用的法律法规;加大监管力度,设立专门监管机构,并在监管中利用算法技术实现“算法监管算法”,同时发挥社会公众、组织及第三方机构的监督作用;企业和平台方也要通过行业自律承担相应的社会责任,积极探索个性化推送技术应用过程中保证数据安全、数据正确。和数据使用的新技术、新方法,确保合法合规地使用用户数据,尊重用户权益。唯此,数字经济才能实现可持续健康发展,为人类社会发展作出积极贡献。
往期精彩回顾

赵丹|国际投资仲裁裁决的司法审查及中国企业应对——以新加坡司法实践为例

池梓源|国企改制后股份合作制企业性质刑事认定的困境及解决路径

王殷舟|刑事被害人精神损害赔偿:正当性证成与实现进路

王丹|全球数字治理的制度困境与发展趋势

范雨萱|对外数字贸易的数据跨境转移法律规制研究

庄语滋|区块链智能合约的CISG适用问题探析


上海市法学会官网

http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存