查看原文
其他

Facebook数据泄露门|事件概要及扎克伯格声明

前哨综合 网络法前哨 2020-02-27

点击标题下「网络法前哨」可快速关注


前哨按语

近期曝出的Facebook 用户数据泄露事件引发了广泛关注,前哨综合了相关信息以供参考。事件概述来自“假装在纽约”公号的授权文章,特此致谢。



近期曝出的用户数据泄露事件,让Facebook 遇到了创建以来最大的危机,以下为扎克伯格回应全文,极客公园编译。


  我想就剑桥分析(Cambridge Analytic)的情况分享一些最新的信息——包括我们已经采取的一些举措以及未来针对这一重大事件的行动计划。

  我们有责任保护你们的数据,如果我们没有做到,那么我们没有资格为你们服务。我努力了解了这一事件的细节,并思考如何能够保证这类事件不会再次发生。好消息是,阻止类似事件发生最为有效的举措早在几年前就已经落实,但我们也犯下了一些错误,能做的还有很多,我们要站出来采取行动。

  以下是这次事件的时间线:

  2007 年,Facebook Platform 开放平台发布,我们希望能为更多的应用提供社交能力。在日历上你应该能看到好友的生日,地图上应该能看到朋友们住哪儿,通讯簿里也应该能看到他们的照片。为此,我们授权让人们能够在其他应用中登陆 Facebook 的账号,并将他们的好友信息一同分享给第三方应用。

  2013 年,一位名为 Aleksandr Kogan 的剑桥大学研究员创建了一款性格测试应用,安装这款应用的用户中有近 30 万人分享了他们的 Facebook 数据,包括他们部分的好友数据。考虑到当时 Facebook 平台的规则,Kogan 得以获取这些用户数以千万计的好友数据。

  2014 年,为了杜绝应用对数据滥用,我们宣布对整个平台做出大型调整,这些应用能够访问的数据自此受到了极大的限制。最重要的,类似于 Kogan 的应用不再能够获取其用户的好友数据,除非这些用户的好友们同样授权了这款应用。我们同时要求开发者们必须在获取我们的许可后才能向用户征求敏感信息。这些举措能够防止类似 Kogan 的应用获取今天海量的数据。

  2015 年,《卫报》记者发文称 Kogan 将应用获取的数据分享给了剑桥分析公司。这违背了我们的开发者规则,即不得在没有用户同意的情况下分享数据。所以我们立刻在平台上封禁了 Kogan 的应用,并要求 Kogan 和剑桥分析通过正规形式证明他们已经删除了全部不当获取的数据。他们提供了相关证明。

  上周,在《卫报》《纽约时报》和《Channle 4》的报道中,我们发现剑桥分析或许并没有如他们所证明的那样将数据删除。我们立即禁止他们使用我们的任何服务。剑桥分析声称他们已经删除了所有数据,并同意接受我们聘请的审查公司进行法务审查。同时我们也在与监管部门合作,一起调查事件真相。

  这起事件是发生在 Kogan、剑桥分析和 Facebook 之间的信托违背事件。但同时也是 Facebook 对分享自己数据并希望我们妥善保管的用户们的信用违背。我们必须解决这个问题。

  就此,我们已在 2014 年为阻止恶意获取用户信息事件采取了几点最重要的举措,但还有很多要做,下面我将简单指出几点:

  第一,我们将调查所有在 2014 年我们改变平台策略、限制数据获取之前使用大量数据的应用,同时将对所有存在可疑活动的应用进行全面审查。我们将在平台上封禁所有不接受审查的开发者。此外,如果我们发现这些开发者中有滥用用户个人信息的情况,我们将封禁他们,并通知所有受这些应用影响的用户,包括此次事件中被 Kogan 利用数据的用户。

  第二,我们将进一步限制开发者对数据的使用,以预防类似滥用情况的出现。例如,如果你 3 个月都没有使用某一应用,我们将取消开发者获取你的信息的资格。当你使用 Facebook 账户登录该应用时,我们将减少你个人数据的分享——只提供你的名字、头像以及邮件地址。除了从我们这里获取许可以外,我们还将要求开发者签署一份合同,向用户申请获取其帖子或其他私密信息。在未来几天里,我们还会发布更多的措施。

  第三,我们希望用户对授权获取信息的应用保持知情。在接下来的几个月里,我们将在每个人的主页信息流置顶一个小工具,方便用户查看授权应用名单并取消授权。在隐私设置里,这一工具已经开放,现在我们将把它置顶在信息流中,以确保每个人都能够看到。

  除了 2014 年采取的几点举措之外,我认为如果我们要继续保证平台的安全,以上几点是必须要做到的。

  我一手创立了 Facebook,自始至终,我都会对所有发生在我们平台上的事件负责。所有保护社区而需要我做的事,我都会认真对待。尽管剑桥分析的事件在今天不再会发生,但这并不能改变已经发生了的事情。我们将从这次事件中总结经验,以保证我们平台的安全,同时让我们社区中的人们更加放心地前行。

  我想感谢所有相信我们使命、和我们一起打造更好社区的你们。我知道要解决这些事件,花费的时间比想象中要更久,但我向你们保证,我们将顺利解决这次事件。从长期来看,我们将建立起更好的服务。

  在 Facebook CEO 马克·扎克伯格就数据泄露事件发表声明不久后,该公司首席运营官(COO)雪莉·桑德伯格(Sheryl Sandberg)也发声谈论了这一问题,她称,Facebook 这一次确实严重辜负了用户的信任,对此感到非常遗憾。如今,Facebook 正在采取相关措施,以杜绝此类事件的再次发生。将来,Facebook 会加倍努力,保护好用户数据。

  以下为桑德伯格回应全文,凤凰科技编译:

  正如马克所说,我们知道这一次严重辜负了人们的信任,我非常遗憾我们没有采取足够的行动处理此事。我们有责任保护你们的数据,如果我们不能,那我们就不值得为你们服务。

  过去几天,我们努力全面了解真相,这样我们才能防止此类事件再次发生。这是我们正在采取的措施:调查所有在2014年我们调整平台之前访问我们大量信息的应用,来大幅减少它们对数据的访问。如果发现开发者私自滥用认证信息,我们就会禁止他们访问我们的平台,并告知受影响的用户。

  我们还采取措施,减少你们登录Facebook之后向某款App发送的数据。我们将让你们更轻松地知道,你已经允许哪一款App访问你的数据。

  你们的信息应当受到保护,而我们将持续努力,确保让你们感觉在Facebook上很安全。你们的信任和我们的服务的核心。我们知道这一点,也将努力赢得你们的信任。


数据泄露事件概要(感谢“假装在纽约”公号的授权):


一家叫做剑桥分析(Cambridge Analytica)的数据公司,非法窃取5000万Facebook用户资料后用算法进行大数据分析,根据每个用户的日常喜好、性格特点、行为特征,预测他们的政治倾向;


借助Facebook的广告投放系统,这家公司可以在数据分析的基础上对每个用户进行个性化定制、有高度针对性的新闻推送,进行潜移默化的洗脑,最终达到不知不觉中影响他们投票选择的目的;


他们和特朗普的竞选阵营有着千丝万缕的联系,公司的投资人是死忠的共和党保守派支持者,特朗普的资深幕僚曾经是公司的副总裁,而他们的目的是在美国打一场“文化战争”。


消息的来源是剑桥分析的前员工威利(Christopher Wylie),他向媒体详细地披露了其中的内幕。




几个数字足以看出这件事的热度:


纽约时报网站上一般文章的评论不过几十条上百条,但这一次有几千条评论;


《观察者报》隶属卫报集团,卫报网站上的报道被转发了14万次。


听起来匪夷所思,但通过大数据来影响选民的政治倾向并不算是什么太新鲜的事,过去媒体上已经有不少相关的报道。


这一次之所以成为重磅头条,是因为:


第一,数据的量级实在恐怖,整整5000万Facebook的用户数据,接近Facebook美国活跃用户总数的三分之一,美国选民人数的四分之一。


第二,这些数据在用户不知情的情况下非法窃取后用于政治目的,媒体因此定性为史上规模最大的泄密。


剑桥分析是怎么窃取Facebook用户数据、又怎么使用这些数据的呢?


先说一件几年前我在美国一家财经杂志上看到的事情。说的是美国某个内陆州一个中年男子向Target超市投诉,因为这家超市给他未成年的女儿投递孕期用品的小广告。


结果几天以后,这个父亲又来道歉了,因为他的女儿去医院做了检查,发现真的怀孕了。原来Target的系统根据她女儿近一段时间的消费购买习惯,自动分析出她有了怀孕的迹象。


这就是大数据的恐怖之处——可以在家人朋友、乃至本人知道怀孕之前,就先推算出你怀孕了。


Target虽然是一家规模很大的连锁超市巨头,但手头的数据毕竟只是用户买过哪些商品。Facebook就不一样了,坐拥22亿的活跃用户,数据规模要比Target大得多,两者根本不是一个量级,因此可以分析出来的东西就更多、更精准。


这些海量的数据是一座取之不竭的金矿,也是Facebook最大的财富,让每一个有野心的人都垂涎三尺。


Facebook有个特别的地方是,绝大多数用户都用真名真姓注册,同时会在上面登记大量的个人信息——生活的城市、毕业学校、工作单位,等等等等,可以说是每个人都把自己生活中的社交关系链完整地移植到了Facebook上。


Facebook还有一个独创的机制,叫like,微博的点赞就是向他们学的。Facebook鼓励用户点赞,每个用户每天都会有大量的点赞行为。


而这个点赞,可以透露出很多甚至连家人朋友都不知道的隐藏信息。Facebook内部就一直通过分析点赞行为,来实现广告的精准投放。


学术界对此也有很多的研究。剑桥大学有一个“心理测验学研究中心”,他们可以从用户点赞哪些帖子和新闻,分析出每个人的性别、性向、宗教信仰、性格是外向还是内向、政治理念是自由开明还是偏保守、是不是种族主义者、会给哪个党的候选人投票,等等等等。


2013年,亿万富翁、共和党的大金主罗伯特·默瑟(Robert Mercer)和女儿在极右派的斯蒂芬·班农的建议下,试图把原本已经在商业领域被证明是有效的数据分析引入政治领域,让数据分析为自己的保守政治主张服务,通过潜移默化地影响渗透每个人的大脑,改变美国的政治版图,来打一场“文化战争”。



他先是找剑桥大学合作,但剑桥没有答应。于是他们私底下找到了剑桥心理学教授科根(Aleksandr Kogan)。



这个科根的身份挺可疑的,他出生在东欧国家,在俄罗斯生活过很长时间,后来才移居美国,有俄罗斯和美国双重国籍。


媒体发现他在圣彼得堡大学也担任教职,还拿过俄罗斯政府的资助做数据分析研究,但他对外的履历里却刻意隐藏自己的俄罗斯背景。


媒体还发现,剑桥分析和俄罗斯第二大石油公司卢克公司(lukoil)私下里也有过接触。所以这件事的背后,很可能也有俄罗斯的势力。


在科根的帮助下,罗伯特·默瑟出资1500万美元创办了剑桥分析公司,聘请班农担任副总裁。


剑桥分析的另一个核心人物,CEO亚历山大·尼克斯(Alexander Nix),野心勃勃地想要把自己的公司打造成政治数据分析之王。



剑桥分析开发了一个让用户进行“个性人格测试”的 Facebook app(类似微信的小程序),每个用户做完这个测试,就可以得到5美元。


因为这个app是寄生在Facebook平台上的,用户需要授权开发者获得自己的Facebook资料以及自己的好友信息才能使用。通过这样滚雪球的方式,剑桥分析最终得到了5000万名用户的资料。


他们为最初的一批测试者建立心理画像,通过比对他们的回答和他们的个人资料建立一个强大的算法模型,再用这个模型来预测和影响其他用户的行为模式和投票选择。


比如说,针对那些还在犹豫不决的中间选民,他们会推送有针对性的新闻乃至假新闻,潜移默化地改变和操控他们的心理。


容易被煽动起来的,就推送耸人听闻的内容;看起来智商比较高的,就把内容包装得再巧妙一些;虽然支持特朗普但是可能不太愿意捐款和出门投票的,就强调下形势的严峻性,调动他们的积极性。


总之就是投其所好,高度精准的个性定制。


目前我们还不知道这一套战略到底发挥了多大作用,但表面上看起来是极其成功的。至少我们看到了特朗普上台,而班农也一度被聘请为白宫首席战略专家和高级顾问。



剑桥分析公司也私下宣称,自己才是特朗普得以胜选的幕后功臣。


除了美国大选,剑桥分析还号称曾经介入和影响全世界许多国家的选举,包括肯尼亚、印度和哥伦比亚。甚至连英国公投,可能都有他们的因素。


Facebook原本有机会制止这一切的发生。早在2014年,他们就监测到了剑桥分析大量获取用户资料的异常行为,但可能是过于麻木,并没有采取有效的措施,而是放任剑桥分析继续非法使用自己的用户数据。


而对外界,他们一直隐瞒着这一切,上个月他们在接受美国国会关于Facebook上假新闻的质询时,还坚称自己的用户数据从来没有被挪作他用。


甚至在这次《纽约时报》和《观察者报》的重磅报道出台后,他们做的第一个反应,竟然是封杀了爆料者、剑桥分析前员工威利的Facebook账号。



正是因为这样的做法,所以Facebook现在站在了风口浪尖,成为美国人千夫所指的邪恶公司。


如何对这样坐拥海量数据、但却缺乏透明度的公司进行立法监管,是现在美国人正在激烈讨论的话题。



几年前,中国网络上流传一个笑话,说如果搞一个一人一票的海选,那不管评选什么马化腾都可以轻而易举地获胜,他只需要发个QQ弹窗许诺给每个选他的人发Q币就可以了。


在中国,这可能永远都只会是一个段子。但现在在美国发生的事可以看成这个段子的现实升级版,一样显示了网络操控人心的可怕力量。


只不过,用的不是发Q币这样简单粗暴的手段,而更像是《盗梦空间》那样精心设计的洗脑艺术。


其实不光是Facebook,一切存在中心化机制的社交网络都有这样操控人心的力量——相比之下,微信的去中心化机制显得是如此珍贵,朋友圈除了明确标示的广告你看不到任何微信官方的推送,时间线也不会受到干扰。


微博就不一样了,把某个话题在微博热搜上挂一天,你可能真的就以为那是全天下都关注的热点;


某件事发生,你原本还没有太明确的态度,假如微博筛选出十条某一派的相似观点,一股脑地放在你的时间线上,你可能也就会被说服了。


说到底,我们已经来到了一个楚门的世界。


附:扎克伯格回应的英文全文


I want to share an update on the Cambridge Analytica situation -- including the steps we've already taken and our next steps to address this important issue.

We have a responsibility to protect your data, and if we can't then we don't deserve to serve you. I've been working to understand exactly what happened and how to make sure this doesn't happen again. The good news is that the most important actions to prevent this from happening again today we have already taken years ago. But we also made mistakes, there's more to do, and we need to step up and do it.


Here's a timeline of the events:


In 2007, we launched the Facebook Platform with the vision that more apps should be social. Your calendar should be able to show your friends' birthdays, your maps should show where your friends live, and your address book should show their pictures. To do this, we enabled people to log into apps and share who their friends were and some information about them.


In 2013, a Cambridge University researcher named Aleksandr Kogan created a personality quiz app. It was installed by around 300,000 people who shared their data as well as some of their friends' data. Given the way our platform worked at the time this meant Kogan was able to access tens of millions of their friends' data.


In 2014, to prevent abusive apps, we announced that we were changing the entire platform to dramatically limit the data apps could access. Most importantly, apps like Kogan's could no longer ask for data about a person's friends unless their friends had also authorized the app. We also required developers to get approval from us before they could request any sensitive data from people. These actions would prevent any app like Kogan's from being able to access so much data today.


In 2015, we learned from journalists at The Guardian that Kogan had shared data from his app with Cambridge Analytica. It is against our policies for developers to share data without people's consent, so we immediately banned Kogan's app from our platform, and demanded that Kogan and Cambridge Analytica formally certify that they had deleted all improperly acquired data. They provided these certifications.


Last week, we learned from The Guardian, The New York Times and Channel 4 that Cambridge Analytica may not have deleted the data as they had certified. We immediately banned them from using any of our services. Cambridge Analytica claims they have already deleted the data and has agreed to a forensic audit by a firm we hired to confirm this. We're also working with regulators as they investigate what happened.


This was a breach of trust between Kogan, Cambridge Analytica and Facebook. But it was also a breach of trust between Facebook and the people who share their data with us and expect us to protect it. We need to fix that.

In this case, we already took the most important steps a few years ago in 2014 to prevent bad actors from accessing people's information in this way. But there's more we need to do and I'll outline those steps here:


First, we will investigate all apps that had access to large amounts of information before we changed our platform to dramatically reduce data access in 2014, and we will conduct a full audit of any app with suspicious activity. We will ban any developer from our platform that does not agree to a thorough audit. And if we find developers that misused personally identifiable information, we will ban them and tell everyone affected by those apps. That includes people whose data Kogan misused here as well.


Second, we will restrict developers' data access even further to prevent other kinds of abuse. For example, we will remove developers' access to your data if you haven't used their app in 3 months. We will reduce the data you give an app when you sign in -- to only your name, profile photo, and email address. We'll require developers to not only get approval but also sign a contract in order to ask anyone for access to their posts or other private data. And we'll have more changes to share in the next few days.


Third, we want to make sure you understand which apps you've allowed to access your data. In the next month, we will show everyone a tool at the top of your News Feed with the apps you've used and an easy way to revoke those apps' permissions to your data. We already have a tool to do this in your privacy settings, and now we will put this tool at the top of your News Feed to make sure everyone sees it.


Beyond the steps we had already taken in 2014, I believe these are the next steps we must take to continue to secure our platform.


I started Facebook, and at the end of the day I'm responsible for what happens on our platform. I'm serious about doing what it takes to protect our community. While this specific issue involving Cambridge Analytica should no longer happen with new apps today, that doesn't change what happened in the past. We will learn from this experience to secure our platform further and make our community safer for everyone going forward.


I want to thank all of you who continue to believe in our mission and work to build this community together. I know it takes longer to fix all these issues than we'd like, but I promise you we'll work through this and build a better service over the long term.


网络法前哨 网络法前沿的侦察兵


感兴趣可长按关注前哨君


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存