查看原文
其他

Jane在硅谷|Facebook市值蒸发500亿美元,扎克伯格做错了什么

2018-03-24 刘泓君 财经杂志


戳下方,Jane把硅谷讲给你听



社交帝国Facebook正在失去信任。缺乏束缚的强大影响力,才是美国精英与民众的深层恐慌。


《财经》特派硅谷记者 刘泓君|文  宋玮|编辑

 刘泓君 李阳|配音 李阳|剪辑


马克·扎克伯格,一度在美国人眼里最值得信任的人,正与他的社交帝国Facebook一起陷入危机。一时间,“删除Facebook”成为Twitter的热门搜索词,短短几天内,Facebook股票自数据丑闻以来,最高时间段下跌10%,市值蒸发500亿美元,超过去年一年广告收入的总和。


事情起因于《纽约时报》和英国《观察者报》上周五晚上刊发的数据隐私丑闻。一家英国科研机构剑桥分析,曾通过一款性格测试软件,只经过了27万用户授权,却获取了5000万Facebook用户数据,并利用这些数据,针对性的对用户发送美国大选的精准营销。

Facebook在保护隐私方面的疏忽责无旁贷。与数据隐私问题一起出现的,还有通俄门、间谍事件以及可能被干预的美国大选。伴随着这场现实版《纸牌屋》的关键人物逐一浮出水面,人们发现自己成为政治操控下的“小白鼠”,愤怒的人群把责任归根于Facebook在保护个人隐私面前的“不作为”。


“我们有责任保护好用户的数据,如果我们做不到就不配服务你们。”扎克伯格在举国上下的声讨中沉默了5天,之后他开始在社交媒体与电视上深刻地道歉,并提出了一系列整改措施。


在各种第三方应用使用你的隐私数据习以为常时,民众何以愤怒?扎克伯格该为美国大选负责吗?如同爆料者克里斯托弗·怀利(Christopher Wylie)所说,这是一场文化战争。


现实版《纸牌屋》:

美国大选操控者浮出水面



去年9月,检查官Robert Mueller开始调查俄罗斯如何通过社交媒体传播虚假信息与假新闻影响美国大选,Facebook与Twitter成为重点调查对象。这次的焦点公司——剑桥分析,就是“通俄门”调查的重点审查对象,它曾经在2016年为特朗普团队服务。


克里斯托弗·怀利是这次事件的爆料人,他是一名28岁数据分析师,剑桥分析前雇员。在用户不知情的情况下,他所在的公司秘密分析了5000万Facebook用户的个人资料,这些人占据了美国三分之一的Facebook活跃用户,以及近四分之一的选民。


剑桥分析公司由共和党亿万富翁罗贝特·默瑟(Robert Mercer)投资1500万美元,史蒂夫·班农(Stephen Bannon)成为剑桥分析的副总裁,剑桥分析的取名就来自于班农的建议。对Facebook用户进行心理学操控引起了班农极大的兴趣,当时他是特朗普团队竞选团体的骨干成员——白宫首席政治顾问。


万事具备,只欠数据。这次Facebook数据“窃取者”的主角亚历山大·柯根(Aleksandr Kogan)出现了。


他是剑桥大学的心理学教授及数据科学家。他曾在2014年研发出一款性格测试APP,当用户下载该APP进行测试时,可以通过Facebook获取包括姓名、地址、年龄、性别、点赞等关键信息。27万人使用了这款APP,他也顺延获取了这些人的好友信息,获取用户数超过5000万。


随后,柯根将这些数据卖给了本文的主角公司——剑桥分析。柯根通过合法的方式从Facebook取得了数据,但是却没有按照条例用于“学术”,转而将数据卖给了第三方。Facebook称柯根并没有通知Facebook售卖这些数据用于商业行为,然而一旦数据流向第三方,也就脱离了Facebook的掌控范围。


当收集数据之后,剑桥分析会深度解析用户,喜欢什么害怕什么,甚至是为了改变你的思想,需要接触你多少次。除了数据分析、心理专家、战略研究,还有专人负责创意开发,有设计师、视频制作人、内容策划,发给特定用户,潜移默化中,让人改变自己的想法。并将这些政治广告、假新闻在Facebook的广告系统中投放。


尽管很多人说,电视、报纸这些大众传媒都会影响用户的心理,但是威利这样比喻这种不同:“和你站在广场上说话不同,这种方法更像是你在用户耳边私语,甚至为了改变想法,每个用户听到的内容都不一样。”这一切,都正在被用于政治选举中。


“我不是间谍。”由于柯根是俄罗斯裔美国人,他曾一直被《纽约时报》与《卫报》质疑是否是俄罗斯的间谍。


根据网上的一段秘密录像,剑桥分析CEO亚历山大·尼克斯曾多次秘密会见美国总统特朗普,并私下鼓吹如何用数据挖掘、假新闻和间谍等方式影响投票。人们并不知道他们的信息被获取了,这些信息包括他们Facebook的动态更新、喜好。


当尼克斯在国会上说,他从来没有使用过Facebook的数据。爆料者威利称:“我知道这是假的,因为当我在那里工作的时候,我们花了100万美元做这件事,剑桥分析正是由这些数据建立起来的。”


根据联邦委员会记录,特朗普竞选团队向剑桥分析支付超过620万美元。而这家公司一直自我鼓吹是特朗普胜利的根本原因。爆料人威利并不确定,这5000万数据是否改变了美国,是否影响了特朗普当选,右翼势力增加,这种作用极有可能被夸大。


对Facebook最大的争议来源于公司很早获知这件事后的却并没有采取积极的补救措施。2015年,Facebook就发现了柯根的违规,并要求柯根和剑桥分析公司删除这些数据。根据威利的描述,Facebook只是寄送了一份删除数据的通知书给他,希望他在删除数据,并在删除以后在表格中打钩,然后回寄表格。这种依靠第三方高度自律的删数据方式并未起到什么效果,况且当时,威利早已从剑桥分析离职。


“他们想在美国引起一场文化战争,剑桥分析成为这场文化战争中的武器库。”威利在给《纽约时报》的爆料中这样总结。


危机根源:被毁坏的美国民主



美国新闻网站inside.com创始人Jason Calacanies称:“这是Facebook生死攸关的时刻,因为这次事件毁坏了美国的民主。”


前亚马逊首席科学家,斯坦福大数据教授Andreas Weigend告诉我:“在德国,已经有很多伪科研机构打着科研的名义从Facebook获取了大量数据。Facebook并不是真正在关心用户,如果他真的关心,数据泄露之后它就会去解决。”


沉默5天之后,扎克伯格的确做出了最深刻的反省,发布了一系列解决措施:检查所有在政策更新以前的APP,审查可疑行为的应用;限制开发者的数据使用权限,比如在获取用户数据之后,如果用户在3个月内没有再次使用该App,Facebook会自动删除用户数据;重新设计产品,告诉用户,哪些APP正在获取你的隐私。他还在采访中透露,将把网络安全与内容审查团队从15000人扩大到20000人。


在我看来,扎克伯格不仅仅是道歉,而是从态度到行动,甚至资金人员投入上,在实行一套切实可行的方法。这能挽回人们的信任吗?


摧毁人们信任,是Facebook这次危机的原因。人们对Facebook的愤怒背后,是这种不断扩大的影响力缺乏束缚。


当Facebook等社交媒体的影响力已经扩大到政治领域,这引起了两党高度警觉。事实上,自从2016年美国中期选举以来,饱受“假新闻”困扰的Facebook一直麻烦不断。去年9月,Facebook曾向国会提交了俄罗斯购买平台广告的详细记录,披露识别500个与俄罗斯有关的非原创账户,这些账户在过去两年共购买了约10万美元的广告。


根源上,要理解这次的犯错成本有多大?我们来看一段本周三晚间CNN对扎克伯格的采访:


CNN:Facebook如何对抗扰乱选举的行为?


扎克伯格:不管是俄罗斯干涉选举还是假新闻,2016年我们没有做到应该做的,把这一系列问题放到重中之重。之后的法国大选,我们采用了一些人工智能工具,能够识别俄罗斯机器人账号,或者在选举之前将俄罗斯意图干涉选举的东西移出凭条。在2017年,奥拉巴马州参议员席位的特殊选举中,我们采用了新研发的人工智能工具,探测出来传播假新闻的账号,很多账号来自马其顿共和国。要让其他国家不能轻易干涉选举,不能轻易让坏人和民众传播假新闻,有很多复杂的工作要做。我们对此有责任,不仅是因为2018年美国中期选举,这是我们会关注的重大事件;还因为今年在印度、在巴西和世界各国都有大选。我们真的在致力于我们需要做的每一件事,保证在Facebook上这些选举的公正。”


CNN:你会特别关注现在正在扰乱美国选举的坏角色吗?


扎克伯格:我们看到现在有很多人在努力愈合分裂。分裂是我们在2016年选举中看到俄罗斯试图使用的主要方法。我们数据显示,他们大部分事情都不是直接去做。不是直接关于选举,而是更多关于分裂人民。所以他们成立了一个团体支持移民改革,又成立了另一个团体反对移民改革,只是为了让人们互相斗争。很多这些都是由假账号完成的,我们可以用人工智能工具更好地追踪这些账号,扫描和观察到正在发生什么。作为一个20亿人的社区,我不能保证我们什么都能发现。但是我能承诺的是,我们将会让这些反对者做这些事情尽可能困难。我认为对此我们已经做的比以前好得多。


这次的数据丑闻其实是从2016年以来,平台在面对政治争议时“不作为”的一次延续。这是一个极难权衡的政治、商业与个人权利的平衡。“最大的问题是,扎克伯格能不能胜任这个角色。”Andreas Weigend这样告诉我。

美国联邦委员会曾经在通俄门事件之后,发起修改“政治广告免责”的投票:即美国人需要看到这些政治广告背后是谁在购买。如何监管以防止有心人的滥用社交媒体,如何监管社交媒体的不作为,显得紧迫而重要。


科技反思:不断升级的技术价值观



硅谷是一个技术驱动创新的发源地,我与很多世界顶级的技术人才交流,发现在很多技术创业者眼中,大家严守“技术中立”原则。这种“技术中立”通常表现是平台该不该去干预在这个体系中生长的公司与个体。


不仅仅是Facebook,百度上的莆田系虚假医疗广告,视频网站上用户上传的盗版视频,今日头条上低俗直播等,风波不断的Facebook假新闻与通俄门事件,都在反复出现同一个问题——技术是不是中立的,平台如何制定规则。


这种规则制定与社会责任的承担,往往体现在与现有的商业利益的冲突,比如是否牺牲广告收入砍掉虚假医疗广告,政治广告或者ICO广告;是否增加足够多的人力与技术研发,追踪审查第三方应用侵犯用户隐私行为;是否砍掉低俗新闻内容以牺牲活跃度。这些商业利益的冲突,很难完全依靠企业的自觉性完成,这时监管政策与舆论监督显得尤其重要。


谷歌科学家李飞飞曾经说:“机器的价值观,就是人的价值观。”扎克伯格,这家社交帝国的掌舵人,是影响力背后的规则制定者。如果说商业利益可以通过正确的监管完成,更难的是,这个世界并非“非黑即白”,存在着多元化的价值观。


Facebook内部有一条红线,任何员工不得去查用户隐私,如果触动这条红线,直接开除。若没有法律文件,向当局提交或者外界披露用户信息,这也是一种泄露隐私的行为。而在国会对“通俄门”的调查中,是否审理政治账号中,这是一种非常微妙的平衡。


如何确定索要文件不是出于某种政治目的,如何确定这些文件是用于内部斗争还是公平正义。而在Facebook使用机器识别“假新闻”账号时,如果识别错误,是不是就会滑向言论审查的另一端。在这个把言论自由写进宪法的国家,稍有不慎,可能就滑向过度监管、干预言论自由的深渊。


制定规则与价值判断永远不是一个简单的事情。这让我想起了一个与扎克伯格同龄的创业者——Pavel Durov。年少时,他曾与扎克伯格同一时期创建了俄罗斯最大的社交网络VKontakte,拒绝在“俄罗斯政变”期间干涉用户言论,最终公司被政府、军方以及情报高官组成的政治力量控制,在25岁时成为警方追捕的对象。早在2014年,他是世界上第一个公开审查并删除亲伊斯兰王国账号与社群网站,而Facebook、Twitter在2015-2016年才开始行动。


尽管Pavel Durov最终丢失了对公司的控制权,但是他在“有所为”与“有所不为”之间,展示出了超出他年龄的责任感与初心。之后,他做了最大的可匿名聊天的社交应用Telegram,成为新一代的社交新星。这些少年天才们曾经在坚持做正确的事,但当事情脱离非黑即白,越来越复杂时,让他与扎克伯格换位,可能也未必能做的更好。


“你想到的所有错误我都犯过。”扎克伯格承认自己是一个不停犯错不停修正的创业者,但当这种影响力举足轻重时,每一次错误的代价也越来越沉重。

往期精华:


首个华人学生体验奇点大学:从拜科学教到人类永生

体验亚马逊无人店,中美无人零售差距有多远?

现在的区块链,是萌芽时期的互联网吗          

无人驾驶是噱头吗?盘点2年到50年的实现路径

看完CES这七大趋势,我只能回家练葛优躺了

对话比特币布道者:95%的ICO项目不会有回报

这是扎克伯格梦想中的学校,改变了3万多孩子的命运

冒险家马斯克的真实与脆弱

比特币上涨之谜与战争、政治动荡、毒品交易




Jane在硅谷

那些看起来奇怪的人与思想,或许正在改变世界。


我是刘泓君(Jane),《财经》杂志驻硅谷记者。我一直在思考,是什么让这片土地成为创新之源,我将记录自己在这里的所见所思,也传递那些聪明大脑的思维方式,还原一个新鲜、有趣、复杂的硅谷。


更新时间:周六/日(两周一期)

更新地址:「财经杂志」公众号、「财经」APP




责编  |  黄姝静  shujinghuang@caijing.com.cn

◤本文为《财经》杂志原创文章,未经授权不得转载或建立镜像。如需转载,请在文末留言申请并获取授权。◢

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存