华尔街日报《脸书文件》:知错却不改的Facebook







【编者按】

曾发布深度报导揭露WeWork内部企业文化的《华尔街日报》近日刊登了针对Facebook(又称脸书)的长篇深度报导。报导称,Facebook公司内部、包括首席执行官明知其平台存在种种缺陷,并造成伤害,但公司并未解决这些问题。自2016年以来,Facebook屡遭舆论风波与公众和监管机构的审视,Facebook的研究人员也一次又一次地发现了该平台的不良影响。尽管Facebook在国会听证会上接受了议员的咄咄逼问,公司也多次承诺会做出改变,但今天的Facebook仍然存在许多问题。






Facebook存在“名人白名单”

Facebook的创始人及CEO马克-扎克伯格曾表示,Facebook允许其用户与政治、文化和新闻界的精英们平等对话,其标准适用于所有人。但在私下里,该公司已经建立了一个系统,又称“白名单”,使知名用户免于遵守其部分或全部规则,这包括明星和政治家等。该计划被称为 "交叉检查 "或 "XCheck",旨在作为知名账户的质量控制措施。文件显示,XCheck使数以百万计的“白名单”贵宾免受该公司正常执法的影响。许多人滥用这一特权,发布包括骚扰和煽动暴力在内的内容,而这本来会导致处罚。

2019年,Facebook允许国际足球明星内马尔发布一名女性的裸体照片,这名女性曾指控他强奸,后来这些内容被Facebook删除。



Facebook允许国际足球明星内马尔发布一名女性的裸体照片

报导称,被列入白名单的账户分享了Facebook事实检查人员认为是错误的煽动性主张,包括疫苗是致命的,希拉里克林顿掩盖了“恋童癖团伙”,以及时任总统川普称所有寻求庇护的难民为“动物”。

2019年。Facebook对白名单做法进行了内部审查,发现对这些用户的偏袒普遍但“不能公开辩解”。"我们实际上没有像我们公开说的那样做,"审查称。它称该公司的行为背叛了人们的信任,并补充说:“与我们平台的其他人不同,这些人可以违反我们的规则而不用承担任何后果”。

报导显示,尽管试图对其进行控制,但XCheck在2020年发展到包括至少580万用户。Facebook还误导了公众和自己的监督委员会,该机构是Facebook为确保公司执行系统的问责制而设立的。今年6月,Facebook以书面形式告诉监督委员会,其针对高知名度用户的系统被用于“少量的决策”。

Facebook表示,对XCheck的批评是公平的,它的设计初衷是好的,而且该公司正在努力修复它。




Facebook知道Instagram的有害性

Facebook旗下的Instagram内部研究人员多年来一直在研究这款程序对年轻用户的影响。该公司一再发现,Instagram对其中相当大比例的用户是有害的,最明显的是少女,比其他社交媒体平台更有害。

在公开场合,Facebook一直在淡化该应用程序的负面影响。Facebook没有公开其研究,也没有向要求提供研究的学者或立法者提供。公司表示,负面影响并不普遍,一些有害的方面不容易得到解决。






“32%的少女说,当她们对自己的身材感到自卑时,Instagram让她们感觉更糟,”研究人员在去年3月发布在Facebook内部的PPT中说,“Instagram上的比较可以改变年轻女性对自己的看法。青少年将焦虑和抑郁率的增加归咎于Instagram。”在报告有自杀念头的青少年中,13%的英国用户和6%的美国用户将自杀的欲望归咎于Instagram。

对于Facebook来说,扩大年轻用户群对该公司的利润至关重要,它不希望破坏年轻用户在平台上的参与度。超过40%的Instagram用户年龄在22岁及以下,美国每天约有2200万青少年登录Instagram,而登录Facebook的青少年只有500万,Facebook的年轻用户十年来一直在萎缩。平均而言,美国的青少年在Instagram上花费的时间比在Facebook上多50%。

报告称,Instagram一些核心功能被认为对青少年有害。去年内部研究指出,Instagram追求完美照片的倾向造成了压力,一些展示健美身材的广告会使青少年饮食失调或者抑郁。它警告说,由算法策划的照片和视频的“探索”页面会向用户展示潜在有害的内容。








Facebook试图打造一个更和谐的平台,但反而充满争吵




2018年,为了避免用户参与度进一步下降,Facebook改变了算法。扎克伯格宣称,他的目的是加强用户之间的联系,并通过促进朋友和家人之间的互动来提高他们的幸福感。但在公司内部,员工们警告说,这种变化正在产生相反的效果。它正在使Facebook和用户更加愤怒。






报导称,为了提高参与度,Facebook会向用户推荐具有争议性的内容,这些内容通常与新闻时事有关,通过煽动人们的情绪来获得大量转发。争议性增强了用户的讨论度与参与度,也为新闻网站带来了流量。

"我们的算法对重要的公共内容,如政治和新闻,产生了不健康的副作用。"一个数据科学家团队在一份备忘录中写道。新算法使平台上愤怒的声音更加响亮。研究人员在内部备忘录中指出:“错误信息、毒害和暴力内容在转发的内容中极为普遍。”

欧洲的一些政党告诉Facebook,该算法使他们改变了政策立场,旨在在平台上获得更多共鸣。“许多政党担心对民主的长期影响,”Facebook的一份内部报告写道。

Facebook的数据科学家们提出了一些调整措施,但扎克伯格抵制了一些拟议的修正措施,因为他担心这些措施可能会损害公司的其他目标:提高用户参与度。

Facebook在回应中说,任何算法都可能促进令人反感或有害的内容,该公司正在尽最大努力缓解这一问题。



Facebook员工报告贩毒集团和人口贩子,公司反应薄弱




《华尔街日报》查阅的数十份Facebook文件显示,员工对其平台在一些发展中国家的使用情况发出了警告。

员工们指出,中东的人口贩子利用该网站引诱妇女进入严酷的就业环境。他们警告说,埃塞俄比亚的武装团体利用平台煽动针对少数民族的暴力。Facebook员工还向上级发出了关于器官买卖或色情制品的警报。







报导称,在许多情况下,公司的回应不充分或根本没有回应。Facebook发言人表示,该公司已经部署了全球团队、当地合作伙伴和第三方事实核查人员,以确保用户安全。




Facebook充斥反疫苗内容







扎克伯格认为,他的公司是世界上的一股社会公益力量,因此,Facebook在推广新冠疫苗方面倾注了大量心血。但事与愿违,内部备忘录显示,活动人士在Facebook发布反疫苗内容,对疫情的危险性和新冠疫苗的安全性散布疑问。《华尔街日报》查阅的内部文件显示,一个多月来,Facebook的研究人员警告说,与疫苗有关的帖子(通常是Facebook试图推广的那种事实性帖子)的评论中充满了反疫苗的言论,旨在破坏他们的信息。这些评论包括个人反对意见和驳斥假话和阴谋论。

推荐阅读