好奇心日报

好奇驱动你的世界

打开
商业
  • Top 15
  • 隐私
  • 选举
  • 透明
  • Facebook
  • 扎克伯格

扎克伯格发布年度总结:对 Facebook 取得的进展感到骄傲

然而问题仍然没有解决。

2018 年即将结束,扎克伯格在个人的 Facebook 账号上发布了对公司的“年终总结”。虽然在过去的一年里 Facebook 因为操纵选举、泄露信息、不公平竞争、未能控制仇恨言论、不配合调查等等的各种麻烦耗没了股价的 24%,但扎克伯格还是表示,“为我们所取得的进展感到骄傲。”

上周,BuzzFeed 对今年 Facebook 爆出的所有负面新闻做了个盘点,发现事发频率高达每 12 天一起。12 月 29 日,扎克伯格在年终总结中就其中最重要的几个问题做出了解释,叙述了 Facebook 在过去一年里所做的改变。

首先是一切麻烦的源头:干扰选举。扎克伯格写道,为了防止选举受到干扰,Facebook 改进了识别虚假账户的系统,并协调了信息宣传活动。“现在 Facebook 每天都要清除数百万个虚假账户。”

另外,Facebook 开始与世界各国的事实核查人员合作,并为广告透明度制定了新的标准。“现在任何人都可以看到广告商投放给不同受众的所有广告。”此外,Facebook 还成立了独立的选举研究委员会,研究隐藏的威胁和应对威胁的办法。

其次,为了阻止有害内容的传播,Facebook 建立了能够自动识别和删除与恐怖主义、仇恨言论有关内容的 AI 系统,能够在这些内容被用户看到之前采取行动。“这些系统无需用户举报就可删除 99% 与恐怖主义有关的内容。”

扎克伯格称 Facebook 已经改进了 News Feed,以促进来自可信来源的新闻传播。“我们正在开发新的系统来自动减少边缘内容的传播,包括耸人听闻和错误的信息。”为了处理 AI 无法判断的复杂案件,Facebook 将内容审查团队的规模扩大了两倍,并建立了上诉系统。

再次,为了保护用户隐私,Facebook 减少了应用程序可以访问的信息,并以新的《通用数据保护条例》(GDPR)为标准进行了改造,构建了 Clear History 工具,使人们对自己的浏览历史有更多控制权,并允许用户彻底清除记录。

本月,《纽约时报》称,Facebook 跟多家公司有多年的数据交易关系,它还为一些大公司提供了用户隐私访问规则以外的更多接口。涉及交易的大公司有苹果、微软、亚马逊、Netflix 等。遭到 Facebook 否认。

最后,是关于“提高人们的幸福度”的问题。扎克伯格称,经过研究,Facebook 发现当人们主动使用互联网与他人互动时,可以获得更大的幸福感、更健康的身体、更紧密的联系等等。但当人们被动地使用互联网消费内容时,这与那些积极的影响并没有关联。“基于这项研究,我们改变了我们的服务,鼓励有意义的社交互动,而不是被动消费。”扎克伯格称。

其中一项改变是,Facebook 将流媒体视频的每日观看时间减少了 5000 万个小时。扎克伯格称,总的来说,这些变化在短期内使得 Facebook 的用户参与度和收入都有所减少,但他们相信这将帮助公司在长期内建立更强大的社区和业务。

扎克伯格在这篇长文中总结称:与 2016、2017 年相比,Facebook 现在已经是个截然不同的公司。“我们已经从根本上改变了我们的 DNA,更多专注于我们的所有服务中预防伤害,我们已经系统性地将我们公司的很大一部分转移到预防伤害上。我们现在有 3 万多人从事安全工作,每年在安全方面的投入达数十亿美元。”

但同时,他也表示,“这并不意味着我们能抓住所有坏人或发现所有不好的内容,也不意味着在我们改进系统之前,人们不会找到更多过去所犯下错误的例子。其中有些问题,如选举干扰或有害言论,永远不能彻底解决。”

本月 27 日,《纽约时报》发表文章,描述了 Facebook 监管平台上言论的方式:Facebook 在全球范围内有 7500 多名人工管理员,他们利用 1400 多页的规则手册,判断网站上的 20 亿用户可以说什么、不能说什么。

规则手册上基本是幻灯片内容,不够系统,并且还含有过时的或是不准确的信息。加之管理员每天审查上千条帖子,需要迅速做出判断,因此错误地“封杀”或是“放行”时有发生。这些管理员有时需要依靠 Google 翻译,而他们只有几秒钟的时间去回忆大量规则,并将规则应用于屏幕上数以百计的帖子。

Facebook 全球政策管理负责人莫妮卡·比科特(Monica Bickert)表示,公司的主要目的是防止给用户造成伤害,并在很大程度上取得了成功。但她也指出,完美是不可能的。

比科特说:“我们每天都有数十亿条帖子,我们正在利用技术系统发现越来越多的潜在违规行为。在这样的规模下,即使准确率达到 99%,也依然会犯许多错误。”

仇恨言论一直是 Facebook 最头疼的问题之一。今年,Facebook 首次发布了《社区标准实施报告》(Community Standards Enforcement Report)并持续更新,向外界披露了对不合规帖子和虚假账户的处置情况。报告显示,今年三个季度,Facebook 一共对 790 万个涉及仇恨内容的帖子进行了处理。

这个数字相比去年虽然有大幅上涨,但仍然是 Facebook 清除的所有类别中数目最小的一个。该团队清除的与色情、暴力、恐怖主义等内容相关的帖子数量远多于此。一季度报告发布时,Facebook 称,自主检测的内容只占到了所有被标记内容的 38%,有超过 60% 的内容需要靠用户举报来发现。

这其中的原因,一部分是因为“Facebook 的人工智能系统目前仍然难以辨别言论中的仇恨情绪。”Facebook 产品管理副总裁 Guy Rosen 说。另一部分原因是 Facebook 上的仇恨言论本身可能并不那么显而易见。

今年 4 月,Facebook 上的一些不实信息助长了斯里兰卡佛教徒和穆斯林之间的冲突。罪魁祸首其实往往是一些带有煽动性质的谣言,起初可能和仇恨与偏见并无瓜葛。对于 Facebook 安全团队来说,类似的问题也加重了审核的难度。

今年 9 月,为了对抗隐蔽的仇恨言论,Facebook 上线了能看得懂“表情包”的新 AI 系统,一天可以审查十亿张图片。

扎克伯格的年终总结已成惯例,今年 1 月,扎克伯格在 2017 年的总结中说,2018 年的 Facebook 会有点像 2009 年金融危机刚过,面临着一系列有待解决的问题。对此他说首先要确保 Facebook 不会受到外国平台的干预、打击带有煽动、仇恨情绪的言论,以给用户营造一个舒适的社交环境。

当时的扎克伯格表示,Facebook 不会 “完全清除这些信息滥用和错误”,但已经组织了一队专家,来解决现在面临的历史、文明、政治哲学、媒体、政府和技术方面的问题。

一年过去了。虽然扎克伯格表示对公司感到“骄傲”,但 Facebook 一年前遇上的麻烦却仍然没有解决。 

题图/visualhunt

  • Top 15
  • 隐私
  • 选举
  • 透明
  • Facebook
  • 扎克伯格