好奇心日报

好奇驱动你的世界

打开
智能
  • Facebook

屏蔽自己的负面新闻,Facebook 说这是个误会

公司参与言论审查,很多地区也已经习惯了

周五,Facebook 官方博客撰文称发现一个巨大的安全漏洞,攻击者可以利用名为“View as” 的账户预览功能,窃取用户账号的登录令牌,最终不用破解密码,直接获得账号的使用权。Facebook 称该漏洞影响全球 500 万个账号。

随后这件事经由各大媒体报道,别忘了 Facebook 自己也是内容平台,媒体机构账号也在 Facebook 上发布和传播 Facebook 的这条新闻。

美联社和卫报也做了报道,但部分网友发现他们无法转发这两家媒体报道 Facebook 的文章链接到自己的信息流。

点击转发就会弹窗,上面写着:“我们的安全系统检测到有多人发布该内容,这可能意味着垃圾信息。请选择发布其他内容。”

这个理由好像说得过去。经过了之前泄露数据和假新闻的丑闻,Facebook 加强了自动内容审查系统的强度,过多人转发有可能意味着假新闻或者煽动性内容。

但用户还是提出质疑,被屏蔽的两家媒体不是八卦小报,而且他们的其他新闻链接都可以正常发布,偏偏指向 Facebook 的新闻被定义为垃圾消息。

随着事情的发酵,有人把事情放到 Twitter 上抱怨,周五当天 Facebook 通过其官方 Twitter 回应,说“现在可以正常分享这篇文章了,抱歉给大家带来不便。”

Facebook 的动机值得怀疑,但关于此事 Facebook 并未在其他地方包括他们自己平台上做回应,大概真的只是一次审核故障,一次误会。

可以肯定的是 Facebook 在日渐加强自我审查。今年 4 月他们发布一份 8000 字的审核指南,将不可接受的帖子和内容分为六类:“暴力和犯罪行为”,“安全”,“争议内容”,“信誉与真实性”,“尊重知识产权”和“内容相关请求”。

增加人类审核员的同时,Facebook 也承诺用算法清理不当言论,Facebook 9 月还推出一款名为 Rosetta 的新型人工智能(AI)系统,可用于检测图片和视频帧(video frame)中的仇恨性言论。

今年一季度,Facebook 一共删除了 2888.37 万条包含色情暴力、恐怖主义和仇恨言论的帖子,同时关闭和删除了大约 5.83 亿个虚假账户。

当然和微博等等国内平台比,Facebook 的内容审查要合理多了。


题图来自 Pixabay

  • Facebook