Facebook、微软、Twitter 和 YouTube 将联合删除“恐怖主义”内容
美国当地时间 12 月 5 日,Facebook、微软、Twitter 和 YouTube 宣布将合作推出一项计划,旨在限制线上恐怖主义内容的传播。这四家公司表示,他们会一起开发一个共享行业数据库,可以用来识别出和恐怖主义相关的内容,同时也会在各自服务上删除一些“极端恐怖的图片和视频”。
Facebook 公司发布了一份声明,其中描述了这个数据库的工作原理情况,他们将使用独特的数字指纹技术,将那些和恐怖主义相关的内容标出,之后再利用强大的计算机系统和算法进行识别,并更简单、高效地删除。
在处理图片内容上,Facebook 公司透露也会使用类似的“打标签”的技术,而且除了打击恐怖主义之外,一些儿童色情图片也会被删除。简单的说,Facebook 平台会给一些特殊内容配上一个独特的“识别器”,如果有人复制、传播了这些内容文件,就会被分析、监测,他们也会生成相同的哈希值。类似的系统同样被用于识别一些受版权保护的文件内容。
不过,本次新项目的不同之处在于,当恐怖主义图像和视频被识别出来之后,并不会立刻被自动删除,而是要先和数据库内的相关内容进行匹配、比对。事实上,个别公司也会按照自己的内容政策,以及他们如何选择定义恐怖内容的标准,来决定在什么时间、以什么方式删除这些内容。
Facebook 公司之前推出了内容审查工具,也因此受到了不少用户的抨击,而这回推出删除“恐怖主义内容”的服务,多少缓解了部分用户的激进情绪。但是,由于他们并不能对相关内容迅速做出处理反应,也意味着可能有部分恐怖主义的图像和视频会在删除之前,已经被广泛传播了。
Facebook 公司特别指出,个人信息不会被共享,但他们并没有说这些信息不会被收集。换句话说,和其他信息一样,政府部门依然可以通过法律手段向 Facebook 获得内容来源的账户信息。当然,Facebook 公司也有自己的判断来处理政府部门的数据请求,也有权选择在什么时间披露政府部门的相关请求。
一旦这四家公司发现了恐怖主义图像和视频,他们就会给相关内容打上标签,同时加入到共享资源内,新设立的数据库也将会被不断更新。Facebook 公司表示,目前四家公司的合作只是一个开始,如果这个数据库内容足够庞大,未来也会提供给其他公司使用。在 Facebook 公司发布的一份声明中,他们表示:
我们希望利用这种合作带来更大的效率,也将继续履行公司的内容政策,帮助遏制日益紧迫的全球线上恐怖主义内容。
最近,Facebook 公司一直受困于美国总统大选的社交媒体假新闻风波之中。现在,通过与其他社交网络公司合作,也让他们朝内容安全方向迈进了一步,至少为今后解决内容正确性的问题上铺平了道路。