Facebook被指靠PPT审核内容:信息过时、不准确
Facebook门洛帕克总部
北京时间12月28日消息,数千名Facebook内容审核员依靠一系列PPT幻灯片来决定哪些内容可以出现在公司网站上。这些幻灯片包含了不准确而且过时的信息。
Facebook员工提供的1400多页规则手册文件显示,Facebook就利用这些幻灯片来指导逾7500名审核员的内容审核。其中一张幻灯片错误地把一名波斯尼亚战犯描述成了依旧在逃的逃犯,另外一张幻灯片则错误地描述了一项印度法律。
制定这些指导方针的Facebook员工大多是年轻工程师和律师,他们设法把高度复杂的问题提炼成简单的“对或错”规则。Facebook把大量逐条审核的工作外包给了其他公司,这些公司的大部分员工在内容审核上不够熟练,许多招募自客服中心。
Facebook界定内容是否支持恐怖主义的标准
Facebook审核员有时依靠谷歌翻译阅读用户的帖子,只有数秒钟时间回忆无数条规则,然后把回忆起的审核规则应用到每天屏幕上一闪而过的数百条帖子中。
审核员们也对一些指导规则感到困惑。他们认为,一些规则并不合理,有时会要求他们保留可能会引发暴力的帖子。“如果不采取行动,你会感觉就像杀了人一样,”一位匿名审核员称。
Facebook的指导方针并不像一本监管全球政治的手册,里面包含了许多无条理的PPT幻灯片和Excel电子表格,带有官僚色彩的标题,例如“可相信的暴力:执行标准”等。
Facebook称,这些文件只用于培训目的。但是审核员称,他们把这些文件用作日常参考资料。
Facebook对表情符号含义的分类
Facebook高管称,他们在努力工作以删除平台上的危险帖子。“纠正人们的言论不是我们的责任,但是我们确实想在平台上执行我们的社区标准,”Facebook信息流高级工程师萨拉·苏(Sara Su)表示,“当你身处我们的社区时,我们想要确保我们能够在言论自由和安全之间找到平衡。
Facebook全球政策管理主管莫妮卡·比科特(Monika Bickert)表示,公司的主要目标是预防伤害,这在很大程度上已经取得了成功。但她表示,不可能做到完美。
“我们网站上每天有数十亿条帖子,我们利用技术系统识别越来越多的潜在违规行为,”比科特表示,“按照这种规模计算,即便是我们能够做到99%的准确,仍会犯下许多错误。”
【来源:凤凰网 科技 】