扎克伯格承认 Facebook 肩负新闻责任,但算法真的能成为新的“守门人”吗?
自大选尘埃落定,Facebook 成了众矢之的,这个全球最大社交网络上泛滥的假新闻被认为帮助特朗普入主白宫。
Facebook 一开始试图淡化人们对于这一问题的关注,扎克伯格也说 Facebook 影响大选是个“相当疯狂的想法”。他认为社交媒体并非媒体,只是个平台,因此 Facebook 不应该成为“真相的仲裁者”。
最近在 Facebook Live 直播活动中,扎克伯格再次讲到了 Facebook 的定位,但这番表态与此前的口径明显不同:
Facebook是一种新平台,它不是传统科技公司,也不是传统媒体公司。你知道,我们负责开发技术,我们对技术的使用肩负着一份责任。人们在平台上看到的新闻不是我们写的,但与此同时,我们也知道自己的责任不仅限于传播新闻,我们是公共话语的重要组成部分。
换句话说,他承认 Facebook 需要像媒体一样承担信息过滤的责任。
Facebook上周表示将通过一系列尝试打击假新闻。他们希望简化假新闻的上报流程,由事实验证组织来标记假新闻,团队还将收回垃圾信息传播者获得的收入分成,也更加密切地关注其他相关信号。
作为世界最大的社交网络平台,Facebook 在全球拥有 18 亿用户。皮尤研究中心发布的数据显示,美国使用互联网的成年人中有 79% 都是 Facebook 的活跃用户。约有半数美国成年人表示会通过 Facebook 获得新闻。
至少从大众传播看,Facebook 的确承担了媒体的功用,这意味着它需要对信息的真伪进行判断。
传统媒体的编辑作为“守门人”,对信息进行筛选和过滤,他们决定了受众看什么。所谓拟态环境,就是说这群传统的精英记者编辑,通过自己的信息组合,并在新闻操守的约束下,影响并制衡着大众的世界观。
但 Facebook 确实不同于一般媒体, Facebook “做”新闻的目的只是像黏住用户,而要达到这个目的,Facebook 会利用算法喂给用户他们喜欢看的东西,这些东西是根据用户之前的行为推荐的。
矛盾就出在这里:你喜欢看的东西,未必是真的。
互联网的洪水正在卷走传统的守门人,原本虽然有缺陷但平衡的人工判断被取代了,新的守门人变成了一套由程序员编写的算法,这套算法可以把异己的言论挡在你的视线之外,给你呈现一个你内心偏爱但却虚幻的世界,而新守门人的行为准则,是在一个商业话语体系下的。
这才是最可怕的事。