扎克伯格承认 Facebook 肩负新闻责任,但算法真的能成为新的“守门人”吗?

爱范儿  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

自大选尘埃落定,Facebook 成了众矢之的,这个全球最大社交网络上泛滥的假新闻被认为帮助特朗普入主白宫。

Facebook 一开始试图淡化人们对于这一问题的关注,扎克伯格也说 Facebook 影响大选是个“相当疯狂的想法”。他认为社交媒体并非媒体,只是个平台,因此 Facebook 不应该成为“真相的仲裁者”。

最近在 Facebook Live 直播活动中,扎克伯格再次讲到了 Facebook 的定位,但这番表态与此前的口径明显不同:

Facebook是一种新平台,它不是传统科技公司,也不是传统媒体公司。你知道,我们负责开发技术,我们对技术的使用肩负着一份责任。人们在平台上看到的新闻不是我们写的,但与此同时,我们也知道自己的责任不仅限于传播新闻,我们是公共话语的重要组成部分。

换句话说,他承认 Facebook 需要像媒体一样承担信息过滤的责任。

Facebook上周表示将通过一系列尝试打击假新闻。他们希望简化假新闻的上报流程,由事实验证组织来标记假新闻,团队还将收回垃圾信息传播者获得的收入分成,也更加密切地关注其他相关信号。

作为世界最大的社交网络平台,Facebook 在全球拥有 18 亿用户。皮尤研究中心发布的数据显示,美国使用互联网的成年人中有 79% 都是 Facebook 的活跃用户。约有半数美国成年人表示会通过 Facebook 获得新闻。

至少从大众传播看,Facebook 的确承担了媒体的功用,这意味着它需要对信息的真伪进行判断。

传统媒体的编辑作为“守门人”,对信息进行筛选和过滤,他们决定了受众看什么。所谓拟态环境,就是说这群传统的精英记者编辑,通过自己的信息组合,并在新闻操守的约束下,影响并制衡着大众的世界观。

但 Facebook 确实不同于一般媒体, Facebook “做”新闻的目的只是像黏住用户,而要达到这个目的,Facebook 会利用算法喂给用户他们喜欢看的东西,这些东西是根据用户之前的行为推荐的。

矛盾就出在这里:你喜欢看的东西,未必是真的。

互联网的洪水正在卷走传统的守门人,原本虽然有缺陷但平衡的人工判断被取代了,新的守门人变成了一套由程序员编写的算法,这套算法可以把异己的言论挡在你的视线之外,给你呈现一个你内心偏爱但却虚幻的世界,而新守门人的行为准则,是在一个商业话语体系下的。

这才是最可怕的事。

随意打赏

facebook ceo扎克伯格facebook创始人扎克伯格facebook马克扎克伯格扎克伯格facebook主页扎克伯格创立facebook扎克伯格的facebook扎克伯格与facebook扎克伯格谈facebookfacebook 扎克伯格facebook扎克伯格
提交建议
微信扫一扫,分享给好友吧。