在所谓智能推荐下,互联网用户正在被算法“圈养”

钛媒体  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

在所谓智能推荐下,互联网用户正在被算法“圈养”

图片来源:视觉中国


一位教授在给政府干部培训班上课时,提到了今日头条。课间休息的时候,一位县长私下跟教授反映:“今日头条内容真的很有问题,整天给我推送一些娱乐八卦、香艳美女的信息”。教授哭笑不得,只能建议他卸载一段时间再用,情况也许会好点。

这位县长不知道的是,他之所以每天会收到美女八卦、香艳狗血的推送信息,是因为他的阅读痕迹已经被记录“在案”。互联网公司不过是利用算法,投其所好,让他沉浸在这样一个定制化的信息圈子里罢了。

在太平洋的另一面,Facebook早在2012年就曾经联合多所美国大学,展开过一项有关“信息圈养”的测试。他们筛选了70万不知情的用户,将其分为两组:其中一组删除了首页信息中的正面情绪的推送,而另外一组则删除了负面情绪的内容。一周后他们发现,那些经常接受负面信息的用户开始变得消沉,并且自己也会尝试发布一些消极信息。另外一组用户的情况则相反,他们开始变得越来越乐观向上,他们发布的信息也变得很正能量。

这两件事情看起来好似不同,但都集中反映了一个事实:在互联网公司所谓智能推荐的作用下,越来越多的用户被“圈养”起来。

表面上,用户获取信息的渠道和数量都在极大的拓展,但实际上却陷入了一个被“娱乐”,甚至被“愚弄”的境地,进入了一个“数字娱民时代”或者“数字愚民时代”。

互联网巨头掌握了近乎控制人心的能力。


我们每天接受的互联网信息铺天盖地,看上去比以往更开放和自由。但是与此同时,互联网也提供了最好的自我隔绝工具。

一方面,你可以毫无阻力的选择自己喜欢的信息,将他们放在自己可以看见的地方,将不喜欢的东西移出视野;另一方面,一大批互联网公司打着个性化、智能推送、千人千面的科技旗号,开始圈养甚至控制用户。

用户所接触的很大一部分网站和APP,都会在后台计算他们浏览行为,描绘用户画像,然后智能推送以“取悦”用户。以今日头条为首的各种新闻APP,甚至淘宝、知乎、微信等,都有着精密的用户偏好算法,全天候向用户推送他们感兴趣的内容,让人们圈养在自己喜好的世界里。

今日头条率先洞察出了人性的小秘密:人们在接受自己所关心的内容时心理门槛是最低的,而智能推荐能够大量降低用户的阅读成本,包括筛选成本和时间成本。今日头条的口号“你关心的,才是头条”已经非常明确的告诉大家,他们就是为用户推送用户经常浏览的内容。

同样,你一打开淘宝,就会推送给你喜爱的商品,你打开网络电视盒,当你看完之后会发现他们又为你推荐了极其类似的其他节目。连百度搜出来的东西都开始变得具有偏向性了。

这是一个充满了个性化、定制化的互联网时代,用户似乎已经无法摆脱“体贴入微”的服务商对我们的“特殊关照”,形成一个狭隘的虚拟世界。

在这个世界里,用户频繁为自己喜欢的信息点赞、为自己欣赏的内容买单,一次次为APP完成流量的KPI。在此基础上,互联网公司再通过社交化的方式,将喜好相同的用户聚集在一定的社群。

用户越来越多地获得“各种”消息,并在志趣相同的社群里表达自己的观点。并且,他们的思想在这里得到不断的深化,所追求的东西也越来越强烈和极端。

可怕的是,用户在被圈养的同时,还表现出越来越心甘情愿地被“圈养”,他们觉得表达的观点就是发自内心的。进一步所带来的副作用是,为了协同社群的思想,他们开始排斥不同思想,越来越容不下不一样的声音。

这种情形,就犹如用户进入了一条“信息隧道”:一眼望过去,看到的全都是感兴趣的、赞同的和高度相似的内容与观点,隧道里没有嘈杂的声音。这样的结果是,在信息爆炸的时代,人们反而变得更加闭塞和极端,人与人间的包容性变得越来越差。


APP们尽管每天都在推送海量的信息给用户,但是信息并不等于知识。

信息,在数量上大于知识,但是质量上却远弱于知识。圈养的用户通过信息形成所谓的看法或观点,但是这种看法由于没有知识作为基础,是极为不靠谱的。

美国康乃狄克州大学哲学教授迈克·林奇 (Michael P. Lynch)在《我们的互联网》一书里指出,对事物的看法和知识是不同的,“傻瓜也能有看法,但有知识的人却不多”。

迈克·林奇在《纽约时报》上发表的《(谷歌)搜索即相信》一文指出,互联网便利使得大多数人成为“接受型的知识者”(Receptive Knower)。但接受型知识本身并不充分,互联网不能为我们提供对网络知识(或任何其他知识)的“理解力”。非但不能提供理解能力,而且互联网还可能阻碍理解能力的发展。

在这种情况下,用户认知就像一座孤岛部落,孤岛的面积取决于他们的视野。由于人类天生迷恋舒适区的本能,被互联网公司智能推荐圈养的用户,开始失去如何独立思考的能力。哲学家卡尔·波普尔将这种状态描述为“部落的呼唤”:回到封闭的、仇外的、自给自足的和自我保护的内心的欲望,进入自我封闭的堡垒。

正是出于对“部落的呼唤”的警惕,当年肯尼迪总统要求在会议上设立一个忠诚的反对派。他们的责任就是当大家达成一致意见时,站出来提出不同的观点,以此让这个群体走出“隧道视野”。

在政治领域,同质“部落”的增多不仅减少了跨群体的社区,它还加剧了调和多样化的利益和世界观的困难程度,形成极端组织。这就形成了如政治学家凯斯·桑斯坦提出的“群体极化”的概念,即“团体成员一开始即有某种偏向,他们就通过不断协商朝偏向的方向移动,最后形成极端的观点”。

群体极化带来两个问题,一是思想、行为的极端化,二是容易被群体认可的知识影响。

在搜索时代,人们可能还需要通过谷歌、百度等工具,主动寻找知识,但是到了机器算法盛行、智能推荐遍地时,用户实则上变成了被“喂养”,成为吸着“奶头”,停止思考的巨婴。换句话说,群体实际上成为很容易被机器控制、失去思考能力的程序化消费动物。

1995年,在美国旧金山一个讨论“全球化”会议上,面对全球财富集中在20%的人手上,80%的人被“边缘化”的贫富差距境况,美国高级智囊布热津斯基认为:化解80%和20%之间的矛盾唯一的方法,就是给这80%的人口塞上一个“奶嘴”,让他们安于为他们量身订造的信息中,慢慢丧失热情、抗争欲望和思考的能力。

这就是闻名遐迩的“Tittytainment”战略,由Titty(奶嘴)与 Entertainment(娱乐)合成,中文译为“奶头乐”。实际上,现在被智能推荐“喂养”的互联网用户,也类似于布热津斯基口中享受“奶头乐”的群体。

这种境况十分普遍,受到很多人的关注,比如大前研一在《低智商社会》中就提到:日本的新一代正在逐渐步入低智商社会,他们读的书越来越幼稚,对各种谣言丝毫不会思考,很容易遭到媒体的操纵。


心理学研究表明,人在接纳新信息的过程中存在认知偏见。也就是说,人们乐于选择并接受与自己原有信念、价值观相一致的信息,当接触到与先前的信念和价值观不一致的信息时,人们倾向于拒绝接受,并将不一致的内容视为虚假信息。


  • 同温室效应


有人将人的这种心理,贴切的形容为信息的同温层效应(Stratosphere)。所谓“同温层”是指大气层中的平流层,在平流层里面,大气基本保持水平方向流动,较少有垂直方向的流动。这种认知偏见经过互联网公司算法的提炼与加强,使得用户心理底层的越来越凸显出来,形成了一个个聚类的群体。


  • 信息茧房


与同温层效应类似的,是哈佛大学教授凯斯·R·桑斯坦在著作《信息乌托邦:众人如何生产知识》一书中提出的“信息茧房”的概念。

在网络信息传播中,因公众自身的信息需求并非全方位的,公众只注意自己选择的东西和使自己愉悦的讯息领域,久而久之会将自身桎梏于像蚕茧一般的“茧房”中。而且,在“茧房”中用户还会不断强化个体意识,这一现象被形象地表述为“回音室效应”。

一般而言,如果一个人从标题就能判断出A文章的观点与他对立,而B文章的观点与他很类似,那他更可能选择B文章。


  • 回声室效应


如果媒体的推荐算法为了提高用户的使用率而不断地迎合用户的话,那就等于是专门为每个读者都建立了一个专有的“回声室”。他听不到对立的声音,而只会一次又一次地把自己的观点误以为是人人都信奉的真理。

“回声室效应”在社交媒体上造成的一个结果是“过滤气泡”的产生。由于关注对象的选择,一个社交媒体用户看懂的基本上都是想法类似的帖子,这种高度同质化的信息流构成“过滤气泡”,从而把相异的观点有效地排斥在外。

埃利·帕雷瑟(Eli Pariser)在《过滤泡沫》(Filter Bubble)一书中表达了这样的忧虑:“这些个性化算法使得只有和人们的意识形态一致的信息才会被呈现,人们的视野越来越窄,可以接触到多元化信息的机会也越来越少。”

互联网公司目前崇尚的智能推荐、个性化定制服务都在加强这一趋势。当他们努力根据用户的口味度身订造他们的服务,过滤出只属于私人圈子内的话题,用户便被困在一个个“过滤气泡”当中,能对世界拓宽视野的信息便消失了。

总结来说,智能推荐造成的危害包括:

首先是会加剧网络群体的极化,群体内成员与外部世界的交流就会大幅减少,同质特征越显著。其次是群体内的人容易使人产生盲目自信、心胸狭隘等不良心理,尤其是当他的看法获得同一类人认同后,更有可能带来不顾后果的极端行为。

更为重要的是,长此以往还会导致社会黏性的丧失。当每个个体之间、群体之间缺乏粘性,人心涣散将会成为一种普遍的社会现象,个人之间、群体之间往往彼此漠不关心。

为什么会这样呢?对此,凯斯·R·桑斯坦教授解释到:整个社会需要一种社会黏性,这种黏性是由共同经验得来的。但在互联网公司的技术下,个人可以对信息进行选择性输入,这就减少了共同经验,不同意见群之间的冲突将会上升。当人们把不高兴看到的信息事先过滤掉的时候,就难以理解和同情异己的观点和价值观。因此,社会黏性便会减少,共同体的维系也会出现问题。

我们今天看到越来越多的群体极端行为,人与人之间冷漠与不合作的情况,大多可以从中找到原因。


但是互联网公司宣称并不对此负责,他们一次次强调技术中立,而不是关注社会价值如何。知名互联网评论家Keso曾说:“准确地抓挠人性弱点并不等同于用户价值,勾引用户将大把的时间抛洒在层出不穷的无聊事情上,并不等于用户价值,这只是一种变相的用现代化的传播手段制造出的价值幻象。”

很多人都认为,一项新的技术总会有好的一面,坏的一面,但技术本身不是凶手。正如刀本身不杀人,杀人的是拿刀的人,所以不应该批评刀。但是就刀可能作为凶器的角度来说,人类对安全的需求远远不止50%,极端的甚至要求100%的安全。

因此,仅仅保持中立是不够的,甚至是不可能的,技术必须确保科技为人们服务,必须要引入“道德”考量,确保科技被善用。

以智能推荐造成的智商隔离来说,技术并不中立。算法是没有价值观的,你喜欢低俗,它就推送低俗,所以需要人给他植入价值观。以谷歌来说,他们就加入了“不作恶”的价值观,来确立基本的商业操守。

人在不断被动接收信息的同时,信息其实也在不断塑造人的价值观。凭借千人千面的个性化推荐,今日头条的确是彻底改变了信息分发模式,这是一项很了不起的成就。

今日头条创始人张一鸣在专访中称,自己的公司是科技公司,科技是中立的,他们从来不会去干预用户的阅读。在撇清商业伦理与自己无关的情况下,今日头条界面上往往充斥着一些撒狗血的捕风捉影,三流明星的下半身新闻。

尽管互联网作为媒介带给了我们一个全新的信息传播模式,但仍应遵循百年以来构筑的媒体价值观:服务民众,服务社会。互联网公司在一次次的技术迭代中,由于不带价值观的进行进化,技术的趋利性越来越强。用户已然成为在互联网生态圈中带着项圈的“消费动物”。

国际上一些互联网巨头已经意识到其产品对民众的意识形态有一定的消极影响,进而开始审视产品与社会的关系,试图通过新的智能技术来解决已存在的问题,承担起相应的社会责任。

清华大学发布的“2018全球新闻传播新趋势”中提到,美国国家公共电台(NPR)和《华盛顿邮报》已经在开始通过专业编辑的介入确保受众能够接触多元化的资讯和观点,能够第一时间收到对网上流传的“后真相”的更正。

技术流往往强调工具理性,而社会真正需要的更是价值理性。但是事实的情况是,随着对技术的不断加码强化,工具理性越来越成为经济利益的工具,价值理性被目的取向的工具理性所压制。

然而人类越依靠技术,就越失去自主决定的能力和人本精神。因此,只有当目的至上的工具理性行为与价值理性相协调时,人类社会和科技发展之间才具备了和谐共生的可能,价值理性的重要性才得以彰显。

技术并非绝对中立,智能算法同样可以被赋予商业伦理和价值观。


对于个体而言,无论互联网带来的个性化是主动的还是被动的,我们都需要警惕性地看待各类互联网产品。我们要在日常获取信息的同时尝试扩大视野,接触不同的声音,莫让自己被机器算法禁锢在一个虚幻的私人定制空间。

每次外出时,你不妨尝试一个从来没有吃过的菜品,观看一场与以往风格迥异的电影。甚至在购物排队时,花一些时间与完全不同于自己的人说话,问问他们会推荐你阅读什么、吃什么、看什么。

我们要记住:在信息高速公路上飞驰的时候,更要学会慢慢“走路”的能力。实际上,走路获得的认知能力有可能要大于高速行驶的认知能力。很显然,开车飞驰时,你集中注意力看到的无非就是红绿灯与行人。开的速度越快,你眼睛里看到的东西就越少,与外部世界的互动就越单调。但走路时眼睛里看到的东西会更多,和周遭环境的互动就越多。

早在50多年前,就有科学家在旧金山做了一个有趣的研究:他们选取了环境差不多的几个街区,调查当地居民的社会关系。结果发现,车流量最少的街区,那里的居民平均有三个亲密朋友,最拥堵的街区,亲密朋友平均还不到一个。

我们要时刻提醒自己,不要因为高速前进,忽视自己与周围环境的互动能力,尤其是自己独立思考的能力。电影《一代宗师》中说:“见自己,见天地,见众生”,我们不能只看到狭隘的自己。

法国哲学家勒内·笛卡尔(Rene Descartes)的永恒哲学命题:我思故我在。当人类不再思考而被机器喂养的时候,我们还在吗?

【钛媒体作者介绍:刘国华/文】

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App


随意打赏

互联网大数据人工智能云米互联网智能冰箱互联网智能电动汽车互联网 人工智能互联网 智能制造人工智能和互联网我国互联网用户互联网智能家居互联网用户分析互联网用户数据
提交建议
微信扫一扫,分享给好友吧。