探秘|大数据技术恰恰在加剧收入不平等现象?

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  
点击上方“灯塔大数据”可以订阅哦


在刚刚闭幕的G20杭州峰会上,世界各国的领导人在一个问题上达成了一致:日益严重的收入不平等现象存在着巨大的隐患。各国领导人都强调,应该更加均等地分享全球经济增长带来的利益。


在科技突飞猛进的当下,技术进步自然而然地被作为解决途径之一,算法、大数据、机器学习等技术正不断渗透到经济、政治、司法等各个层面,但效果如何?《数学杀伤性武器》(Weapons of Math Destruction)一书的作者凯西·奥尼尔(Cathy O'Neil)指出,这些技术恰恰在加剧收入不平等现象。


被算法“算计”


美国人开始越来越多地遭遇这样的经历:求职过程中,因为一项性格测试被刷下阵来,只因算法认为他不是合适人选;去银行贷款,利率比别人都要高,只因所住地区多有信用记录不良者;被从重判罚,只因亲朋好友中有人是累犯。而且,在被算法“算计”之后,他们也都被蒙在鼓里,得不到一个合理的解释。


针对这种现象,奥尼尔观察了各个领域对算法和大数据的使用,以及它们是如何使穷人的生活雪上加霜、如何放大社会不平等现象的。


她在书中剖析了不少大数据模型,它们都存在一个共同点:用一种指标来取代真正需要衡量的指标。比如,雇主依据信用记录来判断应聘者的责任心,放贷机构根据语法优劣来判断申请人的信用度。但这些指标之间真能画上等号吗?信用记录也许更多地代表了财富水平,语法错误多的也有可能是信用优良的移民,并非所有的代理指标都经得起推敲。


在美国,近半数的雇主都要求应聘者提交信用报告,把信用评分等同于责任心或可靠性。这样做会形成一种危险的贫困正反馈循环。如果有人因为信用记录不良而找不到工作、没有收入,其信用记录只会越来越差,从而越来越难以找到工作。但在雇主眼中,满纸数据的信用记录却比人为判断都要可靠。他们从不考虑数字背后隐藏着怎样的假设。


孤立起来看,这些算法产生的效应就已经足够恶劣,更何况它们之间还会相互强化。教育、就业前景、债务和犯罪记录全都相互关联。穷人因为入不敷出,更有可能拥有不良信用记录,并生活在治安不良地区,与其他穷人比邻而居。系统一旦消化这些数据,就会推荐对他们更加不利的次级贷款、更差的学校等。警方会派遣更多警力在当地维持治安,从而引发更多不必要的逮捕,谁一旦罪名成立,还会被从重处罚。


随后,这些结果又会形成新一组数据,使他们在日后申请房贷、贷款和保险时被收取更高的费率。

决策依据而非决策结果


奥尼尔担心,这种技术模型和真人分道扬镳的现象会带来道德上的后果。好在,越来越多的律师、社会学家和统计学家开始关注数据滥用造成的危害,并思索解决之道。


针对算法假设不够透明、令人费解或经不起推敲的现象,解决办法是在算法层面加以调整,体现哪些信息对最终决策起到了决定性的作用。并通过立法,增加对个人数据的保护,对算法透明度实行规范化的管理。


另外,政府也可以优先用大数据来改善民生,而不是严打犯罪,由此赢得公众的信任。总而言之,算法可以作为决策依据,但不能替代人类做出决策。


在使用得当的情况下,它们或许能协助政府削减收入不平等现象。哈佛大学教授戈德史密斯(Stephen Goldsmith)就表示,机器学习有望变革公共政策领域的方方面面。


美国芝加哥的公共卫生健康部就用大数据和机器学习来鉴别体内铅含量超标的儿童,并据此采取措施,帮助清除住房中的含铅涂料。还用机器学习来发现存在犯罪倾向的青少年,提前加以干预。
 
通过更加精确地分配稀缺的公共资金,机器学习可以为政府节省大笔不必要的开支。大数据也开始参与政府决策,成为一项有效的决策工具。大伦敦地区的一个自治市就在开发一种算法,用以预测哪些人可能会无家可归。这些预测可以使政府服务来得更加及时,更有针对性,或许也能帮助政府更加有效地缩减收入差距。

内容来源:第一财经




点击
阅读原文
了解更多详情

随意打赏

提交建议
微信扫一扫,分享给好友吧。