研究人员通过机器学习分析 Twitter 平台的骚扰女性问题
大赦国际和 Element AI 的一项最新研究试图对许多女性已经注意到的一类问题进行统计:Twitter 上的骚扰问题有多么严重。在 6500 名志愿者的帮助下,这项被大赦国际称作“有史以来规模最大”对女性网上被骚扰问题的研究利用了 Element AI 的机器学习软件,对 2017 年发送给 778 名女性政治家和记者的 Twitter 消息进行分析。研究发现,其中的 7.1%,即 110 万条消息是“有问题的”,或者“骚扰性质的”。大赦国际表示,这相当于每 30 秒就会出现出现一条这样的消息。
在 解释这项研究方法和结果的互动网站 上,大赦国际表示,由于这类问题的存在,许多女性不得不审查她们发布的内容,限制在 Twitter 上的互动,甚至退出这个平台。“在这样的分水岭时刻,全球各地女性正在发挥集体的力量,通过社交媒体平台来放大自己的声音。然而,Twitter 未能始终如一、透明地强制执行社区标准,解决暴力和骚扰问题。这意味着女性可能会退回到以往的沉默文化。”
过去两年,大赦国际一直在研究 Twitter 上女性遭到骚扰的问题。今年早些时候,该组织发布报告,将 Twitter 称作 对女性“有毒”的平台 。随后,大赦国际招募到 6500 名志愿者,参与对骚扰现象的调查行动。
这些志愿者总共分析了从 2017 年 1 月至 12 月期间发送给 778 名女性人物的 28.8 万条 Twitter 消息,调查对象包括来自英国和美国的政治家和记者。政治家中包括英国国会议员和美国国会议员,而记者则来自多家媒体,包括《每日邮报》、《纽约时报》、《卫报》、《太阳报》、Pink News 和 Breitbart。
行动中的志愿者来自 150 个国家,年龄为 18 岁到 70 岁不等。关于什么样的 Twitter 消息有问题或者属于骚扰性质,他们接受了培训,随后参加考试:对于提到这 778 名女性人物的匿名 Twitter 消息,他们需要判断这些消息是否有问题或者属于骚扰性质。每条 Twitter 消息被展示给多名志愿者。此外,大赦国际表示,“3 名相关专家”对 1000 条 Twitter 消息构成的样本进行了分类,以“确保我们能评估数字志愿者给 Twitter 消息打标签的质量”。
这项研究将“有问题”定义为“包含有害或敌意内容,尤其是多在多个场合向某人重复,但还没有达到骚扰的标准”。“骚扰性”的定义是“违反 Twitter 自己的规则,包含基于种族、民族、国家、性取向、性别、性别认同、宗教归属、年龄、残疾情况或严重疾病而鼓吹暴力侵害或威胁他人的内容”。
随后,这些带标签 Twitter 消息的一部分通过 Element AI 的机器学习软件进行了处理,从而推断 2017 年中提及这 778 名女性的总共 1450 万条 Twitter 消息的情况。(由于研究直到 2018 年 3 月才收集 Twitter 消息,因此大赦国际指出,骚扰的规模很可能更大,因为一些骚扰性的 Twitter 消息可能被删除,或是由目前已经被封的 Twitter 帐号发布。)Element AI 得出的推断结论是,发送给这些女性人物的 Twitter 消息中有 7.1%存在问题或是属于骚扰性质,2017 年这类消息的总数为 110 万条。
在有问题或骚扰性的 Twitter 消息中,黑人、亚裔、拉丁裔和混血女性被提及的可能性要比白人女性高出 34%,黑人女性尤其容易受到攻击:针对她们的这种可能性比白人女性高出 84%。在研究样本中,每 10 条提及黑人女性的 Twitter 消息中就有 1 条存在问题或属于骚扰性质。相比之下,在提及白人女性的消息中,这个比例为 1/15。
大赦国际策略研究高级顾问米莲娜·马琳(Milena Marin)在声明中表示:“我们发现,尽管各个政治阶层的女性都会遭到骚扰,但有色人种女性受影响的可能性要大得多,黑人女性是个更明显的目标。Twitter 未能解决这方面问题,这意味着这个平台正在有意无意地压制已经被边缘化的声音。”
研究还发现,以职业分类来看,在提及 454 名记者的 Twitter 消息中,有 7%是有问题或骚扰性的。在提及 324 名政治家的 Twitter 消息中,这个比例是 7.12%。
当然,从美国和英国 778 名记者和政治家样本中得出的结论很难推断到其他职业、国家和普通民众。然而,这项研究的结论依然很重要,因为许多政治家和记者需要利用社交媒体平台才能开展工作。女性,尤其是有色人种女性,在这两类职业中所占比例都很低。许多人坚持使用 Twitter 只是为了保持自己的曝光量,尽管这意味着需要应对持续不断的骚扰。此外,正如科技行业记者萨拉·郑(Sarah Jeong)在个人 Twitter 帐号中所指出的那样,Twitter 的 API(应用程序接口)调整意味着许多第三方反霸凌工具不再起作用,而平台到目前为止也没有提供能替代的工具。
A friend coded up a way for me to automatically mute people who tweeted certain trigger words for me. (Like, say, "gook.") This is also no longer available to me because of API changes.
— sarah jeong (@sarahjeong) December 18, 2018
For a long time I used blocktogether to automatically block accounts younger than 7 days and accounts with fewer than 15 followers. After Twitter's API changes, that option is no longer available to me.
— sarah jeong (@sarahjeong) December 18, 2018
大赦国际对 Twitter 平台上女性遭到骚扰现象进行的另一项研究包括 2017 年对 8 个国家女性进行的在线调查 ,以及在英国 2017 年临时选举前 女议员遭到骚扰情况的分析 。该组织表示,志愿者行动并不是“监管 Twitter 或强迫其删除内容”,目的是希望平台更加透明,尤其是关于如何使用机器学习算法来检测骚扰行为。
目前,大型社交媒体平台普遍依靠机器学习技术来扩大对骚扰行为的监控。而 Element AI 也利用这项研究的数据开发了自动检测骚扰性 Twitter 消息的机器学习模型。在接下来的 3 周时间里,这个模型将在大赦国际网站上测试,以展示人工智能技术可能和现有的局限性。这些局限意味着,社交媒体平台需要非常谨慎地调整算法,从而在不标记正当言论的情况下探测到骚扰内容。
大赦国际表示:“这些权衡是基于价值的判断,而这样的判断对线上的言论自由和其他人权有着重要影响。就目前的情况来看,自动化可能在评估趋势或标记内容供人工审核方面发挥了有益的作用,但这最多只能用于协助经过训练的人员,而无法替代他们。”
12 月 12 日,Twitter 向大赦国际提供了正式回复。Twitter 法务、政策和信任,以及安全全球负责人维加亚·贾德(Vijaya Gadde)给出了回应。
“Twitter 公开承诺,从总体的健康、开放、文明等方面优化我们平台上的公众对话。Twitter 是否健康的衡量方式在于,我们如何协助促进更健康的讨论、对话和批判性思维。相反,骚扰、恶意的自动化和言论操纵则有损 Twitter 的健康。我们将为这方面的进展承担公开的责任。”
“Twitter 使用机器学习和人工审核相结合的方式来判断关于骚扰的报告,以及报告的事件是否违反我们的规则。在评估骚扰行为,决定适当措施的过程中,具体环境很重要。我们会考虑的因素包括但不限于:该行为是否针对一个人或一群人;报告是由被骚扰对象还是其他人提交的;行为是否有新闻价值以及符合正当的公众利益。Twitter 随后会向举报者提供后续通知。我们还会提供关于额外操作的建议,让个人用户可以优化自己的 Twitter 体验,例如使用屏蔽或静音功能。”
“关于你们即将发布的报告,我需要指出,为了对内容进行归类而提出的‘有问题’内容的概念值得进一步商榷。目前尚不清楚,你们是如何定义及归类这些内容的,也不清楚你们是否建议将这些内容从 Twitter 删除。我们正努力制定可以在全球范围内执行的规则,并开始为这个进程的一部分征集公众意见。这是行业中的一种新方法。”
“正如许多民间社会团体所强调的,公司必须认真界定政策的范畴,以便用户明确知晓哪些内容是允许的,哪些内容是不被允许的。我们欢迎进一步讨论,在这项研究中你们如何定义‘有问题’,同时考虑到保护言论自由的需求,以及确保政策起草的清晰而严谨。”
翻译:维金
Amnesty International used machine-learning to quantify the scale of abuse against women on Twitter