让我们谈谈性别歧视:为什么很多语音助手都是女性声音?
超级计算机工程师正在努力突破计算机智能领域的极限,但是他们所创造出的人工智能已经潜在地加深了早已过时的性别规范。虽然他们推动了技术的发展,但这种发展却是以社会文明倒退为代价的。
最显著的一个事实是世界顶级超级计算机IBM沃森拥有一个男性的名字和声音,但是几乎所有的虚拟助手却有着女性名字和声音,比如Siri、Alexa、Cortana。这一现象常常被归因于市场营销策略。
Clinc金融软件公司的首席执行官杰森玛斯在接受纽约时报采访时表示,他给自己的人工智能助理设置成为一个“乐于助人的年轻白人女性”的声音,因为为了在商业上取得成功,“有一种压力促使你去符合大众世俗的规范。”另一个观点是,坦福大学教授Clifford Nass在2011年接受美国有线新闻网采访时表示:“这是一种根深蒂固的现象,人类的大脑更喜欢女性的声音。”
然而,这一理由并不充分,习惯或条件反射并不能作为道德操守的衡量标准。从种族方面而言,人工智能助手的声音听起来更像是墨西哥或黑人的声音,因为在历史的大部分时间里,这些群体一般都是从事服务他人的工作,而不是那些拥有强大权利的工作。
极具开创精神的女权主义哲学家朱迪思·巴特勒认为:男性和女性生理构造上的不同并不会导致他们行为方式的不同。数千年的社会演变,产生了在当时的社会条件下看起来正常的性别规范,比如女性应该穿裙子而男性应该穿西装。
纳斯在他的书中强调,男性的声音通常被认为是权威性的和主导的,而女性则与善意地帮助人们得出他们自己的结论有关。究其原因,巴特勒认为这是因为父权社会的长期支配地位已经将一个偶然变成了一个真理一样的存在。
这是一个微妙的条件反射。
最根本的问题是,科技与我们的生活息息相关,在我们的潜意识中扮演着越来越重要的角色。所以当我们习惯人工智能助手使用女性的声音时,我们就会不自觉产生一种刻板印象,即女性的地位较男性来说更为低下。
虽然虚拟助手采用女性声音会带来更大的销量或者让人们觉着更加的舒适,但这并不意味着它是正确的。为了挑战陈旧的权力结构,我们必须挑战他们施加给我们的生活方式。对于改变将女性直接默认成为是服务他人的角色这一刻板印象,改变人工智能助手的名字和声音是非常重要的。
也许更糟糕的是,这些人工智能不仅是在这方面上存在性别歧视,很可能整个系统也存在性别歧视。编程是一种语言,就像任何语言一样,它需要定义。但这些定义中却含有根深蒂固的偏见、比重和微妙的权力结构,甚至连程序员自己可能都没有意识到。因此,如果人工智能程序设定已经带有歧视含义,不管这些设定是有意的还是无意的,人工智能本身就会产生歧视性。
凯特克劳福德在《纽约时报》上撰文,总结了一种人工智能图像识别现象:
工程师们选择一些图像,从而输入程序,系统则会根据这些图像构建一个世界模型。如果系统在编程时是基于一个白人的图像,那么对于此系统来说,识别非白人面孔将会非常困难。
我们赋予技术太多权利,甚至赋予了其改变我们认知的重要能力。我们为此付出的代价便是我们必须非常小心。因为了解了拟人化及程序设定的潜在后果及其可能精妙地改变我们的认知。
我们必须注意的是:在智能助手中使用女性声音并不是导致性别刻板印象和性别压迫的直接原因。一些公司可能会明智地效仿谷歌助手的做法,这是朝着性别中立迈出的一步。此外,移除人工智能助手的人性化,编程人员只能够影响我们与技术互动的方式,而不会通过潜在的性别歧视,影响我们同他人的互动方式。
翻译:网易见外智能编译机器人 审校:杨旭