怎样消除机器人的“偏见”?先从消除人的偏见做起
你有没有想过这样的问题:Alexa、Siri、Cortana(小娜)、Google Assistant 等等虚拟语音助手,性别都是女的?
在西南偏南大会上,几位从事对话人工智能 ( conversational AI ) 行业的女性专家告诉我,这当中既有偏见,又有道理。
偏见的部分指的是,当一个助手在和你对话时,大部分人会更习惯这个助手的性别是女的。因为人们期待 " 她 " 比男助手更加顺从、体贴。
至于道理的部分,基于社会学和语言学的研究发现,在说话时男性普遍更直接,女性普遍更婉转;男性普遍更武断 ( assertive ) ,女性普遍更配合 ( supportive ) 。
多年以来,对于同一种语言,男人和女人们普遍形成了风格迥异运用方式。从某种程度上讲,它最初也是因为偏见的逐渐积累,形成了长期的结构性差异。
虚拟助手性别采用女性,符合这种差异。
偏见 ( bias ) ,更具体来说,聊天机器人等对话式 AI 的偏见问题,是西南偏南大会本场论坛的切入点。
除了性别之外,在虚拟语音助手和聊天机器人身上所能够找到的偏见,还有许多的种类。比如种族歧视、基于政治立场的偏见等等。
而专家指出,无论是哪一种偏见,几乎都是人自己偏见的映射。
IBM 沃森人工智能的首席产品经理阿娜米塔 · 古哈 ( Anamita Guha ) 举例," 如果你一直用叫喊的方式训练人工智能,那么她学到的只会是叫喊。"
科技 公司 Pandorabot 创始人兼 CEO 劳伦 · 坤泽 ( Lauren Kunze ) 认为,微软早年的英语聊天机器人 Tay 是一个人类偏见投射到聊天机器人最典型的案例。
Tay 和微软小冰有所类似,是一个话题不限制的闲聊式机器人。Tay 采用无监督学习的方式,有一天突然被微软的工程师上线到 Twitter 上,任何人都可以跟她对话,教她东西——结果几天下来,坤泽形容,Tay 被训练成了一个 " 崇拜希特勒的性爱机器人 "。
"Tay 所变成的样子,不就是 互联网 的样子吗?" 她说,发生这样的情况,人们担心的不应该是聊天机器人的偏见,而是自己的偏见。
劳伦 · 坤泽
人的偏见是根深蒂固的,很难被刨除。甚至连开发 AI 的人不注意都会表达出这种偏见。
坤泽有次跟微软集团副总裁、杰出科学家程丽丽 ( Lili Cheng ) 一起出席一个对话人工智能的闭门会议,是会上唯二的女性面孔。当有人问起 IBM 沃森的声音为什么是男性时,有人在台下吆喝," 因为男人更睿智。" 坤泽说,当时自己和程丽丽都气的直抓桌布。
其实,沃森是一套基于深度学习,面向开发者 / 企业端的 API,在语音输出时可以集成 24 种不同的声音。
像沃森这样多样化地设计对话人工智能的思路,已经逐渐被业界采纳。
Dashbot 的高级开发客户经理贾斯丁娜 · 阮 ( Justina Nguyen ) 指出,她的客户很多是非科技行业的大品牌公司。在设计聊天机器人用作客服、 营销 等用户的时候,这些公司并不是说一定要用女性的声音,而是它们需要确保这个聊天机器人和企业一直以来的形象保持一致。
就像《水形物语》中女主角去的那家甜品店,男服务生为了配合甜品店品牌的亲民形象,装出一种南方乡巴佬的口音,其实自己的老家明明是加拿大。
" 你的聊天机器人采用哪种声音,具有什么风格,是由你的品牌的形象 ( persona ) ,由你想让消费者获得何种体验决定的," 阮表示。
阿娜米塔 · 古哈和贾斯丁娜 · 阮
既然聊天机器人的偏见来自于人的偏见,而这种偏见在现阶段又很难避免,我们有什么可以做的,有哪些规则可以被设立起来,确保开发出的聊天机器人是安全、尽量减少偏见的呢?
坤泽的建议是:如果你做的模型是无监督学习,那么千万不要拿到 Twitter 这样的 社交 网络上去训练。
阮认为,与其说我们要给聊天机器人(或者开发它的公司)设定规则,我们更应该给用户设定规则,告诉他们应该怎样跟聊天机器人正确地对话。
古哈也很同意这个观点," 现在的小朋友们可以说是跟虚拟助手,跟聊天机器人一起长大的。
我们可以做一个设置,如果用户发出一句指令后不加一个‘请’字,Alexa 就不执行,你们说好不好啊?"
【来源:品玩】