由于严重的性别差异问题,人工智能存在偏见的风险

砍柴网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

人工智能需要由各种各样的开发者来创造,以防止产生偏见,但世界 经济 论坛(WEF)发现了一个严重的性别差异。

一段时间以来,STEM职业中的性别差距一直是个问题,但最终产品往往不太关心它是由什么性别开发的。人工智能将无处不在,重要的是它能代表它所服务的对象。

在本周发布的一份报告中,世界经济论坛写道:

“妇女和男子在这一深刻的经济和社会变革进程中的平等贡献至关重要。

社会比以往任何时候都更不能失去一半人类的技能、思想和观点,以实现管理良好的创新和技术所能带来的更繁荣和以人为中心的未来的希望。”

令人震惊的是,世界经济论坛的报告发现,不到四分之一的行业职位由女性担任。从这个角度来看,人工智能行业的性别差距大约是其他行业人才池的三倍。

世界经济论坛人工智能和机器学习主管凯•菲尔斯-巴特菲尔德(Kay Firth-Butterfield)表示:“创造人工智能的人代表整个人口,这一点绝对至关重要。”

在编码方面的偏见可能会让人工智能在某些社会群体中表现得比其他群体更好,这可能会给他们带来优势。这种偏见很少是有意的,但已经在人工智能的发展中找到了自己的方式。

美国公民自由联盟(ACLU)最近对亚马逊的面部识别技术进行了一次测试,发现它错误地将那些肤色较深的人贴上了罪犯的标签。

同样,NIST和达拉斯德克萨斯大学(University of Texas)的研究人员在2010年进行的一项研究发现,在东亚设计和测试的算法在识别东亚人方面做得更好,而在西方国家设计的算法在识别白种人方面更准确。

最近,谷歌在Gmail中发布了一个预测文本功能,该算法对使用女性代词的护士进行了有偏见的假设。

很明显,解决性别差距比以往任何时候都更加紧迫。

【来源:千家网】

随意打赏

人工智能的应用领域人工智能的发展趋势人工智能机器人人工智能工程师人工智能概念股人工智能的应用人工智能电影人工智能学习人工智能开发人工智能技术
提交建议
微信扫一扫,分享给好友吧。