科技猎
立即注册,自主定制私人频道
性别偏见
本页是关于频道"性别偏见"的所有博文,按照时间倒序展现。实时更新。
总数
19
第
1/2
页
研究发现AI模型存在性别偏见:中性/男性LLM性能优于女性角色
砍柴网
•
11月前
1 月 2 日消息,研究表明 AI 在处理法律相关任务时存在性别偏见,相比较女性角色,中立或男性角色的工作效率更高。密歇根大学研究人员通过最新研究,揭示了社会和性别角色对大型语言模型(LLM)的影响。这项研究由来自计算机科学与工程系、社会研究所和信息学院的跨学科团队进行。IT之家从报道中获悉,该研究通过 Flan-T5
Meta开源FACET工具,用于评估AI模型中的种族和性别偏见
砍柴网
•
1年前
9 月 2 日消息,Meta 公司为了缓解当前很多计算机视觉模型对女性、有色人种存在系统性偏见问题,近日推出了名为 FACET 的全新 AI 工具,用于识别计算机视觉系统中的种族和性别偏见。FACET 工具目前经过 3 万张图片、含 5 万人图像的训练,特别增强了性别和肤色方面的感知,可以用于评估计算机视觉模型在各种特
称快递员"快递小哥":中通被指性别偏见 九家快递七家如此
网易科技
•
4年前
(原标题:称快递员“快递小哥”:中通被指性别偏见,九家快递七家如此)实习生 杨璐伊 澎湃新闻记者 吕新文近日,有网友发微博称,中通快递微信小程序中,对快递员的默认称谓是“快递小哥”。这意味着,其默认快递员的性别是男性。该网友称,其所在学校的快递服务中心,只有一位男性工作人员,其余工作人员均为女性。该网友认为,中通快递默
人脸识别的肤色性别偏见背后,是人类自己的偏见
亿欧网
•
5年前
本文转载自全媒派,原标题《人脸识别的肤色性别偏见背后,是算法盲点还是人心叵测?》。亿欧智慧城市对文章进行二次编辑,供读者参考。皮尤研究中心的一项最新研究发现,Facebook 的新闻图片中,男性出现的频率是女性的两倍,且大部分的图片是关于男性的。考虑到当下有 43% 的美国成年公民主要通过 Facebook 获取新闻资
研究称亚马逊的面部技术表现出性别和种族偏见
砍柴网
•
5年前
根据麻省理工学院周四公布的研究报告,亚马逊的面部技术更难以认识到肤色较深的女性的性别,并且比微软和IBM的竞争技术在识别性别方面犯了更多错误。根据这项研究,亚马逊的Rekognition软件在19%的时间里错误地将女性视为男性。此外还错误地将黑皮肤女性识别为31%的男性。相比之下,微软的软件发现黑人女性占男性的比例为1
研究称亚马逊的面部技术表现出性别和种族偏见
网易科技
•
5年前
(原标题:麻省理工学院研究称亚马逊的面部技术表现出性别和种族偏见)根据麻省理工学院周四公布的研究报告,亚马逊的面部技术更难以认识到肤色较深的女性的性别,并且比微软和IBM的竞争技术在识别性别方面犯了更多错误。根据这项研究,亚马逊的Rekognition软件在19%的时间里错误地将女性视为男性。此外还错误地将黑皮肤女性识
由于严重的性别差异问题,人工智能存在偏见的风险
砍柴网
•
6年前
人工智能需要由各种各样的开发者来创造,以防止产生偏见,但世界 经济 论坛(WEF)发现了一个严重的性别差异。 一段时间以来,STEM职业中的性别差距一直是个问题,但最终产品往往不太关心它是由什么性别开发的。人工智能将无处不在,重要的是它能代表它所服务的对象。在本周发布的一份报告中,世界经济论坛写道
医院里的男性就是医生,女性就是护士?NLP 模型的性别偏见到底有多大?
雷锋网
•
6年前
雷锋网 AI 科技评论按:本文由 Ben Packer, Yoni Halpern, Mario Guajardo-Céspedes & Margaret Mitchell (Google AI)于 2018 年 4 月 13 日发布。这篇文章讨论并尝试实际测量了不同文本嵌入模型中的性别偏差。雷锋网 (
研究称性别不均衡或导致人工智能持有性别偏见
腾讯科技
•
7年前
中新网12月29日电 美国《世界日报》刊文称,企业咨询公司Ernst&Young研究发现,虽然企业营运结合人工智能科技的越来越多,美国旧金山湾区人工智能领域的资深工作者却多指出,人才短缺是目前企业使用人工智能科技的最大障碍。“今年,企业策略化地要将人工智能技术结合到营运中,但是他们的目标被人工智能专家的短缺所阻
EMNLP最佳长论文作者独家解读:别让机器学习放大性别偏见,其实男人也喜欢购物!
雷锋网
•
7年前
via cheatsheet 近日,自然语言处理领域顶级国际会议 EMNLP 于丹麦哥本哈根举行。EMNLP是自然语言处理三大顶级会议(ACL, EMNLP, NAACL)之一,已经于前段时间公布了录用论文及最佳论文名单。详情可参见雷锋网AI科技评论此前文章: 万字长文,深度解读
提交建议
微信扫一扫,分享给好友吧。