科技猎
立即注册,自主定制私人频道
机器偏见
本页是关于频道"机器偏见"的所有博文,按照时间倒序展现。实时更新。
总数
18
第
1/2
页
纠正算法的偏见,究竟是要与机器斗还是与人斗?
人人都是产品经理
•
3年前
编辑导语:我们生活在算法时代,一方面,技术的发展使得算法进入到更深层次的决策领域,对我们的生活也产生着重要影响;另一方面,还存在着一个我们不容忽视的问题——算法偏见。Joy Buolamwini是一位加纳裔科学家。一次,在做一项涉及面部识别软件的作业时,她发现,算法无法识别她的脸——除非她戴上白色面具。这是Netfli
人工智能预警:人和机器,谁的偏见更危险
网易科技
•
4年前
(原标题:人工智能预警:人和机器,谁的偏见更危险)在人类历史上的不同时代,谁在改变和塑造人们的观念?这是一个经常被忽视却又非常值得思考的问题。在人类文明的早期,部落首领或巫师,有时是两者合而为一,掌握对自然变化和人的命运的解释权。进入轴心时代,知识和观念的生产更加专业化,哲学家和政治家群体崛起,在西方是苏格拉底、柏拉图
AI也有偏见:你在机器“眼里”是好人还是坏蛋?
亿欧网
•
5年前
近日,麻省理工的博士生在两项独立研究中发现,虽然机器擅长识别 人工智能 生成的文本,但是很难分辨其中的真假。原因在于训练机器识别假新闻的 数据库 中充满了人类的偏见,因此,训练而成的人工智能也不可避免地带上了刻板印象。 人类偏见是人工智能界普遍存在的沉疴。ImageNet
AI也有偏见:你在机器“眼里”是好人还是坏蛋?
亿欧网
•
5年前
近日,麻省理工的博士生在两项独立研究中发现,虽然机器擅长识别 人工智能 生成的文本,但是很难分辨其中的真假。原因在于训练机器识别假新闻的数据库中充满了人类的偏见,因此,训练而成的人工智能也不可避免地带上了刻板印象。 人类偏见是人工智能界普遍存在的沉疴。ImageNetRoulette数字
国外网红项目聚焦AI偏见:机器会给你的照片打“坏人”标签?
钛媒体
•
5年前
图片来源@视觉中国钛媒体注:本文来源于微信公众号全媒派(ID:quanmeipai)编译自《纽约时报》,钛媒体经授权发布。近日,麻省理工的博士生在两项独立研究中发现,虽然机器擅长识别人工智能生成的文本,但是很难分辨其中的真假。原因在于训练机器识别假新闻的数据库中充满了人类的偏见,因此,训练而成的人工智能也不可避免地带上
AI也有偏见:你在机器“眼里”是好人还是坏蛋?
人人都是产品经理
•
5年前
人工智能是从人类身上学习的,而人类是有偏见的生物。近日,麻省理工的博士生在两项独立研究中发现,虽然机器擅长识别人工智能生成的文本,但是很难分辨其中的真假。原因在于训练机器识别假新闻的数据库中充满了人类的偏见,因此,训练而成的人工智能也不可避免地带上了刻板印象。人类偏见是人工智能界普遍存在的沉疴。ImageNetRoul
怎样消除机器人的“偏见”?先从消除人的偏见做起
砍柴网
•
5年前
你有没有想过这样的问题:Alexa、Siri、Cortana(小娜)、Google Assistant 等等虚拟语音助手,性别都是女的?在西南偏南大会上,几位从事对话人工智能 ( conversational AI ) 行业的女性专家告诉我,这当中既有偏见,又有道理。偏见的部分指的是,当一个助手在和你对话时,大部分人会
机器学习的偏见
IT思维
•
6年前
公众号/ 学术plus 机器学习的偏见来源:https://www.nature.com编译:plus评论员 张涛As machine learning infiltrates society, scientists are trying to help ward off injust
可解释的人工智能:让机器解释自己,减少算法产生的偏见
雷锋网
•
6年前
2018年5月25日,“通用数据保护条例”(GDPR)在整个欧盟范围内生效,要求对组织如何处理个人数据进行彻底改变。若违反GDPR条例的限制,相关组织必须支付高达2000万欧元或其全球收入4%的罚款(以较高者为准),对威慑大多数违规行为具有很重要的意义。 由于不久前的 剑桥分析丑闻 闹得人心惶惶
当AI出现偏见时,如何让机器学习算法解释自己的决策?
亿欧网
•
7年前
神经网络 的预测能力推动了最近的 人工智能 热潮,但很难解释他们是如何做出决定的。 一项旨在揭示语言处理网络内部工作原理的新技术,只是为揭示这些“黑匣子”而做出的最新努力。 我们发现神经网络如此神秘,这可能并不奇怪,因为它们基本上是基于人类大脑而建立的,我们也在努力
提交建议
微信扫一扫,分享给好友吧。