阿里联合IJCAI发起人工智能对抗算法竞赛
雷锋网 (公众号:雷锋网) 消息,1 月 23 日,雷锋网从阿里安全获悉,阿里安全、阿里云天池平台联合人工智能领域国际会议 IJCAI(International Joint Conference on Artificial Intelligence),发起人工智能对抗算法竞赛,探索对抗攻击时,如何解决 AI 模型的安全性问题。目前,赛题和日程已在天池平台公布。
这次比赛主要针对图像分类,包括模型攻击与模型防御,阿里公开 110 个类目,共计 11 万张左右图片,供选手使用。参赛选手可以作为攻击方,对图片进行轻微扰动生成对抗样本,使模型识别错误,或识别成指定的错误类别,也可以作为防御方,构建一个更加鲁棒的模型,准确识别对抗样本。
为强调面向真实场景,这次竞赛采用的是实际场景的图片识别任务进行攻防对抗。除真实数据外,还包括对计算量的严格限制,以及对扰动噪音的限制,这更能还原真实的安全与黑灰产的攻防。
在国际知名顶会 NIPS2017 年和 2018 年会议上,谷歌大脑曾连续举办对抗样本攻防竞赛,普及对抗样本攻击的课题。不过,与阿里联合 IJCAI 举办的这次竞赛不同的是,他们利用的样本集均来自学术数据集 ImageNet。
“未来的安全能力一定是建立在智能与算法基础之上,我们希望提供真实的、对抗的场景,建立前沿研究和具体业务之间的桥梁, 进而反哺和促进整个人工智能的发展。”阿里安全图灵实验室负责人、资深专家薛晖称,这也是阿里首次提出“安全 AI ”概念的初衷。
阿里安全称,通过大赛发掘安全 AI 人才也是预期目标之一。
经过初赛、复赛和答辩,排名前三甲的队伍,除获得 1000 至 5000 美元不等的奖金外,还会被邀请参加今年 8 月在澳门举办的 IJCAI 会议。清华大学教授朱军、中国科学技术大学教授张卫明、浙江大学研究员纪守领、阿里达摩院高级研究员华先胜等在内的 AI 安全领域专家将担任竞赛评审。
朱军等指导的清华大学团队曾在 NIPS2017 对抗样本攻防竞赛中夺冠,纪守领所在的 NESA Lab 提出了一种新型的对抗性验证码,能防范来自打码平台等黑灰产的破解。
IJCAI 被中国计算机学会推荐为计算机学科领域 A 类国际会议,从 1969 年开始每两年举办一次,自 2016 年起改为每年一次。
雷锋网版权文章,未经授权禁止转载。详情见。