伯克利深度学习专题课程:对抗生成网络创始人首次剖析训练实例(44PDF下载)
1 新智元整理
整理:王楠、刘小芹
【新智元导读】 被 Yann LeCun 誉为本世纪最伟大发明之一的对抗生成网络 ,它的提出者 OpenAI 研究员 Ian Goodfellow 日前在伯克利秋季深度学习课程发表演讲《对抗样本与对抗训练》。 伯克利这套课程还在进行中,本文特附详细课程表及报名地址,官网还有更多资料下载 【回复“ 1024深度学习 ”下载PPT全文(PDF格式);点击阅读原文观看 AI WORLD 2016 世界人工智能大会主论坛视频回顾】
加州大学伯克利分校_秋季深度学习专题课程
课程描述
近年来,深度学习已经在包括计算机视觉,语音识别、自然语言处理以及机器人的许多领域取得了巨大进步。深度学习已经成为许多任务的主要解决方案,从在ImageNet竞赛中胜出到赢得围棋世界冠军。本课程旨在帮助学生深入了解深度学习,探索深度学习的最新研究方向以及新的应用。本课程要求学生对深度学习已有基本的了解。
以下列举我们将探索的有关深度学习的最新、最前沿话题:
深度学习中的安全和隐私问题 首先,我们将探讨对抗深度学习方面的攻击方法和防御方法,攻击者可以有目的地生成对抗样本来欺骗最先进的深度学习系统。 接着,我们将探讨深度学习领域的隐私保护问题。使用隐私数据训练的深度学习系统可能记住并泄露隐私信息。我们将探讨模型反向攻击以及怎样为深度学习算法提供差分隐私保护。 最后,我们将探讨深度学习在恶意软件和欺诈检测等安全应用中的作用。
计算机视觉和语音识别主流之外的深度学习新领域 首先,我们将探讨深度增强学习的新技术,包括将增强学习应用于传统的监督学习问题,以及将深度学习应用于涉及决策和控制的任务。 其次,我们将探索深度学习、程序综合以及形式验证交叉的新领域。我们还将探索其他新的应用领域,例如使用深度学习进行图形分析。
深度学习理论和系统的最新进展 首先,我们将介绍生成模型的最新进展,包括变分自编码器和生成对抗网络。 接着,我们将探索理解深度学习的最新理论进展,如深度渲染模型。 最后,我们将探索深度学习系统和框架的最新进展,以及新的框架设计。
鉴于对抗生成网络的重要性,同时这是相关最新技术讲解,新智元摘选 OpenAI 研究员、前谷歌大脑成员 Ian Goodfellow 的演讲《对抗样本及对抗训练》展示如下。 更多资料可到官网查询:https://berkeley-deep-learning.github.io/cs294-dl-f16/
Ian Goodfellow: 对抗样本与对抗训练
演讲中会涉及以下论文:
目录
-
什么是对抗样本?
-
对抗 样本 如何发生?
-
如何利用对抗 样本 机器学习系统?
-
防护手段
-
在没有对抗性的情况下,如何使用对抗 样本提升机器学习?
2013 年起,深度神经网络就已经在物体识别、人脸识别、验证码识别等方面超越人类水平
对抗 样本 发展历程:从 2004 年到 2013 年,攻击能力越强,越难以防御
对抗样本不仅能用于神经网络
-
线性模型
- 逻辑回归
- Softmanx 回归
- SVM
-
决策树
-
最邻近算法
过拟合 对抗 样本
过度线性对抗 样本
现代深度神经网络如果截取其中一段,可以视为是线性的
实践中结果几乎都呈线性
跨模型、跨数据集生成图像
结合不同机器学习方法实现可迁移性(参见上文所提及的论文 Papernot 2016 )
使用对抗样本进行迁移攻击
人脑中的对抗实例(参见论文 Pinna&Gregory,2002)
使用对抗 样本 进行攻击
-
骗过远程托管的 API 训练的实物分类器
-
骗过网络恶意软件检测器
-
在现实中部署对抗 样本 ,让机器学习系统将其识别为实景照片
假设的对自动驾驶汽车进行攻击:让系统识别错误,乘客或路人都可能受害
失败的防御手段:以前提出的多种防御对抗 样本 攻击的方法,比如生成预训练、混合模型、权重衰减、Dropout、非线性模型等等
实际上,生成模型并非防御对抗 样本 攻击最有效的手段
对抗训练
其他模型的对抗训练
-
线性模型:SVM / 线性回归无法学会步进函数,因此对抗训练效果并不显著
-
kNN:神经网络易于过拟合
-
要点:神经网络实际上可以比其他模型更加安全。 实践中,使用对抗训练神经网络在所有机器学习模型的对抗 样本成效 最佳
然而,对抗训练仍然存在缺点
基于模型的优化:就像从最初的汽车到现代轿车再到未来的自动驾驶汽车一样,我们要发明新的方法,让输入使模型的预测能力最大化,不断探索,做出新的发现
总结
-
对网络或系统进行攻击十分容易
-
然而防护却相当困难
-
通过训练可以不断突破基准
-
对抗训练可以起到正则化和半监督学习的效果
-
一般而言,out-of-domain 输入是基于模型的优化的瓶颈
关于对抗训练的更多资源:OpenAI 基于 TensorFlow 的开源库 cleverhans (Theano 版正在开发中~)
伯克利秋季深度学习课程介绍
如果你不打算参加该课程,但对课程的讲座嘉宾感兴趣,或者对伯克利有关深度学习的演讲感兴趣, 请在以下论坛注册以收取今后的讲座通知邮件:https://groups.google.com/forum/#!forum/berkeley-deep-learning
课程邮箱 : cs294-dl-f16@googlegroups.com
具体课程表
Lecture 1 8/31/16 |
何恺明: Deep Learning Gets Way Deeper [P PT] 主要阅读材料:
|
Lecture 2 9/7/16 |
Ilya Sutskever : Why does deep learning actually work? 主要阅读材料:
背景阅读:
|
Lecture 3 9/14/16 |
Wojciech Zaremba: Turing-complete neural-network based models 主要阅读材料:
背景阅读:
|
Lecture 4 9/21/16 |
Kunal Talwar: Deep Learning with Differential Privacy 主要阅读材料:
背景阅读:
|
Lecture 5 9/27/16 (Special date) |
Yoshua Bengio Location: Wozniak Lounge (430-8 Soda Hall) Time: 12:30 pm |
Lecture 6 ? ? 9/28/16 |
Samy Bengio: Sequence models 主要阅读材料:
背景阅读:
|
L
ecture
7
10/5/16 |
Ian Goodfellow: Adversarial Examples and Adversarial Training 主要阅读材料:
背景阅读:
|
Lecture 8 10/12/16 |
Oriol Vinyals : Sequences and one-shot learning 主要阅读材料:
|
Lecture 9 10/19/16 |
Bill Dally: Hardware for Deep Learning 主要阅读材料:
背景阅读:
|
Lecture 10 10/26/16 |
Hugo Larochelle: Autoregressive Generative Models with Deep Learning 主要阅读材料:
背景阅读:
|
Lecture 11 11/2/16 |
Jitendra Malik: Connections to developmental psychology |
Lecture 12 11/9/16 |
Surya Ganguli |
Lecture 13 11/16/16 |
Timothy Lillicrap: Reinforcement learning, meta-learning |
Lecture 14 11/23/16 |
Diedrik Kingma: Generative models |
Lecture 15 11/30/16 |
In-class project presentations |
回复“1024深度学习”下载 PPT 全文(PDF格式)
登录官网了解更多: https://berkeley-deep-learning.github.io/cs294-dl-f16/
点击阅读原文,观看2016世界人工智能大会主论坛全程回顾视频