ICML神经网络和深度学习日程表(周二)
神经网络 和深度学习
大会主席:Hal Daume III
地点: Ballroom 1+2+Juliard
10:30:Strongly-Typed Recurrent Neural Networks(强类型递归神经网络) David Balduzzi、 Muhammad Ghifary 惠灵顿维多利亚大学
10:47: A Convolutional Attention Network for Extreme Summarization of Source Code (源代码极端总结卷积关注网络) Miltiadis Allamanis 爱丁堡大学;Hao Peng 北京大学
11:04:Ask Me Anything: Dynamic Memory Networks for Natural Language Processing (问我任何事:自然语言程序动态记忆网络)Ankit Kumar、 Ozan Irsoy 、 Peter Ondruska、 Mohit Iyyer 、James Bradbury、 Ishaan Gulrajani、Victor Zhong、Romain Paulus MetaMind公司
11:40:Dynamic Memory Networks for Visual and Textual Question Answering (视觉动态记忆网络和文字问题问答) Caiming Xiong、Stephen Merity MetaMind公司
11:57: Supervised and Semi-Supervised Text Categorization using LSTM for Region Embeddings( 使用LSTM地区嵌入的监督和半监督文字分类 )Rie Johnson RJ调查咨询公司
12:14:PHOG: Probabilistic Model for Code(PHOG:代码概率模型 )Pavol Bielik、Veselin Raychev、Martin Vechev 苏黎世联邦理工学院
增强式学习
会议主席: Tom Erez
地点: Ballroom 3+4
10:30 – On the Analysis of Complex Backup Strategies in Monte Carlo Tree Search (关于 蒙特卡洛树搜索复杂支撑战略的分析) Piyush Khandelwal、Elad Liebman 、cott 、Peter Stone U 德克萨斯大学奥斯汀分校
10:47 – Generalization and Exploration via Randomized Value Functions (随机化价值功能归纳和探索) Ian Osband 、 Benjamin Van Roy 斯坦福大学;Zheng Wen Adobe 研究所
11:04 – Doubly Robust Off-policy Value Evaluation for Reinforcement Learning(增强式学习价值评估策略) Nan Jiang密歇根大学; Lihong Li 微软
11:40 – Near Optimal Behavior via Approximate State Abstraction(通过近似状态抽象的最优行为) David Abel 、 David Hershkowitz、 Michael Littman 布朗大学
11:57 –Model-Free Trajectory Optimization\\ for Reinforcement Learning (增强式学习自由模式轨道优化)Riad Akrour 、 Gerhard Neumann 、 Hany Abdulsamad、Abbas Abdolmaleki 达姆施塔特工业大学
12:14 – Model-Free Imitation Learning with Policy Optimization (政策优化自由模式限制学习) Jonathan Ho 、Jayesh Gupta、 Stefano Ermon 斯坦福大学
会议主席:Lihong Li
地点: Marquis
03:40 – Guided Cost Learning: Deep Inverse Optimal Control via Policy Optimization (指导成本学习: 通过策略最优化的深度逆向优化控制) Chelsea Finn、 Sergey Levine 、Pieter Abbeel 加州大学伯克利分校
03:57 – Smooth Imitation Learning for Online Sequence Prediction(在线后果预测的模仿学习) Hoang Le、Andrew Kang、 Andrew Kang , Yisong Yue 加州理工学院
04:14 – Continuous Deep Q-Learning with Model-based Acceleration(基于模型积累的连续深度Q-Learning) Shixiang Gu剑桥大学; Timothy Lillicrap Google DeepMind; Ilya Sutskever OpenAI; Sergey Levine 谷歌
04:31 – Asynchronous Methods for Deep Reinforcement Learning(深度增强式学习的异步方法)Volodymyr Mnih Google、Adria Puigdomenech Badia、Mehdi Mirza、Alex Graves 、Timothy Lillicrap、Tim Harley、David , Koray Kavukcuoglu 谷歌Deepmind
会议主席: Tom Erez
地点 : Marquis
05:10 – Estimating Maximum Expected Value through Gaussian Approximation (通过高斯近似原理预测最大期待价值) Carlo D’Eramo、 Marcello Restelli、 Alessandro Nuara米兰理工大学
05:27 – Data-Efficient Off-Policy Policy Evaluation for Reinforcement Learning( 增强式学习数据效率政策评估)Philip Thomas 、 Emma卡内基梅隆大学
05:44 – Cumulative Prospect Theory Meets Reinforcement Learning: Prediction and Control (积累前景理论遇上增强式学习:预测和控制 )Prashanth L.A、Cheng Jie, Michael Fu 、Steve Marcus马里兰大学
06:01 – Softened Approximate Policy Iteration for Markov Games Maekov(对策软化近似战略迭代)Julien Pérolat、Bilal Piot 、Matthieu Geist 、Bruno Scherrer 、Olivier Pietquin里尔大学
组合最优化
会议主席: Andreas Krause
地点: Marquis
10:30 – Algorithms for Optimizing the Ratio of Submodular Functions (子模块功能概率的算法优化 ) Wenruo Bai、Rishabh Iyer、Kai Wei、Jeff Bilmes 华盛顿大学
10:47 – Horizontally Scalable Submodular Maximization (水平扩展子模块最大化) Mario Lucic 、Olivier Bachem 苏黎世理工学院;Morteza Zadimoghaddam 、Andreas Krause 谷歌研究院
11:04 – Learning Sparse Combinatorial Representations via Two-stage Submodular Maximization( 通过两层子模块最大化学习稀疏组合代表)Eric Balkanski 、Baharan Mirzasoleiman、Andreas Krause 、Yaron Singer 苏黎世理工学院
11:40 – Fast Constrained Submodular Maximization: Personalized Data Summarization (速度限制子模块最大化:个性化数据总结)Baharan Mirzasoleiman苏黎世理工学院; Ashwinkumar Badanidiyuru 谷歌研究院; Amin Karbasi 耶鲁大学
11:57 – A Box-Constrained Approach for Hard Permutation Problems (困难排列问题的简单界约束解决方案) Cong Han Lim 、Madison、Steve Wright 威斯康辛大学
12:14 – A Convex Atomic-Norm Approach to Multiple Sequence Alignment and Motif Discovery (多序列比对和模体识别的凸面原子解决方案)Ian En-Hsu Yen 、Xin Lin 、Jiong Zhang 、Pradeep Ravikumar 特克萨斯大学奥斯丁分校
无监督学习/表征学
会议主席: Jennifer Dy
地点: Lyceum
10:30 – Nonparametric Canonical Correlation Analysis(非参数标准相关分析) Tomer Michaeli 以色列理工学院; Weiran Wang 、 Karen Livescu TTI Chicago
10:47 – The Information Sieve(信息筛)Greg Ver Steeg、Aram Galstyan 信息科技研究所
11:04 – Gromov-Wasserstein Averaging of Kernel and Distance Matrices Gromov-Wasserstein(核心和距离矩阵平均值) Gabriel Peyré、Justin Solomon 京都Marco Cuturi
11:40 – Learning Representations for Counterfactual Inference( 反事实推理的学习代表) Fredrik Johansson哥德堡科技大学;Uri Shalit 、David Sontag 纽约大学
11:57 – Why Regularized Auto-Encoders learn Sparse Representation?(为什么正规化自动编码器学习稀疏表示?) Devansh Arpit 、Yingbo Zhou、Hung Ngo、Venu Govindaraju 纽约州立大学
12:14 – Robust Random Cut Forest Based Anomaly Detection on Streams (随机森林砍伐的数据流异常检测) Sudipto Guha 宾夕法尼亚大学; Nina Mishra、Gourav Roy Amazon、Okke Schrijvers 斯坦福大学
分样/内核方法
会议主席: Marius Kloft
地点: Empire
10:30 – Mixing Rates for the Alternating Gibbs Sampler over Restricted Boltzmann Machines and Friends (受限玻尔兹曼机和朋友的混合交替吉布斯采样法) Christopher Tosh 加州大学圣地亚哥分校
10:47 – Pliable Rejection Sampling(柔软拒绝采样) Akram Erraqabi Inria、 Michal Valko、Alexandra Carpentier 、Odalric Maillard 欧洲北部里尔
11:04 – A Kernel Test of Goodness of Fit(内核拟合优化检验) Kacper Chwialkowski 、Heiko Strathman、 Arthur Gretton、 Gatsby 伦敦大学学院
11:40 – A Kernelized Stein Discrepancy for Goodness-of-fit Tests (拟合优度检验的Kernelized Stein差异) Qiang Liu 、Jason Lee、 Michael 加州大学伯克利分校
11:57 – Additive Approximations in High Dimensional Nonparametric Regression via the SALSA (通过SALSA的高维非参数回归添加剂近似)Kirthevasan Kandasamy、 Yaoliang Yu卡内基梅隆大学
12:14 – Doubly Decomposing Nonparametric Tensor Regression(双非参数张量分解回归)Masaaki Imaizumi、Kohei Hayashi 东京大学
稀疏和压缩传感
大会主席:Gal Chechik
地点: Soho
10:30 – The Information-Theoretic Requirements of Subspace Clustering with Missing Data(数据缺失子空间聚类的信息理论要求)Daniel Pimentel-Alarcon 、Robert Nowak 麦迪逊大学
10:47 – Robust Principal Component Analysis with Side Information(稳健的边信息主成分分析)Kai-Yang Chiang德州大学奥斯丁分校; Cho-Jui Hsieh加州大学戴维斯分校
11:04 – Online Low-Rank Subspace Clustering by Basis Dictionary Pursuit(通过基础字典追踪的在线低秩子空间聚类)Jie Shen、Ping Li、Huan Xu 罗格斯大学
11:40 – Provable Non-convex Phase Retrieval with Outliers: Median TruncatedWirtinger Flow(可证明的非凸和离群值相位检索:中位数TruncatedWirtinger流)Huishuai Zhan、Yingbin Liang 雪城大学; Yuejie Chi 俄亥俄州立大学
11:57 – Estimating Structured Vector Autoregressive Models(估算结构向量自回归模型)Igor Melnyk、Arindam Banerjee 明尼苏达州
12:14 – Towards Faster Rates and Oracle Property for Low-Rank Matrix Estimation(关于低质矩阵估计更快的效率和Oracle财产) Huan Gui、Jiawei Han 伊利诺伊大学
近似推理
会议主席: Jon Mcauliffe
地点: Liberty
10:30 – Hierarchical Variational Models(分层变分模型)Rajesh Ranganath , Dustin Tran 、Blei David 哥伦比亚大学
10:47 – A Variational Analysis of Stochastic Gradient Algorithms(变分分析随机梯度算法)Stephan Mandt、Blei David哥伦比亚大学;Matthew Hoffman Adobe研究所
11:04 – Black-Box Alpha Divergence Minimization(黑盒α差异最小化)Jose miguel Hernandez-Lobato , Yingzhen Li、 Mark Rowland、Thang Bui、Daniel Hernandez-Lobato 、Richard Turner 剑桥大学
11:40 – Variational Inference for Monte Carlo Objectives(蒙特卡罗目标变分推理)Andriy Mnih , Danilo Rezende 谷歌 DeepMind
11:57 – Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning (作为贝叶斯估计的Dropout:代表深度学习模块的不确定性)Yarin Gal 剑桥大学
12:14 – Auxiliary Deep Generative Models(辅助深度生成模型)Lars Maaløe、Ole Winther 丹麦技术大学, Casper Kaae Sønderby 、Søren Kaae Sønderby 哥本哈根大学
神经网络和深度学习I
会议主席: Nicolas Le Roux
地点: Ballroom 1+2+Juliard
03:40 – Factored Temporal Sigmoid Belief Networks for Sequence Learning (序列学习因式分解函数信念网络)Jiaming Song清华大学; Zhe Gan、Lawrence Carin 杜克大学
03:57 – Bidirectional Helmholtz Machines(双向亥姆霍兹机器) Jorg Bornschein、Samira Shabanian 、Asja Fischer 、Yoshua Bengio 蒙特利尔大学
04:14 – Structured and Efficient Variational Deep Learning with Matrix Gaussian Posteriors (结构化和有效的变分矩阵高斯后验深度学习)Christos Louizos、Max Welling 阿姆斯特丹大学
04:31 – Dropout distillation (Dropout蒸馏)Samuel Rota Bulò FBK, Lorenzo Porzi FBK, Peter Kontschieder 剑桥微软研究院
会议主席: Yoshua Bengio
地点: Ballroom 1+2+Juliard
05:10 – Expressiveness of Rectifier Networks(整流器网络的表达)Xingyuan Pan、Vivek Srikumar 犹他大学
05:27 – Convolutional Rectifier Networks as Generalized Tensor Decompositions(卷积整流器网络广义张量分解)Nadav Cohen、Amnon Shashua Mobileye耶路撒冷希伯来大学
05:44 – Fixed Point Quantization of Deep Convolutional Networks(深度卷积网络的点定量化)Darryl Lin、Sachin Talathi 高通研究所;Sreekanth Annapureddy NetraDyne公司
06:01 – CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy (CryptoNets::将神经网络运用于高生产量和准确度的加密数据 ) Ran Gilad-Bachrach、Nathan Dowlin Princeton、Kim Laine、Kristin Lauter、Michael Naehrig 、John Wernsing 微软研究所
神经网络和深度学习II
会议主席: Alexandru Niculescu-Mizil
地点: Ballroom 3+4
03:40 – Revisiting Semi-Supervised Learning with Graph Embeddings (图形嵌入半监督学习回顾) Zhilin Yang、William Cohen卡耐基梅隆大学Ruslan Salakhudinov 多伦多大学
03:57 – ADIOS: Architectures Deep In Output Space ( ADIOS: 输出空间架构深度)Moustapha Cisse 、 Maruan Al-Shedivat卡耐基梅隆大学; Samy Bengio 谷歌
04:14 – Unsupervised Deep Embedding for Clustering Analysis(深度嵌入的无监督聚类分析) Junyuan Xie、Ali Farhadi 华盛顿大学; Ross Girshick Facebook ;
04:31 – Learning Convolutional Neural Networks for Graphs(卷积神经网络图学习)Mathias Niepert 、Mohamed Ahmed ;Konstantin Kutzkov NEC 欧洲实验室
会议主席: David Sontag
地点: Ballroom 3+4
05:10 – Correcting Forecasts with Multifactor Neural Attention (多因子神经关注纠正预测)Matthew Riemer、 Aditya Vempaty、Flavio Calmon、Fenno Heath、Richard Hull、Elham Khabiri IBM
05:27 – Meta-Learning with Memory-Augmented Neural Networks Memory-Augmented(神经网络元学习)Adam Santoro、Matthew Botvinick 、Daan Wierstra、Timothy Lillicrap 谷歌DeepMind Sergey Bartunov 高级经济学院
05:44 – Learning Simple Algorithms from Examples( 简单算法的示例学习) Wojciech Zaremba , Tomas , Armand Joulin , Rob Fergus Facebook AI研究所
06:01 – Associative Long Short-Term Memory(长短期记忆联想) Ivo Danihelka 、Greg Wayne 、Benigno Uria 、 Nal Kalchbrenner 、Alex Graves 谷歌DeepMind
Via: ICML@NYC