ICML神经网络和深度学习日程表(周二)

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

神经网络 和深度学习

大会主席:Hal Daume III

地点: Ballroom 1+2+Juliard

10:30:Strongly-Typed Recurrent Neural Networks(强类型递归神经网络)  David Balduzzi、 Muhammad Ghifary 惠灵顿维多利亚大学

10:47: A Convolutional Attention Network for Extreme Summarization of Source Code (源代码极端总结卷积关注网络) Miltiadis Allamanis 爱丁堡大学;Hao Peng 北京大学

11:04:Ask Me Anything: Dynamic Memory Networks for Natural Language Processing (问我任何事:自然语言程序动态记忆网络)Ankit Kumar、 Ozan Irsoy 、 Peter Ondruska、 Mohit Iyyer 、James Bradbury、 Ishaan Gulrajani、Victor Zhong、Romain Paulus   MetaMind公司

11:40:Dynamic Memory Networks for Visual and Textual Question Answering (视觉动态记忆网络和文字问题问答)  Caiming Xiong、Stephen Merity MetaMind公司

11:57: Supervised and Semi-Supervised Text Categorization using LSTM for Region Embeddings( 使用LSTM地区嵌入的监督和半监督文字分类 )Rie Johnson RJ调查咨询公司

12:14:PHOG: Probabilistic Model for Code(PHOG:代码概率模型 )Pavol Bielik、Veselin Raychev、Martin Vechev  苏黎世联邦理工学院

增强式学习

会议主席: Tom Erez

地点: Ballroom 3+4

  10:30 –  On the Analysis of Complex Backup Strategies in Monte Carlo Tree Search (关于 蒙特卡洛树搜索复杂支撑战略的分析) Piyush Khandelwal、Elad Liebman 、cott 、Peter Stone U 德克萨斯大学奥斯汀分校

10:47 –  Generalization and Exploration via Randomized Value Functions (随机化价值功能归纳和探索) Ian Osband 、 Benjamin Van Roy 斯坦福大学;Zheng Wen Adobe 研究所

11:04 –  Doubly Robust Off-policy Value Evaluation for Reinforcement Learning(增强式学习价值评估策略) Nan Jiang密歇根大学; Lihong Li 微软

11:40 –  Near Optimal Behavior via Approximate State Abstraction(通过近似状态抽象的最优行为) David Abel 、 David Hershkowitz、 Michael Littman 布朗大学

11:57 –Model-Free Trajectory Optimization\\ for Reinforcement Learning (增强式学习自由模式轨道优化)Riad Akrour 、 Gerhard Neumann 、 Hany Abdulsamad、Abbas Abdolmaleki 达姆施塔特工业大学

12:14 – Model-Free Imitation Learning with Policy Optimization (政策优化自由模式限制学习) Jonathan Ho 、Jayesh Gupta、 Stefano Ermon 斯坦福大学

会议主席:Lihong Li

地点: Marquis

03:40 – Guided Cost Learning: Deep Inverse Optimal Control via Policy Optimization (指导成本学习: 通过策略最优化的深度逆向优化控制) Chelsea Finn、 Sergey Levine 、Pieter Abbeel  加州大学伯克利分校

03:57 –  Smooth Imitation Learning for Online Sequence Prediction(在线后果预测的模仿学习)  Hoang Le、Andrew Kang、 Andrew Kang , Yisong Yue 加州理工学院

04:14 –  Continuous Deep Q-Learning with Model-based Acceleration(基于模型积累的连续深度Q-Learning) Shixiang Gu剑桥大学; Timothy Lillicrap Google DeepMind; Ilya Sutskever OpenAI; Sergey Levine 谷歌

04:31 –   Asynchronous Methods for Deep Reinforcement Learning(深度增强式学习的异步方法)Volodymyr Mnih Google、Adria Puigdomenech Badia、Mehdi Mirza、Alex Graves 、Timothy Lillicrap、Tim Harley、David , Koray Kavukcuoglu 谷歌Deepmind

会议主席: Tom Erez

地点 : Marquis

05:10 – Estimating Maximum Expected Value through Gaussian Approximation  (通过高斯近似原理预测最大期待价值) Carlo D’Eramo、 Marcello Restelli、 Alessandro Nuara米兰理工大学

05:27 – Data-Efficient Off-Policy Policy Evaluation for Reinforcement Learning( 增强式学习数据效率政策评估)Philip Thomas 、 Emma卡内基梅隆大学

05:44 – Cumulative Prospect Theory Meets Reinforcement Learning: Prediction and Control (积累前景理论遇上增强式学习:预测和控制 )Prashanth L.A、Cheng Jie, Michael Fu 、Steve Marcus马里兰大学

06:01 – Softened Approximate Policy Iteration for Markov Games Maekov(对策软化近似战略迭代)Julien Pérolat、Bilal Piot 、Matthieu Geist 、Bruno Scherrer 、Olivier Pietquin里尔大学

组合最优化

会议主席: Andreas Krause

地点: Marquis

10:30 – Algorithms for Optimizing the Ratio of Submodular Functions (子模块功能概率的算法优化 ) Wenruo Bai、Rishabh Iyer、Kai Wei、Jeff Bilmes 华盛顿大学

10:47 – Horizontally Scalable Submodular Maximization (水平扩展子模块最大化) Mario Lucic 、Olivier Bachem 苏黎世理工学院;Morteza Zadimoghaddam 、Andreas Krause 谷歌研究院

11:04 – Learning Sparse Combinatorial Representations via Two-stage Submodular Maximization( 通过两层子模块最大化学习稀疏组合代表)Eric Balkanski 、Baharan Mirzasoleiman、Andreas Krause 、Yaron Singer 苏黎世理工学院

11:40 – Fast Constrained Submodular Maximization: Personalized Data Summarization (速度限制子模块最大化:个性化数据总结)Baharan Mirzasoleiman苏黎世理工学院; Ashwinkumar Badanidiyuru 谷歌研究院; Amin Karbasi 耶鲁大学

11:57 – A Box-Constrained Approach for Hard Permutation Problems (困难排列问题的简单界约束解决方案) Cong Han Lim 、Madison、Steve Wright 威斯康辛大学

12:14 – A Convex Atomic-Norm Approach to Multiple Sequence Alignment and Motif Discovery  (多序列比对和模体识别的凸面原子解决方案)Ian En-Hsu Yen 、Xin Lin 、Jiong Zhang 、Pradeep Ravikumar 特克萨斯大学奥斯丁分校

无监督学习/表征学

  会议主席: Jennifer Dy

  地点: Lyceum

10:30 – Nonparametric Canonical Correlation Analysis(非参数标准相关分析) Tomer Michaeli 以色列理工学院; Weiran Wang 、 Karen Livescu TTI Chicago

10:47 – The Information Sieve(信息筛)Greg Ver Steeg、Aram Galstyan 信息科技研究所

11:04 – Gromov-Wasserstein Averaging of Kernel and Distance Matrices Gromov-Wasserstein(核心和距离矩阵平均值) Gabriel Peyré、Justin Solomon 京都Marco Cuturi

11:40 – Learning Representations for Counterfactual Inference( 反事实推理的学习代表) Fredrik Johansson哥德堡科技大学;Uri Shalit 、David Sontag 纽约大学

11:57 – Why Regularized Auto-Encoders learn Sparse Representation?(为什么正规化自动编码器学习稀疏表示?) Devansh Arpit 、Yingbo Zhou、Hung Ngo、Venu Govindaraju 纽约州立大学

12:14 – Robust Random Cut Forest Based Anomaly Detection on Streams (随机森林砍伐的数据流异常检测) Sudipto Guha 宾夕法尼亚大学; Nina Mishra、Gourav Roy Amazon、Okke Schrijvers 斯坦福大学

分样/内核方法

会议主席: Marius Kloft

地点: Empire

10:30 – Mixing Rates for the Alternating Gibbs Sampler over Restricted Boltzmann Machines and Friends (受限玻尔兹曼机和朋友的混合交替吉布斯采样法) Christopher Tosh 加州大学圣地亚哥分校

10:47 – Pliable Rejection Sampling(柔软拒绝采样) Akram Erraqabi Inria、 Michal Valko、Alexandra Carpentier 、Odalric Maillard 欧洲北部里尔

11:04 – A Kernel Test of Goodness of Fit(内核拟合优化检验) Kacper Chwialkowski 、Heiko Strathman、 Arthur Gretton、 Gatsby 伦敦大学学院

11:40 – A Kernelized Stein Discrepancy for Goodness-of-fit Tests (拟合优度检验的Kernelized Stein差异) Qiang Liu 、Jason Lee、 Michael 加州大学伯克利分校

11:57 – Additive Approximations in High Dimensional Nonparametric Regression via the SALSA (通过SALSA的高维非参数回归添加剂近似)Kirthevasan Kandasamy、 Yaoliang Yu卡内基梅隆大学

12:14 – Doubly Decomposing Nonparametric Tensor Regression(双非参数张量分解回归)Masaaki Imaizumi、Kohei Hayashi 东京大学

稀疏和压缩传感

大会主席:Gal Chechik

地点: Soho

10:30 – The Information-Theoretic Requirements of Subspace Clustering with Missing Data(数据缺失子空间聚类的信息理论要求)Daniel Pimentel-Alarcon 、Robert Nowak 麦迪逊大学

10:47 – Robust Principal Component Analysis with Side Information(稳健的边信息主成分分析)Kai-Yang Chiang德州大学奥斯丁分校; Cho-Jui Hsieh加州大学戴维斯分校

11:04 – Online Low-Rank Subspace Clustering by Basis Dictionary Pursuit(通过基础字典追踪的在线低秩子空间聚类)Jie Shen、Ping Li、Huan Xu 罗格斯大学

11:40 – Provable Non-convex Phase Retrieval with Outliers: Median TruncatedWirtinger Flow(可证明的非凸和离群值相位检索:中位数TruncatedWirtinger流)Huishuai Zhan、Yingbin Liang 雪城大学; Yuejie Chi 俄亥俄州立大学

11:57 – Estimating Structured Vector Autoregressive Models(估算结构向量自回归模型)Igor Melnyk、Arindam Banerjee 明尼苏达州

12:14 – Towards Faster Rates and Oracle Property for Low-Rank Matrix Estimation(关于低质矩阵估计更快的效率和Oracle财产) Huan Gui、Jiawei Han 伊利诺伊大学

近似推理

会议主席: Jon Mcauliffe

地点: Liberty

10:30 – Hierarchical Variational Models(分层变分模型)Rajesh Ranganath , Dustin Tran 、Blei David 哥伦比亚大学

10:47 – A Variational Analysis of Stochastic Gradient Algorithms(变分分析随机梯度算法)Stephan Mandt、Blei David哥伦比亚大学;Matthew Hoffman Adobe研究所

11:04 – Black-Box Alpha Divergence Minimization(黑盒α差异最小化)Jose miguel Hernandez-Lobato , Yingzhen Li、 Mark Rowland、Thang Bui、Daniel Hernandez-Lobato 、Richard Turner 剑桥大学

11:40 – Variational Inference for Monte Carlo Objectives(蒙特卡罗目标变分推理)Andriy Mnih , Danilo Rezende 谷歌 DeepMind

11:57 – Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning (作为贝叶斯估计的Dropout:代表深度学习模块的不确定性)Yarin Gal 剑桥大学

12:14 – Auxiliary Deep Generative Models(辅助深度生成模型)Lars Maaløe、Ole Winther 丹麦技术大学, Casper Kaae Sønderby 、Søren Kaae Sønderby 哥本哈根大学

神经网络和深度学习I

会议主席: Nicolas Le Roux

地点: Ballroom 1+2+Juliard

03:40 – Factored Temporal Sigmoid Belief Networks for Sequence Learning (序列学习因式分解函数信念网络)Jiaming Song清华大学; Zhe Gan、Lawrence Carin 杜克大学

03:57 – Bidirectional Helmholtz Machines(双向亥姆霍兹机器) Jorg Bornschein、Samira Shabanian 、Asja Fischer 、Yoshua Bengio 蒙特利尔大学

04:14 – Structured and Efficient Variational Deep Learning with Matrix Gaussian Posteriors (结构化和有效的变分矩阵高斯后验深度学习)Christos Louizos、Max Welling 阿姆斯特丹大学

04:31 – Dropout distillation (Dropout蒸馏)Samuel Rota Bulò FBK, Lorenzo Porzi FBK, Peter Kontschieder 剑桥微软研究院

  会议主席: Yoshua Bengio

  地点: Ballroom 1+2+Juliard

05:10 – Expressiveness of Rectifier Networks(整流器网络的表达)Xingyuan Pan、Vivek Srikumar 犹他大学

05:27 – Convolutional Rectifier Networks as Generalized Tensor Decompositions(卷积整流器网络广义张量分解)Nadav Cohen、Amnon Shashua Mobileye耶路撒冷希伯来大学

05:44 – Fixed Point Quantization of Deep Convolutional Networks(深度卷积网络的点定量化)Darryl Lin、Sachin Talathi 高通研究所;Sreekanth Annapureddy NetraDyne公司

06:01 – CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy  (CryptoNets::将神经网络运用于高生产量和准确度的加密数据 ) Ran Gilad-Bachrach、Nathan Dowlin Princeton、Kim Laine、Kristin Lauter、Michael Naehrig 、John Wernsing 微软研究所

神经网络和深度学习II

会议主席: Alexandru Niculescu-Mizil

地点: Ballroom 3+4

03:40 – Revisiting Semi-Supervised Learning with Graph Embeddings  (图形嵌入半监督学习回顾)   Zhilin Yang、William Cohen卡耐基梅隆大学Ruslan Salakhudinov 多伦多大学

03:57 – ADIOS: Architectures Deep In Output Space ( ADIOS: 输出空间架构深度)Moustapha Cisse 、 Maruan Al-Shedivat卡耐基梅隆大学; Samy Bengio 谷歌

04:14 – Unsupervised Deep Embedding for Clustering Analysis(深度嵌入的无监督聚类分析) Junyuan Xie、Ali Farhadi 华盛顿大学; Ross Girshick Facebook ;

04:31 – Learning Convolutional Neural Networks for Graphs(卷积神经网络图学习)Mathias Niepert 、Mohamed Ahmed ;Konstantin Kutzkov NEC 欧洲实验室

会议主席: David Sontag

地点: Ballroom 3+4

05:10 – Correcting Forecasts with Multifactor Neural Attention  (多因子神经关注纠正预测)Matthew Riemer、 Aditya Vempaty、Flavio Calmon、Fenno Heath、Richard Hull、Elham Khabiri IBM

05:27 – Meta-Learning with Memory-Augmented Neural Networks Memory-Augmented(神经网络元学习)Adam Santoro、Matthew Botvinick 、Daan Wierstra、Timothy Lillicrap 谷歌DeepMind Sergey Bartunov 高级经济学院

05:44 – Learning Simple Algorithms from Examples( 简单算法的示例学习) Wojciech Zaremba , Tomas , Armand Joulin , Rob Fergus Facebook AI研究所

06:01 – Associative Long Short-Term Memory(长短期记忆联想) Ivo Danihelka 、Greg Wayne 、Benigno Uria 、 Nal Kalchbrenner 、Alex Graves 谷歌DeepMind

Via: ICML@NYC

随意打赏

深度学习 神经网络卷积神经网络深度学习算法深度神经网络
提交建议
微信扫一扫,分享给好友吧。