ICML神经网络和深度学习日程表(周二下)

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  
优化(连续)

会议主席: Le Song

地点: Lyceum

03:40 – On the Statistical Limits of Convex Relaxations(关于凸松弛的统计范围)Zhaoran Wang 、Quanquan Gu , Han普林斯顿大学

03:57 – Faster Convex Optimization: Simulated Annealing with an Efficient Universal Barrier(更快的凸优化: 有效的普遍障碍的模拟退火法)Jacob Abernethy 密歇根大学; Elad Hazan普林斯顿大学

04:14 – A ranking approach to global optimization(全球优化排列方法) Cedric Malherbe ENS Cachan, Emile Contal、Nicolas Vayatis卡桑高等师范学院

04:31 – Epigraph projections for fast general convex programming (快速一般凸规划的题词预测) Po-Wei Wang、Matt Wytock、Zico卡耐基梅隆大学

大会主席: Tong Zhang

地点: Lyceum

05:10 – Low-rank Solutions of Linear Matrix Equations via Procrustes Flow(通过Procrustes Flow的线性矩阵方程解决方法)Stephen Tu、Ross Boczar、Max Simchowitz、mahdi Soltanolkotabi、 Ben Recht 加州大学伯克利分校

05:27 – Quadratic Optimization with Orthogonality Constraints: Explicit Lojasiewicz Exponent and Linear Convergence of Line-Search Methods (正交约束的二次优化:线搜索方法的明确Lojasiewicz指数和线性收敛)Huikang Liu 、Weijie Wu、Anthony Man-Cho 香港中文大学

05:44 – Efficient Algorithms for Large-scale Generalized Eigenvector Computation and Canonical Correlation Analysis(高效的算法对大规模广义特征向量计算和典型相关分析)Rong Ge , Chi Jin加州大学伯克利分校; Sham , Praneeth Netrapalli 、Aaron Sidford微软研究所

06:01 – Matrix Eigen-decomposition via Doubly Stochastic Riemannian Optimization(通过双随机矩阵协黎曼优化的矩阵分解) Zhiqiang Xu Infocomm研究所; Peilin Zhao 、Jianneng Cao Xiaoli Li I2R, ASTAR

矩阵分解及相关主题

会议主席:Roger Grosse

地点:Empire

03:40 – Principal Component Projection Without Principal Component Analysis (没有主元件分析的主元件投影)Roy Frostig 斯坦福大学;Cameron Musco、Christopher Musco Mass 麻省理工学院;Aaron Sidford 微软新英格兰研究所

03:57 – Recovery guarantee of weighted low-rank approximation via alternating minimization (通过交替最小化的加权低秩逼近的恢复保证)Yuanzhi Li、Yingyu Liang、Andrej Risteski 普林斯顿大学

04:14 – Tensor Decomposition via Joint Matrix Schur Decomposition(张量分解通过联合矩阵的舒尔分解)Nicolo Colombo 卢森堡大学;Nikos Vlassis 美国Adobe公司

04:31 – Fast methods for estimating the Numerical rank of large matrices (评估大矩阵数值秩的快速方法)Shashanka Ubaru、Yousef Saad 明尼苏达大学

无监督学习/应用

会议主席:Jeff Bilmes

地点:Soho

03:40 – Markov-modulated Marked Poisson Processes for Check-in Data(用于检查数据的马尔可夫调制标记的泊松过程)Jiangwei Pan、Pankaj Agarwal、 Alan Gelfand 美国杜克大学;Vinayak Rao 美国珀杜大学

03:57 – Hierarchical Compound Poisson Factorization(层次复合泊松分解)Mehmet Basbug 普林斯顿大学;Barbara Engelhardt

04:14 – Dirichlet Process Mixture Model for Correcting Technical Variation in Single-Cell Gene Expression Data (在单细胞的基因表达数据校正技术变化的狄利克雷过程混合模型)Sandhya Prabhakaran、Elham Azizi、Ambrose Carr、Dana Pe’er 哥伦比亚大学

04:31 – Automatic Construction of Nonparametric Relational Regression Models for Multiple Time Series (多时间序列的非参数关系回归模型的自动构建)Yunseong Hwang、Anh Tong、Jaesik Choi 软件技术研究所(UNIST)

学习理论

会议主席:Jon Mcauliffe

地点:Liberty

03:40 – Truthful Univariate Estimators (真实单变量评估)Ioannis Caragiannis 佩特雷大; Ariel Procaccia、Nisarg Shah 卡内基梅隆大学 

03:57 – Fast Algorithms for Segmented Regression (分段回归的快速算法)Jayadev Acharya 、Jerry Li 麻省理工学院; Ilias Diakonikolas;Ludwig Schmidt

04:14 – Stochastically Transitive Models for Pairwise Comparisons: Statistical and Computational Issues (成对比较随机传递模型:统计与计算问题)Nihar Shah、Aditya Guntuboyina、 Martin Wainwright 加州大学伯克利分校;Sivaraman Balakrishnan 剑桥管理机构;

04:31 – Provable Algorithms for Inference in Topic Models (在主题模型中推理可证明的算法)Sanjeev Arora、Frederic Koehler、Tengyu Ma 普林斯顿大学;Ankur Moitra

03:57 – Fast Algorithms for Segmented Regression (分段回归的快速算法)Jayadev Acharya 、Jerry Li 麻省理工学院; Ilias Diakonikolas;Ludwig Schmidt

04:14 – Stochastically Transitive Models for Pairwise Comparisons: Statistical and Computational Issues (成对比较随机传递模型:统计与计算问题)Nihar Shah、Aditya Guntuboyina、 Martin Wainwright 加州大学伯克利分校;Sivaraman Balakrishnan 剑桥管理机构;

大规模学习与大数据

会议主席:Andreas Krause

地点:Empire

05:10 – Extreme F-measure Maximization using Sparse Probability Estimates (极端值最大化利用极低概率评估) Kalina Jasinska , Krzysztof Dembczynski、Robert Busa-Fekete、Karlson Pfannschmidt、Timo Klerx、 Eyke Hullermeier

05:27 – Stochastic Optimization for Multiview Representation Learning using Partial Least Square s(利用偏最小二乘法随机最优化多视图表示学习)Raman Arora 、Poorya Mianjy 约翰霍普金斯大学;Teodor Marinov

05:44 – Gaussian quadrature for matrix inverse forms with applications(矩阵逆形式的高斯积分及其应用)Chengtao Li 、Suvrit Sra、Stefanie Jegelka 麻省理工学院

06:01 – A Subspace Learning Approach for High Dimensional Matrix Decomposition with Efficient Column/Row Sampling (高效列/行采样的高维矩阵分解的子空间学习方法)Mostafa Rahmani、Geroge Atia 中佛罗里达大学

图模型

会议主席:Jun Zhu

地点:Soho

05:10 – Uprooting and Rerooting Graphical Models 图模型根除与重制 Adrian Weller 剑桥大学

05:27 – Structure Learning of Partitioned Markov Networks 马尔可夫网络分区的结构学习 Song Liu、Kenji Fukumizu国家数学统计研究所,Taiji Suzuki 、Masashi Sugiyama 东京大学  

05:44 – Ensuring Rapid Mixing and Low Bias for Asynchronous Gibbs Sampling 使用快速混合和低偏置确保异步吉布斯采样 Christopher De Sa、Chris Re、Kunle Olukotun 斯坦福大学

06:01 – Estimation from Indirect Supervision with Linear Moments 线性矩间接监督的评估,Aditi Raghunathan、Roy Frostig、Percy Liang 斯坦福大学

监督式学习

会议主席:Nicolas Le Roux

地点:Liberty

05:10- Early and Reliable Event Detection Using Proximity Space Representation使用近似空间战士的早期和可靠时间检测 Maxime Sangnier 法国科学研究中心;Jerome Gauthier、Alain Rakotomamonjy消费电子协会

05:27- Meta–Gradient Boosted Decision Tree Model for Weight and Target Learning 权重与目标学习的元梯度加权决策树模型,Yury Ustinovskiy、Valentina Fedorova、Gleb Gusev、Pavel Serdyukov 俄罗斯Yandex公司

05:44 – Differential Geometric Regularization for Supervised Learning of Classifiers 微分几何正则化下的有监督学习式分类器,Qinxun Bai、Steven Rosenberg、Stan Sclaroff  波士顿大学,Zheng Wu 美国MathWorks公司

06:01 – Linking losses for density ratio and class-probability estimation 密度比和分级概率评估的链接损耗,Aditya Menon、Cheng Soon Ong 澳大利亚信息与通信技术机构

Via:  ICML@NYC

随意打赏

深度学习 神经网络卷积神经网络深度学习算法深度神经网络icml
提交建议
微信扫一扫,分享给好友吧。