一览 CMU 的 33 篇 ICML 2019 论文
雷锋网 AI 科技评论按:机器学习顶会 ICML 2019 近期公布了接收论文清单,多家企业研究院也按惯例介绍了自己的录用论文。不过新鲜的是,今年卡耐基梅隆大学(CMU)也专门发博客列出了来自 CMU 师生的录用论文,一共有 33 篇之多。其实 UC 伯克利、斯坦福、CMU 等计算机领域实力很强的高校每年都有许多顶会论文,多样性和深度也都很好,但是宣传力度往往比不上企业级 AI 研究机构。所以 CMU 这篇博客也提醒了各位不要忘了顶级高校的学术实力,到时参会的研究人员也可以到他们的海报前一期讨论这些前沿研究进展。
雷锋网 AI 科技评论把论文列表简单介绍如下。
-
Statistical Foundations of Virtual Democracy
-
“虚拟民主”算法的统计学基础
-
https://procaccia.info/papers/virtual.pdf
-
TarMAC: Targeted Multi-Agent Communication
-
TarMAC:有目标的多智能体通讯
-
https://arxiv.org/abs/1810.11187
-
A Kernel Theory of Modern Data Augmentation
-
现代数据扩增的一种核理论
-
https://arxiv.org/abs/1803.06084
-
Myopic Posterior Sampling for Adaptive Goal Oriented Design of Experiments
-
用于适应性目标向的实验设计的短视后验抽样
-
Nearest neighbor and kernel survival analysis: Nonasymptotic error bounds and strong consistency rates
-
最近邻以及核生存方法的分析:非渐近性的错误边界以及强相关性率
-
Policy Certificates: Towards Accountable Reinforcement Learning
-
策略证书:向着可靠的强化学习
-
https://arxiv.org/abs/1811.03056
-
Deep Counterfactual Regret Minimization
-
深度反事实后悔最小化方法
-
https://arxiv.org/abs/1811.00164
-
Domain Adaptation with Asymmetrically-Relaxed Distribution Alignment
-
通过非对称释放的分布对齐进行的领域适应
-
https://arxiv.org/abs/1903.01689
-
(有趣的是,这篇论文第一作者的名字是 Yifan Wu)
-
Provably efficient RL with Rich Observations via Latent State Decoding
-
通过潜状态编码实现丰富观察,得到可证明的高效强化学习
-
https://arxiv.org/abs/1901.09018
-
A Baseline for Any Order Gradient Estimation in Stochastic Computation Graphs
-
可以用于任意阶的随机计算图的梯度估计的基线方法
-
Gradient Descent Finds Global Minima of Deep Neural Networks
-
梯度下降可以找到深度神经网络的局部极小值
-
https://arxiv.org/abs/1811.03804
-
Stable-Predictive Optimistic Counterfactual Regret Minimization
-
稳定预测的乐观反事实后悔最小化方法
-
https://arxiv.org/abs/1902.04982
-
Regret Circuits: Composability of Regret Minimizers
-
后悔循环:不同后悔最小化方法的可组合性
-
https://arxiv.org/abs/1811.02540
-
Provable Guarantees for Gradient-Based MetaLearning
-
基于梯度的元学习方法的可证明的保证
-
https://arxiv.org/abs/1902.10644
-
Dimensionality Reduction for Tukey Regression
-
土耳其回归方法的降维
-
Certified Adversarial Robustness via Randomized Smoothing
-
通过随机平滑达到可证明的对抗性鲁棒性
-
https://arxiv.org/abs/1902.02918
-
Provably Efficient Imitation Learning from Observation Alone
-
证明仅仅从观察就可以实现高效的模仿学习
-
SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver
-
SATNet:通过可微分可满足性解算器连接深度学习和逻辑推理
-
Collective Model Fusion for Multiple Black-Box Experts
-
多个黑盒专家的群体模型融合方法
-
https://kingsfordlab.cbd.cmu.edu/publication/hoang-2019-fusion
-
Fine-Grained Analysis of Optimization and Generalization for Overparameterized Two-Layer Neural Networks
-
过参数化的双层神经网络的优化及泛化性的细粒度分析
-
https://arxiv.org/abs/1901.08584
-
Width Provably Matters in Optimization for Deep Linear Neural Networks
-
在深度线性神经网络中证明宽度也有作用
-
https://arxiv.org/abs/1901.08572
-
Causal Discovery and Forecasting in Nonstationary Environments with State-Space Models
-
在非固定环境下用状态空间模型进行因素发现和预测
-
Uniform Convergence Rate of the Kernel Density Estimator Adaptive to Intrinsic Volume Dimension
-
让核密度估计器的统一化收敛速度适应本征体积维度
-
https://arxiv.org/abs/1810.05935
-
Faster Algorithms for Boolean Matrix Factorization
-
更快的布尔矩阵分解算法
-
Contextual Memory Trees
-
背景记忆树
-
https://arxiv.org/abs/1807.06473
-
Fault Tolerance in Iterative-Convergent Machine Learning
-
迭代收敛机器学习方法的错误容忍度的研究
-
https://arxiv.org/abs/1810.07354
-
Wasserstein Adversarial Examples via Projected Sinkhorn Iterations
-
通过投影 Sinkhorn 迭代生成 Wasserstein 对抗样本
-
https://arxiv.org/abs/1902.07906
-
Learning to Explore via Disagreement
-
通过不一致学习探索
-
What is the Effect of Importance Weighting in Deep Learning?
-
深度学习中重要性权重的效果是什么?
-
https://arxiv.org/abs/1812.03372
-
Adversarial camera stickers: A physical camera-based attack on deep learning systems
-
对抗性相机贴纸:针对深度学习系统的基于物理摄像机的攻击
-
https://arxiv.org/abs/1904.00759
-
On Learning Invariant Representation for Domain Adaptation
-
关于为领域适应学习不变的表征
-
https://arxiv.org/abs/1901.09453
-
Finding Options that Minimize Planning Time
-
寻找能够减少规划时间的方法
-
https://arxiv.org/abs/1810.07311
-
Tight Kernel Query Complexity of Kernel Ridge
-
核岭回归的核查询复杂度分析
ICML 2019 将于今年 6 月 10 日至 15 日在美国加州长滩举行。雷锋网 (公众号:雷锋网) AI 科技评论到时也会进行多方位的报道,敬请继续关注。
。