一、对抗攻击(Adversarial Attack)
1.1.Adversarial Attacks on Node Embeddings via Graph Poisoning
一般来说,paper或者是新方法新理论,或者是新应用新场景。本文属于后者(对基于随机游走(Random walks)方法的图模型的攻击)。
LINK:http://proceedings.mlr.press/v97/bojchevski19a.html
1.2.Adversarial camera stickers: A physical camera-based attack on deep learning systems
新应用新场景(通过在相机上粘贴纸来达到对抗攻击的目的)。
LINK:https://arxiv.org/pdf/1904.00759.pdf
二、对抗防御
对抗防御一般可以从预处理、detector等等角度入手。ICML2019入选的对抗防御论文中就有这些方向的工作。
2.1.Using Pre-Training Can Improve Model Robustness and Uncertainty
如题,探讨预训练在提高网络鲁棒性等方面的作用。
LINK:https://arxiv.org/pdf/1901.09960v1.pdf
2.2.Improving Adversarial Robustness via Promoting Ensemble Diversity
该paper探索了单一网络之间的交互,定义了集成多样性(ensemble diversity),并且采用了ADP正则器(Adapative Diversity Promoting regularizer)来鼓励多样性。
LINK:https://arxiv.org/pdf/1901.08846.pdf
CODE:https://github.com/P2333/Adaptive-Diversity-Promoting
2.3.On Certifying Non-Uniform Bounds against Adversarial Attacks
本文旨在寻找adversary-free的区域,并且与之前采用uniform bound的工作不同,本文采用non-uniform bound并且以之来作为神经网络模型的决策边界。
LINK:https://arxiv.org/pdf/1903.06603v1.pdf
三、其他角度谈对抗样本
有些论文是讨论对抗样本产生原因以及一些界限验证方面的工作。
3.1. First-Order Adversarial Vulnerability of Neural Networks and Input Dimension
本文探讨网络脆弱性与梯度之间的关系,而且发现网络脆弱性不依赖于网络拓扑结构(network topology)。
3.2.Adversarial examples from computational constraints
本文认为对抗样本产生的原因更多地不是因为信息理论的限制而是因为计算约束。对抗样本很有可能由于学习算法的计算局限性而无法避免。
LINK:https://arxiv.org/pdf/1805.10204v1.pdf