TRAINING CONFIDENCE-CALIBRATED CLASSIFIERS FOR DETECTING OUT-OF-DISTRIBUTION SAMPLES

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_23225317/article/details/82995445

ICLR-2018

ABSTRACT

在许多现实世界的机器学习应用中出现了检测测试样本是否来自分布内(即,分类器的训练分布)或者与其分离的分布不均匀的问题。然而,已知现有技术的深度神经网络在其预测中高度过度自信,即,不区分分布内和分布。最近,为了处理这个问题,已经提出了几种基于阈值的检测器,给出了预训练的神经分类器。然而,先前作品的表现在很大程度上取决于如何训练分类器,因为它们只关注改进推理程序。在本文中,我们开发了一种新的分类器训练方法,以便这种推理算法能够更好地工作。特别是,我们建议将两个附加项添加到原始损失(例如,交叉熵)。第一个是强调来自分布的样本不太受分类者的信任,第二个是(隐含地)为第一个生成最有效的训练样本。实质上,我们的方法联合训练分类和生成神经网络以进行分布。我们使用深度卷积神经网络在各种流行的图像数据集上证明了它的有效性。

CONCLUSION

在本文中,我们的目标是开发一种神经分类网络的训练方法,用于更好地检测分布外,而不会失去其原始的分类准确性。 实质上,我们的方法通过最小化它们的损失来联合训练两个模型来检测和产生分布。 虽然我们主要关注实验中的图像分类,但我们的方法可以用于使用深度神经网络的任何分类任务。 将我们的方法应用于其他相关任务也是有趣的未来方向:回归(Malinin等,2017),网络校准(Guo等,2017),贝叶斯概率模型(Li&Gal,2017; Louizos&Welling,2017) ),ensemble(Lakshminarayanan et al。,2017)和半监督学习(Dai et al。,2017)。

猜你喜欢

转载自blog.csdn.net/qq_23225317/article/details/82995445