Keras深度学习实战(19)——使用对抗攻击生成可欺骗神经网络的图像

0. 前言

近年来,深度学习在图像分类目标检测图像分割音频识别等诸多领域取得了突破性进展,深度学习模型已经能够以接近甚至超越人类水平的完成某些特定任务。
但最近的研究表明,深度学习模型容易受到输入数据中细微扰动的影响,从而导致模型输出错误的预测。在图像领域,此类扰动通常很小对于人眼而言甚至无法察觉࿰

猜你喜欢

转载自blog.csdn.net/LOVEmy134611/article/details/125238655