文章阅读:Attention U-Net

原文地址:Attention U-Net: Learning Where to Look for the Pancreas paper

贡献

  1. 论文采用Learn to Pay Attention 中提出的注意方法,进一步提出基于网格的门控,使注意系数特定于局部区域。与基于尺寸特征向量的门控比例,这提高了性能最大化,方法可用于密集预测,因为不执行自适应池。
  2. 论文提出了应用于医学成像任务的前馈CNN模型中软注意技术的第一个用例之一。提出的注意力门可以取代图像分类中使用的硬注意方法和图像分割框架中的外部器官定位模型。
  3. 建议对标准U-Net模型进行扩展,以提高模型对前景像素的灵敏度,而无需复杂的启发式算法。

注意力机制

顾名思义,注意力机制是本质上是为了模仿人类观察物品的方式。通常来说,人们在看一张图片的时候,除了从整体把握一幅图片之外,也会更加关注图片的某个局部信息,例如局部桌子的位置,商品的种类等等。在翻译领域,每次人们翻译一段话的时候,通常都是从句子入手,但是在阅读整个句子的时候,肯定就需要关注词语本身的信息,以及词语前后关系的信息和上下文的信息。在自然语言处理方向,如果要进行情感分类的话,在某个句子里面,肯定会涉及到表达情感的词语,包括但不限于“高兴”,“沮丧”,“开心”等关键词。而这些句子里面的其他词语,则是上下文的关系,并不是它们没有用,而是它们所起的作用没有那些表达情感的关键词大。

在以上描述下,注意力机制其实包含两个部分:

  1. 注意力机制需要决定整段输入的哪个部分需要更加关注;
  2. 从关键的部分进行特征提取,得到重要的信息

来自计算机视觉中的注意力机制
那么用于本文中的注意力机制目标在于捕获足够大的接收场并因此捕获语义上下文信息,特征映射网格在标准CNN架构中逐渐下采样,通过这种方式,加强粗糙空间网格水平模型的位置和全球范围内组织之间的关系。

方法

下图所示是Attention U-net的模型图,输入图像逐渐过滤并在网络的编码部分(例如H4=H1/8)中的每个比例下采样2倍。 表示类的数量。注意门(AG)过滤通过跳过连接传播的特征。

Attention Unet与Unet的唯一区别编码完的数据在每次上池化过程之前要先经过Attention Gate模块。
在对编码后每个分辨率上的特征与解码中对应特征进行拼接之前,使用了一个AGs,重新调整了编码的输出特征。该模块生成一个门控信号,用来控制不同空间位置处特征的重要性,如上图中红色圆圈所示。
Attention Gates 和 多阶段CNNs的定位模型 相比:

  1. 不需要训练多个模型和大量额外的模型参数。
  2. 可以抑制不相关背景区域的特征响应,不需要裁剪网络间的ROI

下图 红色 Attention Gate 解析:
在这里插入图片描述
来自鹿鹿

下图所示为附加注意门(AG)的示意图。

输入要素(xl)是编码过程中需要进行add的矩阵,使用在AG中计算的注意系数(α)进行缩放。g是需要进行上池化的矩阵,g提供的激活和上下文信息来选择空间区域,使用三线性插值完成注意系数的网格重采样。

发布了18 篇原创文章 · 获赞 2 · 访问量 792

猜你喜欢

转载自blog.csdn.net/purson2/article/details/103507030