超分辨之----RED论文理解

使用带对称跳过连接的卷积自动编码器进行图像恢复,是讲图像复原的。

ABSTRACT

用对称的卷积反卷积解码编码框架。连接将图像细节从卷积层传递到反卷积层的跳跃连接。
卷积层捕获图像内容的抽象,同时消除损坏。反卷积层具有对特征图进行上采样和恢复图像细节

1 instruction

卷积层特征提取,在消除损坏的同时对图像内容的主要成分进行编码。
反卷积层解码图像,抽象以恢复图像内容细节。
可以进行多种图像复原。

2 RELATED WORK

3 VERY DEEP CONVOLUTIONAL AUTO-ENCODER for image restoration

残差编码解码网络
由于卷积和反卷积层是对称的,因此网络本质上是逐像素预测,因此输入图像可以是任意的。输入和输出
网络是具有相同尺寸w×h×c的图像,其中w、h、c是通道的宽度,高度和数量。
卷积层进行特征提取,图像内容的细微细节可能会丢失.然后将反卷积层合并恢复图像内容的细节。输出反卷积层是恢复的干净版本。输出图像可以是任意大小。
卷积层下采样提取特征保留图像内容,反卷积层上采样恢复成原图保持细节。
反卷积层不能只从图像抽象中恢复图像信息,在太深的网络。
网络不能太深。
在这里插入图片描述
跳过连接每两个卷积层传递到其镜像反卷积层。
we would like the network to fit the residual [1] of the problem, which is denoted as F(X) = Y − X
three types of layers in our network:
convolution, deconvolution and element-wise sum.
Each layer is followed by a Rectified Linear Unit (ReLU) [46].
Let X be the input, the convolutional and deconvolutional layers are expressed as:
F (X) = max(0; Wk ∗ X + Bk);
For element-wise sum layer, the output is the element-wise sum of two inputs of the same size, followed by the ReLU activation:
F (X1; X2) = max(0; X1 + X2)
loss函数mse.
基本学习率为10-4进行训练时,收敛速度比传统方法快。
随机梯度下降(SGD)。基础学习率因为所有层都是相同的。
在这里插入图片描述
我们网络中的过滤器内核只能消除损坏,通常对图像的方向不敏感
低级还原任务中的内容。旋转并镜像翻转内核并向前执行多次,然后平均输出以实现
多个测试。 我们看到这可能导致性能略好。

1h21min

发布了24 篇原创文章 · 获赞 3 · 访问量 933

猜你喜欢

转载自blog.csdn.net/Magic_o/article/details/102683060