YOLOv8-seg 分割代码详解(一)Predict

前言

YOLOv8-seg 分割代码详解(一)Predict
YOLOv8-seg 分割代码详解(二)Train
YOLOv8-seg 分割代码详解(三)Val

  本文从 U-Net 入手熟悉分割的简单方法,再看 YOLOv8 的方法。主要梳理 YOLOv8 的网络结构,以及 Predict 过程的后处理方法。

U-Net 代码地址:https://github.com/milesial/Pytorch-UNet
YOLOv8 代码地址:https://github.com/ultralytics/ultralytics
YOLOv8 官方文档:https://docs.ultralytics.com/

1. U-Net

1.1 网络结构

在这里插入图片描述

CBR
Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False)
BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
ReLU(inplace=True)

1.2 转置卷积

torch.nn.ConvTranspose2d(
	in_channels, 
	out_channels, 
	kernel_size, 
	stride=1, 
	padding=0, 
	output_padding=0, 
	groups=1, 
	bias=True, 
	dilation=1, 
	padding_mode='zeros', 
	device=None, 
	dtype=None
)

H o u t = ( H i n − 1 ) × stride [ 0 ] − 2 × padding [ 0 ] + dilation [ 0 ] × ( kernel_size [ 0 ] − 1 ) + output_padding [ 0 ] + 1 H_{out} = (H_{in} - 1) \times \text{stride}[0] - 2 \times \text{padding}[0] + \text{dilation}[0] \times (\text{kernel\_size}[0] - 1) + \text{output\_padding}[0] + 1 Hout=(Hin1)×stride[0]2×padding[0]+dilation[0]×(kernel_size[0]1)+output_padding[0]+1
W o u t = ( W i n − 1 ) × stride [ 1 ] − 2 × padding [ 1 ] + dilation [ 1 ] × ( kernel_size [ 1 ] − 1 ) + output_padding [ 1 ] + 1 W_{out} = (W_{in} - 1) \times \text{stride}[1] - 2 \times \text{padding}[1] + \text{dilation}[1] \times (\text{kernel\_size}[1] - 1) + \text{output\_padding}[1] + 1 Wout=(Win1)×stride[1]2×padding[1]+dilation[1]×(kernel_size[1]1)+output_padding[1]+1

  • stride
    控制原图像素之间的填充量,数值为 stride − 1 \text{stride}-1 stride1
  • kernel_size,padding
    kernel_size 为转置卷积核大小,并且和 padding 一同决定原图四周填充量,数值为 kernel_size − padding − 1 \text{kernel\_size}-\text{padding}-1 kernel_sizepadding1
  • dilation
    控制卷积核采样点的间距(空洞卷积),默认为1,即最普通的卷积

注:转置卷积在卷积时的 stride 固定为1,output_padding 固定为0;而参数中设置的 stride、padding 用于控制卷积之前对输入的填充

kernel_size = 2 , stride = 2 , padding = 0 , H i n = 640 , W i n = 640 \text{kernel\_size}=2,\text{stride}=2,\text{padding}=0,H_{in}=640,W_{in}=640 kernel_size=2,stride=2,padding=0,Hin=640,Win=640 为例

  1. 像素间填充 2-1=1, 640 × 640 → 1279 × 1279 640\times640\to1279\times1279 640×6401279×1279
  2. 四周填充 2-0-1=1, 1279 × 1279 → 1281 × 1281 1279\times1279\to1281\times1281 1279×12791281×1281
  3. 2x2卷积, 1281 × 1281 → 1280 × 1280 1281\times1281\to1280\times1280 1281×12811280×1280

查看不同卷积的可视化:https://github.com/vdumoulin/conv_arithmetic/blob/master/README.md

1.3 Loss

单分类
loss = BCEWithLogitsLoss(P, Y) + dice_loss(sigmoid(P), Y)
多分类
loss = CrossEntropyLoss(P, Y) + dice_loss(softmax(P), one_hot(Y))

(1)BCEWithLogitsLoss
对于每个样本 l = − [ y l o g σ ( x ) + ( 1 − y ) l o g ( 1 − σ ( x ) ) ] l=-[ylog\sigma (x)+(1-y)log(1-\sigma (x))] l=[ylogσ(x)+(1y)log(1σ(x))],最后求均值

(2)dice_loss

l = 1 − sum ( 2 × P × Y ) sum ( P ) + sum ( Y ) l = 1-\frac{\text{sum}(2\times P\times Y)}{\text{sum}(P)+\text{sum}(Y)} l=1sum(P)+sum(Y)sum(2×P×Y)

这里的乘法是矩阵对应位置相乘, Y Y Y 作为标签是固定的, P P P 通过让目标区域数值靠近 1 来提高分子值,背景区域数值靠近 0 来降低分母值,即 P → Y P\to Y PY,从而降低loss。

1.4 Predict

单分类
mask = sigmoid(P) > threshold
多分类
mask = P.argmax(dim=1)

2. YOLOv8-seg

2.1 网络结构

  结构图中数据按 yolov8m-seg 的 predict 过程绘制,输入图像为 1280x720,预处理时通过 LetterBox 对图像进行保长宽比缩放和 padding,使其长宽都能被最大下采样倍率32整除。在 train 过程中,输入大小统一为 640x640。

主干

在这里插入图片描述

CBS
Conv2d(3, 48, kernel_size=(3, 3), stride=(2, 2), padding=(1, 1), bias=False)
BatchNorm2d(48, eps=0.001, momentum=0.03, affine=True, track_running_stats=True)
SiLU(inplace=True)

C2f 模块
在这里插入图片描述
SPPF
在这里插入图片描述

Segment-head

分割
在这里插入图片描述
检测
在这里插入图片描述
注:DFL 层中的卷积层参数是固定的,在这里是 torch.arange(16)。DFL 层的具体作用与下面训练部分的代码等价,目的是把对于每个坐标的16个数值融合成一个。对于某个坐标的 16 个输出值,先做 softmax 得到分类概率,然后依次乘上 0~15 求和得到最终值,也就是 DFL 层的输出。

"""
pred_dist: DFL 层输入
self.proj: torch.arange(16), 矩阵乘法相当于卷积操作
"""
pred_dist = pred_dist.view(b, a, 4, c // 4).softmax(3).matmul(self.proj.type(pred_dist.dtype))

Anchor
  Anchor 坐标是把特征图看做一个网格,每个像素边长为 1,把每个格子的中心点坐标取出来。以 x0 (h=48,w=80) 为例,左上角坐标为 (0.5,0.5),右下角点为 (79.5,47.5)
  DFL 的输出对应目标框左上角坐标和右下角坐标到 Anchor 坐标的距离,与 Anchor 融合并乘上对应的下采样倍率得到预测框。

lt, rb = dfl(box).chunk(2, dim=1)
x1y1 = anchor_points - lt
x2y2 = anchor_points + rb

2.2 预测

模型推理输出

preds: (list:2)
	0(cat(Y,mc)): (Tensor:(b, 4+cls_n+32, anchors)) (b,37,5040)
	1: (tuple:3)
		0: (list:3)
			0(X0): (Tensor:(b, 64+cls_n, 48, 80))
			1(X1): (Tensor:(b, 64+cls_n, 24, 40))
			2(X2): (Tensor:(b, 64+cls_n, 12, 20))
		1(mc): (Tensor:(b, 32, 5040))
		2(p): (Tensor:(b, 32, 96, 160))

NMS

p = nms(
	prediction=preds[0], 
	conf_thres=0.25, 
	iou_thres=0.7, 
	agnostic=False, 
	max_det=300, 
	nc=1
)

(1)保留分类得分大于 conf_thres=0.25 的输出
( 5040 , 37 ) → ( n 1 , 37 ) (5040,37)\to(n_1,37) (5040,37)(n1,37)

(2)提取类别
( n 1 , 37 ) → ( n 1 , 38 ) (n_1,37)\to(n_1,38) (n1,37)(n1,38)
38 = 4 + class_score + class + 32 38=4+\text{class\_score}+\text{class}+32 38=4+class_score+class+32

(3)若 n 1 > max_nms = 30000 n_1 > \text{max\_nms} = 30000 n1>max_nms=30000,保留 class_score \text{class\_score} class_score 较高的 30000 项

(4)调库,并取前 max_det=300
( n 1 , 38 ) → ( n 2 , 38 ) , n 2 ≤ 300 (n_1,38)\to(n_2,38), n_2\le300 (n1,38)(n2,38),n2300

i = torchvision.ops.nms(boxes, scores, iou_thres)  # NMS
i = i[:max_det]  # limit detections

mask

masks = process_mask(
	protos,					模型输出p (b,32,96,160)
	masks_in=pred[:, 6:], 	nms结果的mask部分
	bboxes=pred[:, :4], 	nms结果的box部分
	shape=img.shape[2:], 	输入图像大小(384,640)
	upsample=True
)

def process_mask(protos, masks_in, bboxes, shape, upsample=False):
	c, mh, mw = protos.shape
	ih, iw = shape
	"""矩阵乘法+sigmoid得到mask"""
	masks = (masks_in @ protos.float().view(c, -1)).sigmoid().view(-1, mh, mw)

	"""比例变换"""
	downsampled_bboxes = bboxes.clone()
    downsampled_bboxes[:, 0] *= mw / iw
    downsampled_bboxes[:, 2] *= mw / iw
    downsampled_bboxes[:, 3] *= mh / ih
    downsampled_bboxes[:, 1] *= mh / ih

	"""裁减掉box范围以外的值"""
	masks = crop_mask(masks, downsampled_bboxes)  # CHW
    if upsample:
        masks = F.interpolate(masks[None], shape, mode='bilinear', align_corners=False)[0]  # CHW
    """按阈值0.5转为二值图mask"""
    return masks.gt_(0.5)

猜你喜欢

转载自blog.csdn.net/weixin_43605641/article/details/134204220