97 基于描述子匹配的已知对象定位
代码
import cv2 as cv
import numpy as np
box = cv.imread("../images/box.png");
box_in_sence = cv.imread("../images/box_in_scene.png");
cv.imshow("box", box)
cv.imshow("box_in_sence", box_in_sence)
# 创建ORB特征检测器
orb = cv.ORB_create()
kp1, des1 = orb.detectAndCompute(box,None)
kp2, des2 = orb.detectAndCompute(box_in_sence,None)
# 暴力匹配
bf = cv.BFMatcher(cv.NORM_HAMMING, crossCheck=True)
matches = bf.match(des1,des2)
# 发现匹配
maxdist = 0
goodMtachs = []
for m in matches:
maxdist = max(maxdist, m.distance)
for m in matches:
if m.distance < 0.4 * maxdist:
goodMtachs.append(m)
# 找到本地化对象
obj_pts = np.float32([kp1[m.queryIdx].pt for m in goodMtachs]).reshape(-1, 1, 2)
scene_pts = np.float32([kp2[m.trainIdx].pt for m in goodMtachs]).reshape(-1, 1, 2)
# findHomography函数是计算变换矩阵
M, mask = cv.findHomography(obj_pts, scene_pts, cv.RANSAC)
# 获取box的图像尺寸
h, w, _ = box.shape
obj_corners = np.float32([[0, 0], [w, 0], [w, h], [0, h]]).reshape(-1, 1, 2)
scene_corners = cv.perspectiveTransform(obj_corners, M)
box_in_sence = cv.polylines(box_in_sence, [np.int32(scene_corners)], True, (0, 0, 255), 3, cv.LINE_AA)
# 绘制匹配
result = cv.drawMatches(box, kp1, box_in_sence, kp2, goodMtachs, None)
cv.imshow("orb-match", result)
cv.waitKey(0)
cv.destroyAllWindows()
实验结果
解释
图像特征点检测、描述子生成以后,就可以通过OpenCV提供的描述子匹配算法,得到描述子直接的距离,距离越小的说明是匹配越好的,设定一个距离阈值,一般是最大匹配距离的1/5~1/4左右作为阈值,得到所有小于阈值的匹配点,作为输入,通过单应性矩阵,获得这两个点所在平面的变换关系H,根据H使用透视变换就可以根据输入的对象图像获得场景图像中对象位置,最终绘制位置即可。
所有内容均来源于贾志刚老师的知识星球——OpenCV研习社,本文为个人整理学习,已获得贾老师授权,有兴趣、有能力的可以加入贾老师的知识星球进行深入学习。