《OpenCV 3计算机视觉:Python语言实现》学习笔记——目标跟踪中基本运动检测的思考

刚刚接触Python以及OpenCV,通过敲本书中的代码来学习计算机视觉。在按照书中代码进行实现时,发现有些部分总是没有作者实现的好(代码是完全一些样的)。经过反复琢磨对比试验后,明白了其中的原因:作者使用的摄像头与我的不同,所以拍出的图片或者视频的像素是不同的,因此代码中的某些尺寸或者其他参数都不能完全用作者给出的,需要根据实际情况调节。

本篇文章主要是记录我在《OpenCV 3计算机视觉:Python语言实现》第8章【目标跟踪】里实现“基本的运动检测”时发现并解决的问题:

书中源代码如下

import cv2
import numpy as np

camera = cv2.VideoCapture(0)

es = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (10,10))
kernel = np.ones((5,5),np.uint8)
background = None

while (True):
  ret, frame = camera.read()
  if background is None:
    background = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
    background = cv2.GaussianBlur(background, (21, 21), 0)
    continue
  
  gray_frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
  gray_frame = cv2.GaussianBlur(gray_frame, (21, 21), 0)
  diff = cv2.absdiff(background, gray_frame)
  diff = cv2.threshold(diff, 25, 255, cv2.THRESH_BINARY)[1]
  diff = cv2.dilate(diff, es, iterations = 2)
  image, cnts, hierarchy = cv2.findContours(diff.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
  
  for c in cnts:
    if cv2.contourArea(c) < 1500:
      continue
    (x, y, w, h) = cv2.boundingRect(c)
    cv2.rectangle(frame, (x, y), (x + w, y + h), (255, 255, 0), 2)
  
  cv2.imshow("contours", frame)
  cv2.imshow("dif", diff)
  #if cv2.waitKey(1000 / 12) & 0xff == ord("q"):
  if cv2.waitKey(90) & 0xff == ord("q"):
      break

cv2.destroyAllWindows()
camera.release()

完全按照书中的代码抄了一遍,运行程序,发现整个视频都是被检测为移动的目标,人的动作就没法被检测到。猜测是在camera = cv2.VideoCapture(0)

后立即读取frame并赋给background,此时摄像头刚刚打开,进入摄像头的光线应该还不是特别足,而后将采集到的图像与background进行比较,整幅frame应该都不一样(光线强弱影响太大),故一直是检测到正副frame都不同。

为了解决这一问题,在camera = cv2.VideoCapture(0)后,ret, frame = camera.read()之前加入等待时间time.sleep(5)。运行程序后,问题解决。


猜你喜欢

转载自blog.csdn.net/dongshengweidsw/article/details/71811105