欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 建筑 > Python OpenCV精讲系列 - 目标检测与识别深入理解(二十)

Python OpenCV精讲系列 - 目标检测与识别深入理解(二十)

2024/11/29 15:00:08 来源:https://blog.csdn.net/suifengme/article/details/141463131  浏览:    关键词:Python OpenCV精讲系列 - 目标检测与识别深入理解(二十)

在这里插入图片描述

💖💖⚡️⚡️专栏:Python OpenCV精讲⚡️⚡️💖💖
本专栏聚焦于Python结合OpenCV库进行计算机视觉开发的专业教程。通过系统化的课程设计,从基础概念入手,逐步深入到图像处理、特征检测、物体识别等多个领域。适合希望在计算机视觉方向上建立坚实基础的技术人员及研究者。每一课不仅包含理论讲解,更有实战代码示例,助力读者快速将所学应用于实际项目中,提升解决复杂视觉问题的能力。无论是入门者还是寻求技能进阶的开发者,都将在此收获满满的知识与实践经验。

引言

目标检测是计算机视觉领域的一个核心问题,它涉及识别图像或视频中的物体,并确定其位置和大小。OpenCV(Open Source Computer Vision Library)是一个功能强大的开源计算机视觉库,支持多种目标检测算法和技术。本文将详细介绍几种流行的目标检测方法,并提供具体的实现细节。

目标检测技术概览

目标检测通常涉及以下几个步骤:

  1. 特征提取:从图像中提取有用的特征。
  2. 候选区域生成:确定可能包含目标的图像区域。
  3. 分类:判断每个候选区域是否包含目标。
  4. 定位:确定目标在图像中的精确位置。

OpenCV提供了多种方法来完成这些任务,包括传统的方法(如Haar级联分类器)以及基于深度学习的方法(如YOLO、SSD等)。

传统目标检测方法

Haar特征与级联分类器

1. Haar特征简介

Haar特征是一种简单的图像特征,用于检测局部图像结构的变化。它由一组简单的黑色和白色矩形组成,用于计算图像中不同区域之间的平均像素强度差异。

2. Haar级联分类器的工作原理
  • 训练过程:使用大量的正样本(包含目标的图像)和负样本(不包含目标的图像),通过AdaBoost算法训练出一系列弱分类器,并组合成一个强分类器。
  • 检测过程:使用训练好的级联分类器来扫描图像中的每一个位置,以检测目标的存在与否。
3. 使用Haar级联分类器进行目标检测
import cv2# 加载预先训练好的分类器
cascade_classifier = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')# 读取图像
image = cv2.imread('path/to/your/image.jpg')# 转换为灰度图
gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)# 检测对象
objects = cascade_classifier.detectMultiScale(gray_image,scaleFactor=1.1,minNeighbors=5,minSize=(30, 30),flags=cv2.CASCADE_SCALE_IMAGE
)# 绘制矩形框
for (x, y, w, h) in objects:cv2.rectangle(image, (x, y), (x + w, y + h), (0, 255, 0), 2)# 显示结果
cv2.imshow('Detected Objects', image)
cv2.waitKey(0)
cv2.destroyAllWindows()

HOG特征与SVM分类器

1. HOG特征简介

HOG(Histogram of Oriented Gradients)特征是从图像中提取的一种特征向量,用于捕捉图像中局部像素强度变化的方向和幅度。

2. HOG+SVM的工作原理
  • 训练过程:使用HOG特征从训练图像中提取特征向量,然后使用SVM(Support Vector Machine)训练分类器。
  • 检测过程:对于新的图像,使用相同的HOG特征提取方法,然后使用训练好的SVM分类器来预测目标是否存在。
3. 使用HOG+SVM进行目标检测
import cv2
from skimage.feature import hog
from sklearn.svm import LinearSVC
from sklearn.externals import joblib# 加载训练好的SVM模型
svm_model = joblib.load('hog_svm_model.pkl')# 读取图像
image = cv2.imread('path/to/your/image.jpg')# 转换为灰度图
gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)# 提取HOG特征
features = hog(gray_image, orientations=9, pixels_per_cell=(8, 8), cells_per_block=(2, 2), visualize=False, multichannel=False)# 预测
prediction = svm_model.predict(features.reshape(1, -1))if prediction == 1:# 绘制矩形框cv2.rectangle(image, (x, y), (x + w, y + h), (0, 255, 0), 2)# 显示结果
cv2.imshow('Detected Objects', image)
cv2.waitKey(0)
cv2.destroyAllWindows()

在这里插入图片描述

基于深度学习的目标检测方法

YOLO(You Only Look Once)

1. YOLO模型介绍

YOLO是一种实时目标检测系统,它通过单次图像通过神经网络来预测边界框及其类别概率。

2. YOLO的工作原理
  • 网络结构:YOLO采用卷积神经网络(CNN)架构,通过单个前向传递来同时预测边界框的位置和类别。
  • 损失函数:结合了边界框坐标回归损失和类别预测损失。
3. 使用YOLO进行目标检测
import cv2
import numpy as np# 加载预训练的YOLO模型
net = cv2.dnn.readNetFromDarknet('yolov3.cfg', 'yolov3.weights')# 加载类别标签
with open('coco.names', 'r') as f:classes = [line.strip() for line in f.readlines()]# 读取图像
image = cv2.imread('path/to/your/image.jpg')# 获取图像的尺寸
height, width = image.shape[:2]# 创建blob
blob = cv2.dnn.blobFromImage(image, 1 / 255.0, (416, 416), swapRB=True, crop=False)# 设置输入
net.setInput(blob)# 获取模型的输出层名称
layer_names = net.getLayerNames()
output_layers = [layer_names[i[0] - 1] for i in net.getUnconnectedOutLayers()]# 运行模型
outputs = net.forward(output_layers)# 处理输出
class_ids = []
confidences = []
boxes = []for output in outputs:for detection in output:scores = detection[5:]class_id = np.argmax(scores)confidence = scores[class_id]if confidence > 0.5:center_x, center_y, box_width, box_height = (detection[0:4] * np.array([width, height, width, height])).astype('int')x = int(center_x - (box_width / 2))y = int(center_y - (box_height / 2))boxes.append([x, y, box_width, box_height])confidences.append(float(confidence))class_ids.append(class_id)# 应用非极大值抑制去除重复的检测框
indices = cv2.dnn.NMSBoxes(boxes, confidences, 0.5, 0.4)# 绘制矩形框
for i in indices:i = i[0]box = boxes[i]x, y, w, h = box# 绘制矩形框cv2.rectangle(image, (x, y), (x + w, y + h), (0, 255, 0), 2)label = f"{classes[class_ids[i]]}: {confidences[i]:.2f}"cv2.putText(image, label, (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2)# 显示结果
cv2.imshow('Detected Objects', image)
cv2.waitKey(0)
cv2.destroyAllWindows()

SSD(Single Shot MultiBox Detector)

1. SSD模型介绍

SSD是一种高效的目标检测模型,它在单次前向传递中就能完成多尺度的检测任务。

2. SSD的工作原理
  • 网络结构:SSD使用多个不同大小的特征图来检测不同尺度的目标。
  • 锚点框(Anchor Boxes):在每个特征图的不同位置上设置多个不同比例和尺寸的框,以覆盖各种大小的目标。
3. 使用SSD进行目标检测
import cv2# 加载预训练的SSD模型
net = cv2.dnn.readNetFromCaffe('MobileNetSSD_deploy.prototxt.txt', 'MobileNetSSD_deploy.caffemodel')# 读取图像
image = cv2.imread('path/to/your/image.jpg')# 获取图像的尺寸
height, width = image.shape[:2]# 创建blob
blob = cv2.dnn.blobFromImage(cv2.resize(image, (300, 300)), 0.007843, (300, 300), 127.5)# 设置输入
net.setInput(blob)# 运行模型
detections = net.forward()# 处理输出
for i in range(detections.shape[2]):confidence = detections[0, 0, i, 2]if confidence > 0.5:idx = int(detections[0, 0, i, 1])box = detections[0, 0, i, 3:7] * np.array([width, height, width, height])(startX, startY, endX, endY) = box.astype("int")# 绘制矩形框cv2.rectangle(image, (startX, startY), (endX, endY), (0, 255, 0), 2)label = f"{CLASSES[idx]}: {confidence:.2f}"cv2.putText(image, label, (startX, startY - 15), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2)# 显示结果
cv2.imshow('Detected Objects', image)
cv2.waitKey(0)
cv2.destroyAllWindows()

总结

本文详细介绍了使用OpenCV进行目标检测的方法,包括传统的Haar级联分类器和HOG+SVM方法,以及基于深度学习的YOLO和SSD方法。通过上述代码示例,您可以根据自己的需求选择合适的方法来实现目标检测。希望本文能为您提供有价值的信息,并帮助您更好地理解和应用OpenCV进行目标检测。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com