龙空技术网

OpenCV机器视觉详解之光流估计,行人轨迹跟踪,附python完整代码

Python名媛 616

前言:

如今各位老铁们对“行人检测与跟踪代码”大概比较讲究,看官们都想要剖析一些“行人检测与跟踪代码”的相关知识。那么小编同时在网摘上收集了一些对于“行人检测与跟踪代码””的相关文章,希望兄弟们能喜欢,看官们一起来了解一下吧!

1. 光流估计

1.1 方法介绍

光流:空间运动物体在观测成像平面上的像素运动的瞬时速度。根据各个像素点的速度矢量特征,可以对图像进行动态分析,例如目标跟踪。

如果下面这辆车正向我们缓缓开来,右图是车辆的光流,它代表车辆在行驶过程中,每一帧图像的瞬时速度和方向。箭头的大小表示移动的瞬时速度,箭头的方向代表前进的目标方向。可以获取车辆每一帧的位置,对它进行跟踪。

相关定理:

(1)亮度恒定:同一点随着时间的变化,其亮度不发生变化。帧和帧之间的变化很快,亮度基本不变。

(2)小运动:随着时间的变化,不会引起位置的剧烈变化,只有小运动情况下才能用前后帧之间单位位置变化引起的灰度变化去近似灰度对位置的偏导数。

(3)空间一致:一个场景上临近的点投影到图像上也是临近点,且临近点速度一致。因为光流法基本方程约束只有一个,而要求x、y方向的速度,有两个未知变量,所以需要n多个方程去求解。

1.2 Lucas-Kanade 算法

用于描述前一帧和后一帧的变化,由于是一帧一帧的间隔,相当于后一帧减去前一帧。现在只剩x方向和y方向的速度u,v未知。

根据空间一致性定理,临近点速度一致,假如我再设一个方程组来求解u和v。设A点和B点临近,则有

,现在就是两个未知数两个方程。

通常用一个窗口来求解方程,如果使用一个5*5的窗口,就有25对Ix,Iy ,2个未知数,使用最小二乘法。

在做光流估计时,输入数据应该是角点,一般图像上只有角点的数据是可逆的

2. 步行轨迹跟踪

角点检测方法: cv.goodFeaturesToTrack()

参数:

image:输入图像,是八位的或者32位浮点型,单通道图像,所以有时候用灰度图maxCorners:返回最大的角点数,是最有可能的角点数。如果这个参数不大于0,那么表示没有角点数的限制。按照角点强度降序排序,超过maxCorners的角点将被舍弃。qualityLevel:品质因子。筛选角点,品质因子越大,特征值越大的越好,得到的角点越少。检测出的角点强度值小于品质因子的会被抛弃。minDistance:返回的角点之间最小的欧式距离。在这个距离范围内判断哪个品质因子最好,只要这一个角点。mask:检测区域。如果图像不是空的(它需要具有CV_8UC1类型和与图像相同的大小),它指定检测角的区域。blockSize:是协方差矩阵滤波的窗口大小。gradientSize:为sobel算子求微分的窗口的大小useHarrisDetector:选择是否采用Harris角点检测,默认是false.k:Harris检测的自由参数。

返回值:

corners:输出的角点坐标

Lucas-Kanade方法进行光流估计:cv2.calcOpticalFlowPyrLK()

参数:

prevlmage:前一帧图像nextlmage:当前帧图像prevPts:待跟踪的特征点向量winSize:搜索窗口的大小maxLevel:最大的金字塔层数

返回值:

nextPts:输出跟踪特征点向量 status:特征点是否找到,找到为1,没找到为0

import cv2import numpy as np#(1)获取数据filepath = 'C:\\Users\\admin\\.spyder-py3\\test\\opencv\\img\\class'video = cv2.VideoCapture(filepath + '\\test.avi')# 获取第一帧图像ret,frame_one = video.read() gray_one = cv2.cvtColor(frame_one,cv2.COLOR_BGR2GRAY) #变成灰度图# 角点检测,参数:输入图像,角点最大数量,品质因子,距离p0 = cv2.goodFeaturesToTrack(gray_one, mask=None, maxCorners=100, qualityLevel=0.3, minDistance=7) # 创建一个maskmask = np.zeros_like(frame_one) # 全0的画板,size和第一帧图像一样大# 轨迹线条颜色随机,[0,255)之间,输出size为(100,3),三列对应颜色BGRcolor = np.random.randint(0,255,(100,3)) #(3)视频处理while True:    ret,frame = video.read() # 返回是否打开和每一帧的结果    frame_gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)    # 光流估计,需要传入前一帧和当前图像以及前一帧检测到的角点    # gray_one代表前一帧,frame_gray当前帧图像,p0前一帧的角点,winSize窗口大小,maxLevel金字塔层数    p1,st,err = cv2.calcOpticalFlowPyrLK(gray_one, frame_gray, p0, None,winSize=(15,15),maxLevel=2)    # p1返回角点,st有些角点找到了有些没找到,err错误状态,用不上        # st==1  角点找到了    best_new = p1[st==1] # 当前帧,所有找到的角点    best_old = p0[st==1] # 前一帧的角点        # 绘制轨迹    for i,(new,old) in enumerate(zip(best_new,best_old)): # 返回角点的下标和值        a,b = new.ravel()  # 拉成一维,a等于x列,b等于y列        c,d = old.ravel()        a,b,c,d = np.array([a,b,c,d]).astype('int32') #输入的数据类型是整型        # 背景图mask,起点坐标(a,b),终点坐标(c,d),变成列表列格式tolist(),线宽为2        mask = cv2.line(mask, (a,b), (c,d), (color[i].tolist()), 2)        # 画板frame,圆心位置(a,b),圆半径5,'-1'代表实心圆        frame = cv2.circle(frame,(a,b),5,color[i].tolist(),-1)    # 图像叠加    img = cv2.add(frame,mask)        # 图像展示    cv2.imshow('img',img)    k = cv2.waitKey(150) & 0xff # 每张图停留150毫秒后消失    if k == 27:  # ESC键退出        break        # 更新    gray_one = frame_gray.copy() # 使下一次循环的前一帧变成当前帧图像    p0 = best_new.reshape(-1,1,2) # -1的作用在于自动计算# 释放资源cv2.destroyAllWindows()video.release()

使用该方法的一些缺陷:第一帧的角点被第二帧利用,也被后续的所有帧运用,如果在第一帧没有出现A同学,那么在后续的帧中A同学出现了,那么也不会跟踪,因为使用的是前几帧的角点。一旦经过障碍物,跟丢了。

最后有惊喜(别错过哦)

跻身大厂是每一个程序员的梦想,也希望有机会可以大放异彩,成绩斐然。不过,不积跬步无以至千里,理想和现实的距离是需要努力来不断缩短的。

所以这里我准备了一些礼包,希望能够帮助到各位小伙伴。

★礼包1

如果对学习没有自制力或者没有一起学习交流的动力,欢迎私信或者评论区留言,我会拉你进学习交流群,我们一起交流学习,报团打卡,群内更有众多福利等你来解锁哟,赶快加入我们吧!

★礼包2

❶Python全套电子书,200本总共6个G电子书资料,囊括Python各大领域。

❷Python练手项目,包括爬虫、数据分析、机器学习、人工智能、小游戏开发。

标签: #行人检测与跟踪代码