光流算法的理解与实现
光流估计实际上是根据两张连续的帧,去估计两帧之间 pixel-wise(基于物体像素)的光流。凡是有关估计相关的东西,卷积神经网络经过大量数据学习后都能拟合,只要有足够的训练数据和一个较好的网络结构。FlowNet 开辟了这个工作,同时也发布了一个光流估计的数据集。
光流追踪法 分为 稀疏光流追踪,与稠密光流追踪。二者的区别就是在于,稀疏光流追踪法,稀疏光流不对图像的每个像素点进行逐点计算,它通常需要指定一组点进行跟踪,这组点需要具有某种明显的图像特征,例如 Harris 角点或者其他特征等,那么跟踪就会相对稳定和可靠。稀疏光流跟踪的计算开销比稠密光流跟踪小得多。这样计算量减少了很多。下面是稀疏光流法的一个python-opencv实现:
import numpy as np import cv2 cap = cv2.VideoCapture('test1.avi') # 得到视频的高度 height = cap.get(cv2.CAP_PROP_FRAME_HEIGHT) # 得到视频的宽度 width = cap.get(cv2.CAP_PROP_FRAME_WIDTH) # 得到视频的帧数 count = cap.get(cv2.CAP_PROP_FRAME_COUNT) # 得到视频的帧速 fps = cap.get(cv2.CAP_PROP_FPS) # 定义写入视频的编码格式 fourcc = cv2.VideoWriter_fourcc(*'XVID') # *'XVID' or *'MJPG' 写入视频类的编码格式 # 创建写入视频的类 temp_video = cv2.VideoWriter("LK_method.avi", fourcc, int(fps), (int(width), int(height))) # 定义写入视频的编码格式 fourcc = cv2.VideoWriter_fourcc(*'XVID') # *'XVID' or *'MJPG' 写入视频类的编码格式 # 创建写入视频的类 output_video = cv2.VideoWriter("LK_method_output.avi", fourcc, int(fps), (int(width), int(height))) # 定义随机颜色 color = np.random.randint(0,255,(100,3)) # 读取第一帧 ret, old_frame = cap.read() old_gray = cv2.cvtColor(old_frame, cv2.COLOR_BGR2GRAY) # 检测第一帧图像的特征点 p0 = cv2.goodFeaturesToTrack(old_gray, mask=None, maxCorners=100,qualityLevel=0.01,minDistance=10,blockSize=3) # 稀疏光流跟踪 while True: ret, frame = cap.read() if ret is False: break frame_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # 计算光流 p1, st, err = cv2.calcOpticalFlowPyrLK(old_gray, frame_gray, p0, None,winSize=(31, 31), maxLevel=3, criteria=(cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 30, 0.01)) # 根据状态选择 good_new = p1[st == 1] good_old = p0[st == 1] # 绘制跟踪线 for i, (new, old) in enumerate(zip(good_new,good_old)): a,b = new.ravel() c,d = old.ravel() frame = cv2.line(frame, (a,b),(c,d), color[i].tolist(), 2) frame = cv2.circle(frame,(a,b),5,color[i].tolist(),-1) temp_video.write(frame) cv2.imwrite("LK_output.jpg",frame) output_video.write(frame) # 更新 old_gray = frame_gray.copy() p0 = good_new.reshape(-1, 1, 2) cap.release()
可以看到图中,即是视频的一帧,对人的运动进行了一个跟踪。根据图像会发现稀疏光流法的效果并不是很好。
下面介绍一下稠密光流法,主要是Farneback 光流算法的实现。
import cv2 import numpy as np # 绘制光流场图像 def drawOptFlowMap(flow,cflowmap,step,color): # 以 step 步长遍历图像 for x in range(0,flow.shape[1],step): for y in range(0,flow.shape[0],step): # 绘制跟踪线 cv2.line(cflowmap, (x,y), (int(x+flow[y][x][0]),int(y+flow[y][x][1])),color) cv2.circle(cflowmap,(x, y), 2, color, -1) return cflowmap cap = cv2.VideoCapture('test.avi') # 得到视频的高度 height = cap.get(cv2.CAP_PROP_FRAME_HEIGHT) # 得到视频的宽度 width = cap.get(cv2.CAP_PROP_FRAME_WIDTH) # 得到视频的帧数 count = cap.get(cv2.CAP_PROP_FRAME_COUNT) # 得到视频的帧速 fps = cap.get(cv2.CAP_PROP_FPS) # 定义写入视频的编码格式 fourcc = cv2.VideoWriter_fourcc(*'XVID') # *'XVID' or *'MJPG' 写入视频类的编码格式 # 创建写入视频的类 output_video = cv2.VideoWriter("GF_method_output.avi", fourcc, int(fps), (int(width), int(height))) # 读取第一帧图像 ret, frame1 = cap.read() prvs = cv2.cvtColor(frame1,cv2.COLOR_BGR2GRAY) while(1): ret, frame2 = cap.read() if ret is False: break next = cv2.cvtColor(frame2,cv2.COLOR_BGR2GRAY) # 使用稠密光流算法计算光流 flow = cv2.calcOpticalFlowFarneback(prvs,next, None, 0.5, 3, 15, 3, 5, 1.2, 0) # 通过得到的光流绘制图像 bgr = drawOptFlowMap(flow,frame2,16,(0,255,0)) cv2.imwrite("GF_output.jpg",bgr) output_video.write(bgr) # 更新 prvs = next cap.release()
下面是实现稠密光流法的结果。
可以看出 稠密光流法,此图片上有采取步长为 16 所绘制的光流场。因此,稠密光流是采取的全部的像素点进行求解,并没有求取图像特征点的步骤。而且上图中有人的区域都存在部分追踪线,可以看出,稠密光流比稀疏光流更为稳定。
但是稠密光流法的计算量更大,所以速度也会降低很多。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)