What is motion?"对两个观点进行了辩论:
1, " motion is the physical movement of pixels, and therefore motion has to be measured in a physical way. "
2, " motion is human percept--motion is what we perceive in our brain, something we can sense and communicate."
然后贴了下面这个图
image
我们人类可以从上面的静态图中感受到运动! 由此联想到计算机视觉系统是如何做的?
If the ultimate goal of computer vision is to let the computer see what humans perceive, then it is certainly the right way to let humans teach computer how to see the world. Our human-assisted motion annotation serves exactly for this purpose. Indeed, we shall show you that (a) humans' annotations are very consistent, and (b) human's annotations are consistent with other ground-truth data.
很容易发现, 只有在我们的眼睛(准确的是目光)移动的时候,我们才能感受到运动,那么眼睛移动引起了什么变化喃, 貌似有亮度, (角度)视角,这样子我们岂不是就可以估计相对运动啦. 是的嘛, 光流就是来估计运动的的嘛,,(这么简单的原理,为什么我就没有提出来喃 233).
言归正传
光流的概念是Gibson在1950年首先提出来的。它是空间运动物体在观察成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。一般而言,光流是由于场景中前景目标本身的移动、相机的运动,或者两者的共同运动所产生的。
当人的眼睛观察运动物体时,物体的景象在人眼的视网膜上形成一系列连续变化的图像,这一系列连续变化的信息不断“流过”视网膜(即图像平面),好像一种光的“流”,故称之为光流(optical flow)。光流表达了图像的变化,由于它包含了目标运动的信息,因此可被观察者用来确定目标的运动情况。研究光流场的目的就是为了从图片序列中近似得到不能直接得到的运动场。运动场,其实就是物体在三维真实世界中的运动;光流场,是运动场在二维图像平面上(人的眼睛或者摄像头)的投影。那通俗的讲就是通过一个图片序列,把每张图像中每个像素的运动速度和运动方向找出来就是光流场。那怎么找呢?咱们直观理解肯定是:第t帧的时候A点的位置是(x1, y1),那么我们在第t+1帧的时候再找到A点,假如它的位置是(x2,y2),那么我们就可以确定A点的运动了:
(ux, vy) = (x2, y2) - (x1,y1)。
那怎么知道第t+1帧的时候A点的位置呢? 这就存在很多的光流计算方法了。
1981年,Horn和Schunck创造性地将二维速度场与灰度相联系,引入光流约束方程,得到光流计算的基本算法。人们基于不同的理论基础提出各种光流计算方法,算法性能各有不同。Barron等人对多种光流计算技术进行了总结,按照理论基础与数学方法的区别把它们分成四种:基于梯度的方法、基于匹配的方法、基于能量的方法、基于相位的方法。近年来神经动力学方法也颇受学者重视。
光流的测量
光流的测算
贴自 https://zh.wikipedia.org/wiki/%E5%85%89%E6%B5%81%E6%B3%95
几种测定方法
这里列举几个OpenCv实现了的测定算法:
Lucas-Kanade方法是由Bruce D. Lucas和Takeo Kanade开发的一种广泛使用的光流估计差分方法.它假设流在所考虑的像素的局部邻域中基本恒定,并且通过最小二乘准则解出该邻域中的所有像素的基本光流方程.
openCV 的API是 calcOpticalFlowPyrLK.
点这个链接,不错的理论解释(中文)http://image.sciencenet.cn/olddata/kexue.com.cn/upload/blog/file/2010/9/2010929122517964628.pdf
The Gunnar-Farneback optical flow
用Gunnar Farneback 的算法计算稠密光流(即图像上所有像素点的光流都计算出来)。它的相关论文是:"Two-Frame Motion Estimation Based on PolynomialExpansion"
opencv 的API 是 calcOpticalFlowFarneback.
论文地址: http://www.diva-portal.org/smash/get/diva2:273847/FULLTEXT01.pdf
block matching method
依赖于块匹配方法,OpenCv的API 是: CalcOpticalFlowBM.
Horn–Schunck method
用Horn-Schunck 的算法计算稠密光流。OpenCv的API是 CalcOpticalFlowHS.
SimpleFlow
项目网站(源代码)http://graphics.berkeley.edu/papers/Tao-SAN-2012-05/
OpenCv的API是 calcOpticalFlowSF.
代码演示
对于代码,这里只演示计算量更少,更加适用于SLAM系统的Lucas–Kanade method. 我们首先需要使用 cv2.goodFeaturesToTrack()来寻找角点,然后在使用Lucas–Kanade method进行运动跟踪。
python
#!/usr/bin/pythonimport numpy as npimport cv2# opencv-3.1.0/samples/data/768x576.avicap = cv2.VideoCapture('768x576.avi')# params for ShiTomasi corner detectionfeature_params = dict( maxCorners = 100, qualityLevel = 0.3, minDistance = 7, blockSize = 7 )# Parameters for lucas kanade optical flowlk_params = dict( winSize = (15,15), maxLevel = 2, criteria = (cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 0.03))# Create some random colorscolor = np.random.randint(0,255,(100,3))# Take first frame and find corners in itret, old_frame = cap.read() old_gray = cv2.cvtColor(old_frame, cv2.COLOR_BGR2GRAY) p0 = cv2.goodFeaturesToTrack(old_gray, mask = None, **feature_params)# Create a mask image for drawing purposesmask = np.zeros_like(old_frame)while(1): ret,frame = cap.read() if ret is True: print ret frame_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # calculate optical flow p1, st, err = cv2.calcOpticalFlowPyrLK(old_gray, frame_gray, p0, None, **lk_params) # Select good points good_new = p1[st==1] good_old = p0[st==1] # draw the tracks for i,(new,old) in enumerate(zip(good_new,good_old)): a,b = new.ravel() c,d = old.ravel() mask = cv2.line(mask, (a,b),(c,d), color[i].tolist(), 2) frame = cv2.circle(frame,(a,b),5,color[i].tolist(),-1) img = cv2.add(frame,mask) cv2.imshow('frame',img) k = cv2.waitKey(30) & 0xff if k == 27: break # Now update the previous frame and previous points old_gray = frame_gray.copy() p0 = good_new.reshape(-1,1,2) else: breakcv2.destroyAllWindows() cap.release()
效果图
效果图
这个理论由于基于一个很强的亮度不变的假设,因此具有较大的局限性,只能用于估计很小的运动。
作者:机智的小火箭
链接:https://www.jianshu.com/p/11e8e4623a93
共同学习,写下你的评论
评论加载中...
作者其他优质文章