序列图像中的目标分析技术(txt+pdf+epub+mobi电子书下载)


发布时间:2021-08-05 03:08:40

点击下载

作者:李子印

出版社:电子工业出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

序列图像中的目标分析技术

序列图像中的目标分析技术试读:

前言

随着视频监控系统的广泛应用,监控规模和数据量迅速增长,普通监控系统的技术和人力成本的提高已经很难保证监控的及时性和有效性,智能视频监控系统已经成为大势所趋。但是,作为图像处理、模式识别和数据挖掘等学科的交叉融合,智能视频监控技术面临的实际应用场景复杂,应用需求多样化,技术实现难度大,目前仍处于探索发展阶段。

智能视频监控系统是能够自动对视频信号进行处理、分析和理解,通过对序列图像进行目标检测、定位、跟踪和识别,分析和判断目标的行为,能在异常情况时发出警报或提供有用信息的视频监控系统。智能视频监控系统的关键技术主要包括图像预处理、视频编解码、目标检测、目标定位、目标跟踪和模式识别等。

本书是作者在参考国内外大量学术论文和专著的基础上,结合作者多年的研究成果编写而成的。本书以序列图像中目标分析技术的基本过程为主线,系统地介绍了目标分析的基本理论,详细讲解了作者的研究成果。

本书可供信号与信息处理、电子技术、计算机技术、网络和通信工程等相关专业高年级本科生和研究生使用,也可作为从事图像处理、机器视觉和模式识别等领域的研究和开发技术人员的参考书。

全书分为五大部分,第一部分为绪论,在第1章对序列图像中目标分析技术的研究背景和意义进行了介绍,总结了国内外的相关研究现状。第二部分为运动目标的检测,其中第2章提出了一种基于积累差异背景建模的视频运动目标检测方法,第3章提出了一种差分背景融合建模的运动目标检测方法,第4章提出了一种融合Knockout抠图技术的视频运动目标检测方法,第5章提出了一种基于网格区域划分的视频运动目标检测方法。第三部分为运动目标的定位,其中第6章提出了一种基于减法聚类算法的视频运动目标定位技术,第7章提出了一种视频目标定位的减法聚类改进算法,第8章提出了一种非参数核密度估计视频目标空域定位算法,第9章提出了一种基于NystrÖm密度值逼近的减法聚类算法。第四部分为运动目标的运动估计,其中第10章提出了一种基于运动场预测的六边形块运动估计算法,第11章提出了一种基于运动信息自适应的快速运动估计算法,第12章提出了一种快速高效的部分失真块运动估计搜索算法。第五部分为运动目标的跟踪与识别,其中第13章提出了一种基于图像感知哈希技术的运动目标跟踪技术,第14章提出了一种遮挡情况下的运动目标跟踪技术,第15章介绍了智能视频监控系统中典型的异常行为分析技术,第16章进行了总结与展望。

在本书编写过程中,得到了两位作者的单位中国计量大学和杭州电子科技大学的很多领导、同事的鼓励和帮助,在此一并表示衷心感谢。本书参考了国内外许多专家和研究人员的研究成果,引用了其中观点、数据与结论,在此表示诚挚的谢意。另外,还要特别感谢电子工业出版社责任编辑徐蔷薇对本书的顺利出版付出的努力与劳动。

由于作者水平有限,加之时间紧迫,书中不妥与疏漏之处在所难免,敬请各位专家、学者和读者批评指正。李子印2016年5月于中国计量大学第1章 绪论1.1 研究背景及意义

人类感知外界的信息,80%以上是通过视觉得到的。让机器具有视觉是人类多年以来的梦想。自信号处理理论和计算机出现以后,人们试图用摄像机获得环境图像,并将图像转换成数字信号,借助计[1]算机实现对视觉信息的处理,慢慢形成了计算机视觉这门学科。

计算机视觉的研究目的是利用计算机代替人眼及大脑对景物环境进行感知、解释和理解。计算机视觉是一门交叉性很强的学科,涉及计算机、心理学、物理学、信号处理和应用数学等。近二十年随着各学科和计算机技术的迅猛发展,计算机视觉得到了蓬勃发展,在各领域得到了广泛应用。智能视觉监控系统是计算机视觉领域近几年兴起的一个应用方向。智能视觉监控系统利用计算机视觉技术对视频信号进行处理、分析和理解,并对视觉监控系统进行控制,从而使视觉监控系统具有像人一样的智能。因此,计算机视觉技术是智能视觉监控[1]系统的核心技术。

嵌入式计算、无线通信和传感器技术的迅速发展,使人们能够非常方便地采集、传输和存储音、视频数据。海量数据及时、准确的分析与理解,将在安全、反恐、国防、智能交通、医疗监护、遥感等领域发挥重要作用,例如在复杂环境下检测和识别人体活动,进而对其行为和意图做出分析,以便对可能发生的异常、危险事件进行预测或判断并对可能的安全威胁进行分类、评价和预测等。因此,智能视觉监控技术和系统既是计算机视觉领域极具挑战性的科学问题,又是关系国家安全、经济发展和社会稳定的关键问题。

如图1-1所示,除了音视频编解码和图像预处理技术之外,智能视觉监控系统的主要技术包括:目标的检测、定位、跟踪和识别,这也是智能视觉分析的难点和关键所在。在人们的现实生活中,大量有意义的视觉信息都包含在运动中,视频图像处理的对象就是运动目标,从运动中找到对人们有用的信息,对人们的工作和生活提供帮助。虽然人类的视觉范畴十分广泛,既可以看见静止的又可以看见运动的目标,但是在很多应用场合,如工业控制、交通监控、机器视觉等领域,人们只对视频中运动的目标感兴趣,即视频图像处理的首要任务是从视频图像中检测出运动目标,通过时间和空间上的冗余信息,将背景和运动目标区分开。只有建立在检测到运动目标的基础上,才能进入目标定位、跟踪以及识别等环节,另外,视频运动目标的定位、跟踪和识别的效果仍须依赖运动目标检测的结果。因此,研究视频运动目标的检测具有很大的现实意义和应用价值,是序列图像分析的基础。检测到视频运动目标后,须进一步对其进行定位,即获取运动目标的空间位置信息;对于智能视觉监控系统来说,能否准确、可靠地定位运动目标,直接影响着进一步视频处理的效果。在目标检测和定位的基础上,目标跟踪实现对场景中运动目标的跟踪监测;运动目标跟踪的有效实现为动态场景中目标行为的判别、分类等更高语义层次的图像理解奠定了基础。最后,根据运动目标上提取的特征,目标识别技术实现目标行为的描述和分类理解,对目标威胁程度进行估计,得出决策,为社会安全提供有效保障。另外,在视频编解码、目标检测和目标跟踪中,经常利用目标的运动信息,所以,目标的运动估计也是其中的关键。本书以序列图像中目标分析技术的基本过程为主线,侧重于智能视觉监控系统中运动目标的检测、定位、运动估计、跟踪和识别等技术的介绍和研究。图1-1 智能视觉监控系统算法结构框图

智能视觉监控技术的核心主要是针对具体应用场景所设计的各种处理视频或图像数据的算法,所设计的算法也可用于一些涉及数字图像处理技术的应用场合。图1-2示意了三种视频运动目标检测技术的应用场合:图1-2(a)示意了视觉监控技术用于高速公路运动车辆的检测,这是当前智能交通系统(Intellectual Transportation System,ITS)的一种基本应用;图1-2(b)示意了视觉监控技术对路上行人进行检测的一种应用;图1-2(c)为在景区监控场合对森林火灾进行[2,3]报警的一种应用。计算机视觉技术也可用于某些工业应用场合,图1-3是一种基于计算机视觉技术的“轴承外观缺陷”检测平台示意图,图中传感装置包含了图像采集设备、特定光源以及位置传感器等,在获得含有轴承的图像数据后,进一步结合所设计的数字图像处理算法对轴承表面的凹坑、划痕、锈斑等外观缺陷进行检测,该应用属于工业机器视觉的范畴。图1-2 智能视觉监控应用举例图1-3 计算机视觉轴承外观缺陷检测平台示意图1.2 视频运动目标检测研究现状

计算机处理性能的快速提高,使得各种面向复杂应用的视频监控系统大量涌现。信息技术的发展,使得视频监控技术在商业、国防和[1]军事领域的应用日益增加。李安平在文献[1]中对智能监控的国内外研究现状做了比较完整的综述。

美国国防高级研究项目机构(Defence Advanced Research Projects Agency,DARPA)在1996年至1999年设立了以卡内基·梅隆大学为首,联合美国十几所高等院校和研究机构参加的视频监控项目[1]VSAM(Video Surveillance and Monitoring)。欧盟EULTR(European Union Long Term Research)资助比利时Katholieke大学的电子工程系、法国国家信息与自动化研究所等欧洲[1,4]著名大学和研究机构进行联合研究。欧盟IST(Information Society Technologies)Framework5程序委员会在1999年设立将智能监控技术用于公共交通管理系统重大项目ADVISOR(Annotated [1,5]Digital Video for Intelligent Surveillance and Optimized Retrieval)。日本也开展了智能视觉监控CDVP(The Cooperative Distributed [1,6]Vision Project)研究计划。国际上信息处理类权威杂志如IVC(Image and Vision Computing),PAMI(IEEE Transactions on Pattern Analysis and Machine Intelligence)和重要年度学术会议如CVPR(IEEE Computer Society Conference on Computer Vision and Pattern Recognition),IWVS(IEEE International Workshop on Visual Surveillance),ECCV(European Conference on Computer Vision)[1]等都将智能视觉监控系统作为主题内容之一。

在国内,上海交通大学、清华大学、华中科技大学和中国科学院自动化研究所等单位在智能视觉监控领域投入了相当的研究精力。其中,中国科学院自动化研究所模式识别国家重点实验室在该领域做了大量研究,他们在人体运动分析、交通行为事件分析、交通场景视频监控和智能轮椅视觉导航等领域取得了许多科研成果。为了进一步促进国内智能视觉监控的发展,中科院自动化研究所在2002年和2003年分别举办了第一届和第二届全国智能视觉监控会议。《自动化学[1]报》在2003年5月出版了一期视觉监控专刊。《中国图像图形学报》在2008年第2、3、4期刊出了“智能视觉监控技术及系统”专栏,旨在即时报道该领域的最新进展,总结国内在智能视觉监控领域的最新热点问题和现状,该专栏共有17篇文章。《计算机学报》、《软件学报》、《光电工程》、《信号处理》和《控制与决策》等一些杂志也对智能视觉监控系统中的一些关键技术进行了刊载。

目标的检测可在静态图像和视频序列中进行。检测静态图像的目[7~10]标,有基于图像分割的方法、模板匹配的方法等。视频序列的[11[14[16~13],15],17]目标检测主要有帧差法、光流法、统计模型法、小[18][19][20]波变换法、神经网络法及知觉组织模型方法等。帧差法及统计模型法是目前研究及工程技术人员使用较多的方法。1.2.1 背景差法

差分图像法可分为背景差法和邻帧差法,背景差法则是目前运动目标检测的主流方法。背景差法实现较为简易,一般情况下,相减结果可直接给出目标的位置、大小及形状等信息,并能够提供运动目标区域的完整描述,特别是对于摄像头静止的情况(静态场景),背景差法是实现运动目标实时检测和提取的首选方法。

一种典型的背景建模方法是用高斯混合模型(Gaussian Mixture Models,GMM)描述背景图像像素值分布,在目标检测过程中判断[21]图像的当前像素值是否符合该分布,若是则被判为前景点,否则为背景点。同时根据新获取的图像,对背景图像参数进行自适应更新。GMM背景建模方法能够较为可靠地处理光照变化、背景混乱运动的[22]干扰以及长时间的场景变化等。刘亚等在此基础上,对背景、静止目标和运动目标分别采用不同的更新策略,以减弱背景更新过程视[23][24]频运动目标对背景的影响。Karmann和Kilger提出了一种基于卡[25]尔曼滤波的自适应背景模型;视觉监控系统W4,利用最小、最大强度值和最大时间差分值为场景中的每个像素进行统计建模,并对模[26]型进行周期性的更新。

虽然很多文献提到了背景差算法,但还远远没能完全解决复杂环境中的视频运动目标的检测问题。由于不论在室内还是室外,有很多引起背景变化的情况产生,这些变化可能影响一部分背景,也可能影响整个背景,因此,需要用于比较的背景模型能实时更新,以适应这些改变。根据背景变化产生的原因,可将这些变化分为以下三类[27]。(1)光照的变化:连续的光照变化,通常是户外环境;突然的光照变化,通常是室内环境中的开关灯或室外晴天出现如乌云等情况;投影到背景中的阴影或前景目标自身的阴影。(2)背景的扰动:包括全局的运动变化,如室外摄像头受风吹而抖动;局部运动的变化,如室外随风吹动的树枝。(3)视频运动目标引起的背景变化:人将东西带入或带出背景,汽车驶入或驶出背景,或者人或物在场景中停留一会又运动的情况。[27]

代科学等人介绍了10多种背景建模方法,并详细说明了各种[28[32~31]建模方法的优缺点。这些方法有:时间差分法、中值滤波法~[25][38[4537]~44],46]、W4法、线性预测法、非参数模型法、混合高斯[47[56[58]~55],57]模型法、HMM法、本征法、基于均值替换的背景估计[59[62]~61]法、码本方法以及其他一些利用像素颜色和边界信息进行检[63~65]测的方法。1.2.2 邻帧差法

邻帧差法利用序列中连续两帧或几帧图像间的差异进行视频运动目标的检测和提取。该方法一般不能完全提取出所有相关的特征像素[26,66,67]点,在运动实体内容易产生空洞现象。1.2.3 光流法

光流法(Optical Flow)是通过研究视频序列的光流场而实现视[26]频运动目标检测的一种方法。光流场的计算始于1981年,Horn和[14]Schunck在相邻图像间的时间间隔小、图像灰度基本保持不变的假设下,推导出灰度图像光流场的基本约束方程。设I(x,y,t)是图像点(x,y)在时刻t的照度,在t+Δt时,这一点运动到新位置,其在图像上的位置变为为(x+Δx,y+Δy),灰度值记为I(x+Δx,y+Δy,t+Δt),根据图像灰度一致性假设=0,即有:

将公式(1-1)等号右边的式子用泰勒公式展开:

忽略二阶无穷小ε,由于Δt→0,于是有

记u=,v=,则式(1-3)可改写为

式(1-4)即为灰度图像光流场的基本约束方程,或写成矢量形式:

式中▽I=(I,I)为像素点灰度值的空间梯度,即图像中空间xyT的灰度变化,I为像素点灰度值随时间的变化率,U=[u,v]表示t光流。从光流的定义可以看出,它包含三方面意思:一是速度场,这是光流形成的必要条件;二是带光学特性的部位,它能携带信息;三是成像投影(从场景到图像平面),因而能被观察到。由于光流U=T[u,v]有两个变量,而光流基本等式只有一个方程,即光流场的基本约束方程作为仅有的约束,不能解出相互独立的两个速度分量u和v,即它的解是非唯一的,只能求出光流沿梯度方向上的值,而不能同时求出光流的两个速度分量u和v。因此,如何添加合适的约束条[68~71]件从而求出u、v的解,是光流场法的核心问题。1.3 视频运动目标定位研究现状

检测到视频运动目标后,须进一步定位视频运动目标,即获取视频运动目标的空间位置信息。目前针对视频运动目标定位的研究相对比较少,主要有三类方法:基于区域生长的定位方法、基于投影的定位方法以及基于聚类的定位方法。现分别简介如下。(1)基于区域生长的定位方法:该方法一般要求代表视频运动目标的二值区域具有良好的空域连通特性。对空域连通特性较差的目标,若直接采用该方法定位则容易导致误定位的问题。在采用区域生长进行定位前,一般采用形态学膨胀与腐蚀操作对运动目标的二值图像进行滤波,以保证待定位目标具有良好的空域连通特性。(2)基于投影的定位方法:该方法通过对视频运动目标进行水平和垂直投影操作[见图1-4(a)],从而确定目标区域的上下边界。基于投影的定位方法比较适用于单个目标的定位,不大适用于多个目标的定位场合[如图1-4(b)所示的情况]。(3)基于聚类的定位方法:该方法目前比较常见的是基于k-均值[72]聚类的定位方法。对基于k-均值聚类的定位方法,由于受k-均值聚类算法本身使用条件的约束,该类定位方法须事先指定待定位目标的个数,然后才能进行视频运动目标的定位;基于k-均值聚类的定位方法不但适用于多个目标的定位场合,而且还可以对空域连通特性较差的视频运动目标进行定位,但由于该定位方法需要预先指定待定位目标的个数,所以该算法的实用性受到一定的限制。Severine Dubuisson等在文献[72]中就采用k-均值聚类算法对视频运动目标进行了定位。图1-4 基于投影的目标定位示意图1.4 视频运动估计研究现状

运动估计是在视频处理(如视频编码等)和视频分析(如视频目标检测和分割等)中广泛应用的一种技术。运动估计的思想是将视频序列中的每一帧图像都分割成许多互不重叠的子块,并认为各子块中的所有像素都有着相同的运动情况,然后根据块匹配准则对每个块都到参考帧某一特定的搜索范围内找出与当前块最相似匹配块,并通过匹配块与当前块的相对位移得到对应的运动矢量。

在众多的运动估计算法中,全搜索法(Full Search,FS)是搜索精度最高的,但这是以巨大的计算复杂度为代价的,它对搜索区域中每一个像素点都进行搜索,以找到使绝对残差和(Sum of Absolutely Differences,SAD)最小的全局最优点。FS算法由于计算复杂度太高,几乎不可能在实际视频处理中应用。为了适应实时场合的应用,研究[73]者提出了许多快速的运动估计算法,早期的三步法(TSS)和二维[74]对数法(2DLOG)通过限制搜索位置的数目来减小计算复杂度,不利于估计小的运动且搜索容易陷入局部最优;新三步法(NTSS)[75][76][77]、四步法(FSS)、梯度下降法(BBGDS)和基于菱形的搜[78]索算法(DS)等利用运动矢量具有中心偏移的分布特性,虽然提高了匹配速度,减小了陷入局部最优的可能性,但是这些算法的图像质量也都有明显下降;基于运动场预测的自适应搜索技术[79](PMVFAST)在搜索速度和图像质量上都有较大的提高,但其计算复杂度仍然较高。

自然中物体的运动现象是多种多样的,我们很难用一种单一的模型去进行描述,也就不大可能只用一种单一模板的运动估计算法去预测各种不同类型的运动。实际应用中,通常是采用多种搜索模板相结合的混合搜索算法。Z.B.Chen等人提出的[80,UMHexagonS(Unsymmetrical-cross Multi-Hexagon Search)算法81]是一种极具代表性的混合编码算法,如图1-5所示。该算法充分考虑了自然中常见视频序列的运动特性,依据从粗略到精细逐步推进的搜索策略,为每个搜索步骤选择最合适的搜索模板,并采用了起始搜索点预测和提前终止算法,具有较高的搜索效率和编码质量,正被广泛应用在视频监控、无线多媒体传感器网络、高清数字电视、智能手机摄像等诸多领域中。图1-5 UMHexagonS运动搜索算法1.5 视频运动目标跟踪研究现状

运动目标跟踪是通过构建相关跟踪算法机制,建立起图像序列中目标模型间的相互关联完成的。运动目标前景的准确获得是跟踪实现的前提,前景目标提供了目标模型的具体特征信息,包括面积、轮廓、颜色、纹理等,跟踪算法通过目标区域标记、特征提取、模型匹配几个步骤实现序列图像中目标模型间的互连,达到跟踪的目的。目标跟踪的实现为监控区域中目标行为的识别、分类等更高语义层次的图像理解奠定了基础。

运动目标跟踪算法的有效构建依赖于目标特征的准确提取和初始状态的鲁棒描述,视频图像序列中目标状态的持续匹配及估计是跟踪实现的根本,创建基于目标形状、纹理、色彩等有关特征的对应匹配是跟踪算法设计的一般思路,常用跟踪辅助工具包括卡尔曼滤波[82][83]、Condensation算法以及动态贝叶斯网络(Dynamic Bayesian [84]Network)等。[85]

根据算法的具体实现,跟踪算法可分为基于特征的跟踪、基[86[88][89,87]~于变形模型的跟踪、基于区域的跟踪以及粒子滤波跟踪91]等。1.基于特征的跟踪

运动目标的特征表示能有效实现序列图像中目标的互连,基于特征的跟踪算法在获知目标特征表示的基础上,通过构建基于特征的匹配达到目标跟踪的目的,算法整体实现包括目标特征的提取、描述,以及相似性度量。特征提取即是前景目标的符号表示,主要的特征描述包括颜色特征(颜色直方图、颜色一致性矢量等)、纹理特征(马尔科夫随机场模型、共生矩阵等)、形状特征(高宽比、偏心率等)、运动特征(速度、位置等)4种;相似性度量也叫特征匹配,是目标模型间的相似度比较,根据比较结果可以定位跟踪图像序列中目标,常用的度量方法有欧氏距离、加权距离、马氏距离、巴氏系数等。

基于特征的跟踪方法思路简单,跟踪效率高,即使目标发生部分遮挡,该方法亦能根据物体部分特征准确完成跟踪任务,但由于实际监控场景的复杂性,需要目标特征具有多方面的抗性和不变性,且为了提高跟踪精度,通常构建多特征描述符进行目标匹配,如果特征过多,系统的效率将会降低,反之,则有可能使跟踪不准确。对于这些问题,需要在实际应用中加以权衡和改进。2.基于变形模型的跟踪

该类算法的基本思想是采用有效的闭合轮廓曲线表达运动目标,并在充分考虑目标轮廓及图像特征的基础上构建能量函数,通过求解极小化能量实现轮廓曲线的目标逼近,达到跟踪的目的。Snake模型[92]跟踪算法作为该类跟踪的典型,能够较好地完成对刚性及非刚性目标的跟踪,相较基于特征的跟踪算法,其主要优点是将图像数据、条件约束、目标轮廓估计都集成于特征提取的过程,思路简便。然而,Snake模型也具有一定缺陷,首先,初始目标轮廓的表达需要接近真实边缘,否则容易发生错误;其次,曲线轮廓无法逼近具有深凹部分的目标边缘;此外,由于缺乏预测机制,无法实现快速运动目标的跟踪。3.基于区域的跟踪

基于区域的跟踪算法首先将图像中的运动目标分割提取并建立目标模板,此后,在新进视频帧中利用图像模板匹配相关技术搜索查找具有最大相似度的目标区域位置,该位置即为跟踪的结果。图像模板匹配根据实际应用需求可采用不同的算法,如对灰度图像可以采用基[93,94]于纹理和特征的匹配算法,对于彩色图像可采用基于颜色直方[95,96]图等模型的相关匹配算法。

该算法在目标未发生遮挡时,具有较高的跟踪精度和稳定性,但由于模板区域搜索匹配计算量大,算法时间复杂度高,实时性较差;此外,多数基于区域的目标跟踪算法模板图像大小固定,跟踪过程中无法适应运动目标的尺度变换。4.粒子滤波跟踪算法

该算法采用基于蒙特卡罗仿真(Monte Carlo Simulation)的思想[97],通过采样状态空间中的一组加权随机样本实现视觉目标后验概率的近似表示,通过迭代运算求解最优目标位置,进而实现视频运动目标的有效跟踪。算法具体实现包含以下几个步骤:首先,根据先验分布p()在目标区域周围做粒子采样,构建初始采样粒子集;然后,在新进视频帧中按照状态转移模型预测粒子状态;接着,计算粒子与目标模板间的相关性,并据此分配权值;最后,求出最优匹配位置,更新粒子集。

粒子滤波跟踪算法跟踪性能优越,可不受系统模型限制,对于各种非线性及非高斯模型系统具有较强的适应能力,灵活度高,广泛应用在运动目标实时跟踪实践中。但与此同时,算法仍有一定不足,即无法获得合理的建议分布,致使粒子采样效率无法进一步提高,因此,实际应用中算法仍待进一步改进。1.6 本书的内容及章节安排1.6.1 本书的内容

本书重点对序列图像中的目标分析技术进行了介绍和研究。其主要研究内容如下。(1)第一部分,绪论,对序列图像中目标分析技术的研究背景和意义进行了介绍,并重点分析了运动目标检测、目标定位、运动估计和目标跟踪方面的研究现状。(2)第二部分,运动目标的检测,首先提出了一种基本的视频运动目标检测技术框架;在此基础上提出了两种改进的运动目标检测算法,可分别用于需要精确检测目标和阈值化后目标连通性较差的应用场合中;另外,针对帧间差分法的不足,提出了一种基于差分背景融合建模的运动目标检测算法。(3)第三部分,运动目标的定位,在前面运动目标检测技术框架的基础上,提出了一种基于减法聚类算法的视频运动目标定位技术,并将原有减法聚类算法进行改进,提出了一种椭圆域减法聚类目标定位方法;然后通过分析减法聚类算法用于目标定位时的不足,针对减法聚类视频运动目标定位问题,进一步提出了七点优化技术,提出了改进算法;另外,本书提出了一种基于非参数核密度估计的视频运动目标空域定位技术,它可以根据具体的应用场合灵活选择核函数估计样本点的密度值分布;最后,针对大规模数据集减法聚类时间复杂度高的问题,提出了一种基于NystrÖm密度值逼近的减法聚类方法。(4)第四部分,运动目标的运动估计,为了降低运动估计的计算复杂度,提高算法的实时性,提出了一种基于运动场预测的六边形块运动估计搜索算法和一种基于运动场预测的部分失真块运动估计搜索算法;另外,在分析UMHexagonS算法的基础上,提出了一种基于运动信息自适应的快速运动估计算法。(5)第五部分,运动目标的跟踪与识别,针对复杂背景下目标跟踪的技术难点,提出了一种基于图像感知哈希技术的运动目标跟踪算法;然后,针对完全遮挡的情况,提出了一种自适应步长选择的NCC图像匹配算法;最后,根据异常行为难定义、易发现的特点,从行为异常的宏观状态出发采用基于团块和轨迹分析的方法判别异常行为,针对不同种类异常行为设定不同的判别规则,实现了区域入侵、人体跌倒、遗留物检测、人体徘徊四种异常行为的判定。1.6.2 本书的章节安排

本书共16章,每章内容安排如下。

第1章 介绍了本书的课题背景和研究意义,对智能监控系统以及视频运动目标的检测、定位、运动估计和跟踪技术的研究现状进行了介绍,最后对本书的研究内容及各章内容安排进行了说明。

第2章 介绍了一种基于积累差异背景建模的视频运动目标检测技术。结合颜色模型对语义视频运动目标进行检测,给出了对夜间运动车辆进行检测的实验效果,并将建模方法与高斯混合模型背景建模法进行了比较。

第3章 针对常规帧差法进行运动目标检测的不足,提出了一种基于差分背景融合建模的运动目标检测算法。其将高斯建模与帧间差分两种方法相结合实现目标检测,通过构建自适应背景更新策略达到背景模型的实时更新,有效实现了稳定背景模型的建立,并完成了前景的检测,使目标提取更加完整。

第4章 针对一些需要精确检测目标的应用场合,提出了一种基于Knockout的视频运动目标检测技术。

第5章 针对二值前景图像空域连通特性较差时的运动目标检测问题,提出了一种基于网格区域划分的视频运动目标检测技术。

第6章 针对视频运动目标定位的需要,提出了一种视频运动目标定位方法。该方法运用减法聚类算法对视频运动目标进行定位。并将原有减法聚类算法进行改进,介绍了一种椭圆域减法聚类目标定位算法。

第7章 针对减法聚类算法用于目标定位时的不足,进一步给出了七点优化技术,并给出了一种改进算法。

第8章 将减法聚类视频目标定位技术做了进一步推广,给出了一种基于非参数核密度估计的视频运动目标定位技术,该方法的特点是可以根据具体的应用场合灵活选择核函数估计样本点的密度值分布。

第9章 针对大规模数据集减法聚类时间复杂度高的问题,给出了一种基于NystrÖm密度值逼近的减法聚类方法。该方法特别适用于大规模数据集的减法聚类问题,可极大程度降低减法聚类的时间复杂度。

第10章 针对实时性要求比较高的应用,提出了一种基于运动场预测的六边形块运动估计搜索算法。该算法结合“足够好就停止搜索”的思想和六边形搜索模式的高速特性,并且在块失真度量中使用部分失真准则(PDC),进一步加快了搜索速度。

第11章 针对UMHexagonS搜索点数过多、搜索速度较慢的缺憾,提出了一种基于运动信息自适应的快速运动估计算法,其场景自适应能力和实时性能都得到了很大的增强。

第12章 针对现有部分失真运动估计算法存在的不足,提出了一种基于运动场预测的部分失真块运动估计搜索算法。该技术将可调部分失真准则和螺旋型搜索模式、运动场估计、中途停止等技术相结合,能快速找到匹配点,另外,其搜索速度是可调节的。

第13章 针对复杂场景中运动目标跟踪的技术难点,提出了一种基于图像感知哈希技术的运动目标跟踪算法。该算法利用感知哈希技术提取目标摘要进行模板图像识别匹配,采用匹配跟踪策略和搜索跟踪策略相配合来准确跟踪目标,并构建模板评价函数和模板更新准则实现目标模板的自适应更新,保证了其在目标发生遮挡和尺度变换情况下的适应性。

第14章 分析了运动目标遮挡对目标跟踪算法带来的影响以及目前运动目标抗遮挡算法的研究,然后提出了一种自适应步长选择的NCC图像匹配算法,把它作为完全遮挡时运动目标搜索的方法,最后设计了完全遮挡情况下运动目标跟踪的算法,较好地实现了运动目标完全遮挡时的跟踪。

第15章 阐述了基于目标团块和轨迹分析的两种异常行为分析方法,并针对特定异常行为设定具体判定规则,实现了真实场景中区域入侵、人体跌倒、遗留物检测、人体徘徊四种异常行为的判定。

第16章 对本书进行了总结与展望。1.7 本章小结

本章首先介绍了序列图像中目标分析技术的研究背景和意义,然后重点对智能监控系统以及视频运动目标的检测、定位、运动估计和跟踪技术的研究现状进行了总结与分析,最后对本书的研究内容及各章内容安排进行了说明。参考文献

[1] 李安平.复杂环境下的视频目标跟踪算法研究[D].上海:上海交通大学,2006.

[2] Qi Yang,Ziyin Li.Software Design for PCB Defects Detection System Based on AOI Technology[J].Information,Volume 14(12),December 2011,4041-4046.

[3] Ziyin Li,Qi Yang.System Design for PCB Defects Detection based on AOI Technology[C].The 4th International Congress on Image and Signal Processing(CISP2011),Volume 4,2022-2025.

[4] http://www.cordis.lu/esprit/src/23515.htm.

[5] http://www-sop.inria.fr/orion/ADVISOR.

[6] Matsuyama T..Cooperative Distributed Vision[C].Proceedings of DARPA Image Understanding Workshop,1998:365-384.

[7] N.R.Pal,S.K.Pal.A review on image segmentation techniques[J].Pattern Recognition,1993,26(9):1227-1297.

[8]Nalwa V.S.,Binford T.O..On detecting edges[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1986,8(6):699-714.

[9]Jain A.K.,Zhong Y.,Lakshmanan S..Object matching using deformable templates[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1996,18(3):267-278.

[10] Starovoitov V.V.,Kose C.,Sankur B..Generalized distance based matching of nonbinary images[C].IEEE International Conference on Image Processing 1998:803-807.

[11] Lipton A.,Fujiyoshi H.,Patil R..Moving target classification and tracking from real-time video[C].Proceedings of IEEE Workshop on Applications of Computer Vision,1998:8-14.

[12]Anderson C.,Bert P.,Vander Wal G.Change detection and tracking using pyramids transformation techniques[C].Proceedings of SPIE Conference on Intelligent Robots and Computer Vision,Cambridge,MA,USA,1985,579:72-78.

[13] Mustafa Oral,Umut Deniz.Centre of mass model -A novel approach to background modelling for segmentation of moving objects[J].Image and Vision Computing,2007,25:1365-1376.

[14] Horn,Berthold K.P.,Schunck Brian G..Determining Optical Flow[J].Artificial Intelligence,1981,17(1-3):185-203.

[15] Simon Denman,Vinod Chandran,Sridha Sridharan.An adaptive optical flow technique for person tracking systems[J].Pattern Recogination Letters,2007,28:1232-1239.

[16] Chris Stauffer,W.E.L.Grimson.Adaptive background mixture models for real-time tracking[J].IEEE Computer Society Conference on Computer Vision and Pattern Recognition,1999,2:246-252.

[17] Ying Li Tian,Max Lu,Arun Hampapur.Robust and Efficient Foreground Analysis for Real-time Video Surveillance[C].Proceedings of Computer Society Conference on Computer Vision and Pattern Recognition,San Diego,CA,USA,2005,1:1182-1187.

[18] Stephane Mallat,Wen Liang Hwang.Singularity detection and processing with wavelets[J].IEEE Transaction on Information Theory,1992,38(2):617-643.

[19] Jagdish Chandra Patra,Ferdinan Widjaja,et al.A fast neural network-based detection and tracking of dim moving targets in FLIR imagery[C].Proceedings of International Joint Conference on Neural Networks,Montreal,Canada,2005:3144-3149.

[20] Stilla U.,Michaelsen E.,Soergel U.,et al.Perceptua;grouping of regular structures for automatic detection of man-made objects[C].Proceeding of IEEE International Geoscience and Remote Sensing Symposium,Toulouse,France,2003,6:3525-3527.

[21] Stauffer Chris,Grimson W.E.L..Adaptive background mixture models for real-time tracking[C].Proceeding of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Colorado,USA,1999,2:1063-1069.

[22] 刘亚,艾海舟,徐光祐.一种基于背景模型的运动目标检测与跟踪算法[J].信息与控制,2002,31(4):315-319.

[23] Karmann Klaus Peter,Brandt Achim Von.Moving object recognition using an adaptive background memory[C].Time-Varying Image Processing and Moving Object Recognition,1990,2:189-296.

[24] Kilger M.A shadow handler in a video-based real-time traffic monitoring system[C].Proceedings of IEEE Workshop on Applications of Computer Vision,California,USA,1992:11-18.4

[25] Haritaoglu Ismail,Harwood David,Davis Larry S..W:who?when?where?what?a real time system of detecting and tracking people[C].Proceeding of Third IEEE International Conference on Automatic Face and Gesture Recognition,Nara,Japan,1998:222-227.

[26] 王素玉,沈兰荪.智能视觉监控技术研究进展[J].中国图像图形学报,2007,12(9):1505-1514.

[27] 代科学,李国辉,涂丹,等.监控视频运动目标检测减背景技术的研究现状和展望[J].中国图像图形学报,2006,11(7):919-927.

[28] Lipton A.,Fujiyoshi H,Patil R.Moving target classification and tracking from real-time video[C].Proceedings of IEEE Workshop on Applications of Computer Vision,Princeton,NJ,USA,1998:8-14.

[29]Anderson C.,Bert P.,Van der Wal G..Change detection and tracking using pyramids transformation techniques[C].Proceedings of SPIE Conference on Intelligent Robots and Computer Vision,Cambridge,MA,USA,1985,579:72-78.

[30]Collins R.,Lipton A.J.,Kanade H.,et al.A system for video surveillance and monitoring:VSAM final report[R].Technical Report:CMU-RI-TR-00-12,CarnegieMelon University,Pittsburgh,Peen,America,2000.

[31] 艾海舟,吕凤军.面向视觉监视的变化检测与分割[J].计算机工程与应用,2000,37(5):75-77.

[32] Cutler R.,Davis L..View-based detection[C].Proceedings of International Conference on Pattern Recognition,Brisbane,Australia,1998:495-500.

[33]Cucchiara R.,Grana C.,Piccardi M,et al.Detecting moving objects,ghosts,and shadows in video treams[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(10):1337-1342.

[34]林洪文,涂丹,李国辉.基于统计背景模型的运动目标检测方法[J].计算机工程,2003,29(16):97-99.

[35]Gloyer B.,Aghajan H.,Siu K.Y.,et al.Video-based freeway monitoring system using recursive vehicle tracking[C].Proceedings of SPIE Symposium on Electronic Imaging:Image and Video Processing,San Jose,CA,USA,1995,2421:173-180.

[36]Lo B.P.L.,Velastin S.A..Automatic congestion detection system for underground platforms[C].Proceedings of International Symposium on IntelligentMultimedia,Video,and Speech Processing,Hong Kong,2001:158-161.

[37] Zhou Q.,Aggarwal J..Tracking and classifying moving objects from videos[C].Proceedings of IEEE Workshop on Performance Evaluation of Tracking and Surveillance,Hawaii,USA,2001.

[38] Toyama K.,Krumm J.,Brumitt B.,et al.Wallflower:Principles and practice of background maintenance[C].Proceedings of International Conference on Computer Vision,Corfu,Greece,1999:255-261.

[39]Wren C.,Azabayejani A.,Darrel T.,et al.Pfinder:Real-time tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.

[40]Boult T.E.,Micheals R.,Gao X.,et al.Frame-rate omnidirectional surveillance and tracking of camouflaged and occluded targets[C].Proceedings of the 2nd IEEE Workshop on Visual Surveillance,Fort Collins,Colorado,USA,1999:48-55.

[41]Halevy G.,Weinshall D..Motion of disturbances:detection and tracking of multi-body non-rigid motion[J].Machine Vision and Applications,1999,11(3):122-137.

[42]Koller D.,Weber J.,Malik J..Robust multiple car tracking with occlusion reasoning[C].Proceedings of European Conference on ComputerVision,Stockholm,Sweden,1994:189-196.

[43]Karmann K.P..Moving object recognition using an adaptive background memory[C].Proceedings of Time-Varying Image Processing and Moving Object Recognition,Amsterdam,the Netherlands:Elsevier Science Publishers,1990:289-307.

[44] Kilger M..A shadow handler in a video-based real-time traffic monitoring system[C].Proceedings of IEEE Workshop on Applications of Computer Vision,Palm Springs,CA,USA,1992:1060-1066.

[45] Elgammal A.,Harwood D.,Davis L..Non-parametric model for background subtraction[C].Proceedings of International Conference on Computer Vision,Kerkyra,Greece,1999:751-767.

[46] Elgammal A..Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[J].Proceedings of IEEE,2002,90(7):1151-1163.

[47] Stauffer C.,Grimson W..Learning patterns of activity using real-time tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(8):747-757.

[48]Friedman N.,Russell S..Image segmentation in video sequences:A probabilistic approach[C].Proceedings of the 13th Conference on Uncertainty in Artificial Intelligence,Rhode Island,USA,1997:175-181.

[49]Grimson W.,Stauffer C.,Romano R..Using adaptive tracking to classify and monitor activities in a site[C].Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition,Santa Barbara,CA,USA,1998:22-29.

[50]Stauffer C.,Grimson W..Adaptive background mixture models for real-time tracking[C].Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition,Fort Collins,Colorado,USA,1999,2:246-252.

[51]Gao X.,Boult T.,Coetzee F.,et al.Error analysis of background adaption[C].Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition,Hilton Head Isand,SC,USA,2000:503-510.

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载