基于达芬奇平台的无线视频智能监控系统设计 下载本文

内容发布更新时间 : 2024/10/19 15:44:31星期一 下面是文章的全部内容请认真阅读。

龙源期刊网 http://www.qikan.com.cn

基于达芬奇平台的无线视频智能监控系统设计

作者:秦华

来源:《软件导刊》2011年第08期

摘 要:针对智能视频监控系统的要求,在达芬奇平台上实现无线视频智能监控系统,详细研究了系统的硬件设计方案与软件工作流程,对ARM和DSP所实现功能的模块进行深入的研究,最后对实现的系统进行测试,测试结果表明系统满足监控的要求。 关键词:智能监控;达芬奇平台;无线视频

中图分类号:TP311.52 文献标识码:A 文章编号:1672-7800(2011)08-0099-

作者简介:秦华(1984-),男,安徽芜湖人,同济大学研究生,研究方向为软件系统开发。 0 引言

移动视频智能监控是基于计算机视觉和模式识别领域,并结合现有的3G无线通信技术和嵌入式技术的应用,是视频监控进一步发展的方向。通过对视频图像高清采集、传输,进而监控和识别不同种类的物体,能及时发现和处理远程监控现场中的异常情况。识别和跟踪。进而能对异常现象进行定义和报警。智能视频监控具有广阔的市场前景,可应用于交通管理、安全防护、实时监控等领域。本文实现了基于Ti 达芬奇平台的智能视频监控系统。 1 无线视频智能监控系统框架

基于Ti达芬奇平台的系统总体设计框架图如图1所示:

图1 无线视频智能监控系统框架图

在Ti达芬奇平台端要进行两个大的模块,一个是独立的模块包括视频采集、视频预处理、目标检测和跟踪,之后是进行H.264 标准的编码,编码完成后进行TS打包后发送;第二

龙源期刊网 http://www.qikan.com.cn

个模块是通过无线网络和服务器端有交互的部分包括对于异常事件德检测和无线网络的发起。 本章会详细的阐述系统的设计与实现,同时对系统性能进行评估。

在交互的过程中服务器端通过控制协议来对远程的Ti达芬奇平台端进行控制。远程的Ti达芬奇平台端会有相应的接收模块来接受控制台的控制指令并执行这个指令,完成远程控制和设置参数的作用。本文是基于无线移动视频传输的远程监,控所以是通过无线信道进行传输。

2 系统结构设计 2.1 硬件结构设计

Ti达芬奇平台的DVEVM板卡是本文的硬件平台。前端负责采集的摄像头把D1格式的视频流由AV 端口传输到DVEVM板卡上,之后片内的Resizer 器件使图像转变为CIF的格式后。再传输到DSP中进行目标检测和跟踪算法的运算,如果息是异常的就需要把结果报告给ARM模块。与此同时DSP对视频以H.264格式来压缩并放入共享内存区,通过控制信息告诉ARM数据处理完毕可以进行TS打包。打包后通过3G无线网络发送到服务器端。之后服务器进行解码播放和智能识别。并可以向嵌入式平台发送控制指令来进行远程控制。 具体的硬件连接如图2 所示:

图2 系统硬件连接图 2.2 软件结构设计

达芬奇硬件是DSP+ARM的双核架构,而且本系统需要实现的功能众多,软件结构的设计就是基于DSP和ARM所需要实现的功能来设计的,当然还涉及他们之间的交互通信。在Ti达芬奇平台端要进行两个大的模块,一个是独立的模块包括视频采集、视频预处理、目标检测和跟踪,之后是进行H.264标准的编码,编码完成后进行TS打包后发送。而第二个模块是通过无线网络和服务器端有交互的部分包括对于异常事件德检测和无线网络的发起。 ARM模块主要实TS打包发送、硬件控制、和远程的控制台进行交互等功能,它可以植入Linux嵌入式操作系统后,能轻松地对硬件进行控制并处理多线程任务。当然还涉及他们之间的交互通信,还必须存在一个独立的线来负责和DSP 之间的交互通信,并和DSP共同实现对目标的检测和跟踪,和对异常事件进行检测和响应。ARM芯片间接对视频的采集和前端的预处理的硬件进行控制,以便它们能完成相应的任务,这就涉及到基于Linux的嵌入式操作系统来编写硬件驱动,然后再在应用程序直接调用来实现对它们二者的控制。

龙源期刊网 http://www.qikan.com.cn

这一节中本文只是对多线程结构的设计进行说明,具体的硬件驱动的编写将在随后的一节中介绍。

DSP模块可以实现高速的数字信号处理,其运算速度快,专门用来跑有庞大的计算量算法等。所以DSP模块可以实践以下功能:H.264编码,对目标检测和跟踪,对异常事件的检测和反馈。

所以完成功能将是通过下的流程,首先ARM 控制摄像头采集视频,然后通知前端进行预处理,之后发送到DSP中实现H.264编码,对目标检测和跟踪,对异常事件的检测和反馈,然后再返回到ARM 实现TS的打包发送后,再考虑到和控制台进行交互通信。实现功能的流程图如下图3所示:

图3 ARM和DSP所实现功能的模块图

上图中视频数据流属于串行的处理模式结构,导致DSP 和ARM的使用率都很低,都在平常效率的一半左右,所处理的帧率大概在19帧/秒前后,这种视频的处理速率满足不了视频需要进行实时处理的要求。所以需要用并行处理结构代替串行处理结构,以便DSP 和ARM的处理效率达到实时处理的要求。

对视频处理的并行处理的结构示意图如下图4所示:

图4 ARM和DSP并行处理的结构示意图

在达芬奇系统的架构里面,DSP芯片被ARM所调用的,是一种主从关系。如果要实现ARM和DSP的平行处理结构的话,实际上就是需要ARM 实现其控制的其他几个线程和DSP线程的并行调度。要完成上述的流水线似的并行操作的要求,必须利用Buffer的缓冲机制来达到这个目的,通过信号量达到这些进程的交互处理。基于上述的考虑需要四个进程来实现它,并同两级的Buffer缓冲和两个基于线程的条件变量和相应的两组保护它的互斥量。这四个进程是:控制台交互线程,前端处理线程,TS打包发送线程,视频处理线程。第一个线程是独立于其它线程之外的负责处理远程的控制命令。这些流程的示意图如下图5所示:

图5 各个线程的流程示意图 3 系统测试