矩阵运算是描述许多工程问题中不可缺少的数学关系,矩阵运算具有执行效率好、速度快、集成度高等优点,并且随着动态可配置技术的发展,灵活性也有了很大的提高。因此,寻找矩阵运算的高速实现方法是具有很大的现实意义,能够为高速运算应用提供技术支持。 为了提高研究成果的实用性与商用性,本文主要针对某种体积小、运算速度和性能要求很高的特殊场合设计并实现基于FPGA的矩阵运算功能。通过系统地研究FPGA功能结构、设计原理、DSP接口、IEEE-754标准,深入学习浮点数及矩阵的基础运算以及硬件编程语言等内容,根据矩阵运算的特点和原理,讨论了硬件设计方面重点对具体核心器件结构、特点以及有关FPGA的设计流程和控制器Verilog HDL硬件编程语言代码方面内容,确定了基于FPGA浮点运算及矩阵运算单元的Verilog HDL设计方法,在Quartus II平台上对其仿真、记录运算结果,并对采集到的数据结果进行了深入分析与总结。 本设计通过几种矩阵算法利用FPGA和MATLAB分别进行了实现测试,验证了设计结果的正确性,证明了本设计中矩阵运算速率的实用性与高效性,提高了系统资源利用率和系统可靠性,为今后在工程、军事、通讯等生产生活各个领域应用打下良好基础。
上传时间: 2013-07-07
上传用户:xuanjie
全球定位系统(Global Positioning System—GPS)是新一代卫星导航定位系统,具有全球、全天候、连续、高精度导航与定位功能,能够为广大用户提供精确的三维坐标、速度和时间信息。因此,GPS系统被广泛地应用于生活中的各个领域。GPS系统用户主要是各种型号的接收机,而捕获跟踪技术是接收机的关键技术,同时也是一个技术难点。在GPS接收机中,导航电文是用户定位和导航的数据基础,为了得到导航电文必须要对GPS信号进行捕获跟踪。本文详细研究了GPS信号捕获跟踪技术,并进行了FPGA设计。 @@ 本文首先概述了GPS系统信号结构和GPS接收机工作原理,对GPS信号调制机理进行详细地阐述,重点分析了C/A码生成原理和特性。 @@ 其次叙述了GPS信号捕获的基础理论,重点研究时域滑动相关捕获方法,深入分析其算法和性能。用MATLAB中Simulink软件包搭建了可自由修改参数的GPS中频发生器,并在此平台上,对GPS信号时域滑动相关捕获算法进行仿真与分析。 @@ 接着重点研究了GPS信号跟踪技术,系统分析码跟踪环路和载波跟踪环路结构框图以及算法。在码跟踪环路方面,选用并分析了能分离载波的非相干超前滞后码锁定环的工作机理。在载波跟踪环路中选用对导航电文数据相位翻转不敏感的科斯塔斯环,并用数学模型分析GPS信号的解调过程。之后对整个跟踪环路进行MATLAB仿真,结果表明环路参数设计满足要求,并能成功解调出GPS导航电文。 @@ 最后本文在QuartusII环境下完成对GPS信号捕获跟踪系统的FPGA设计。根据对相关器硬件结构框架,对算法中各个模块的实现进行详细的说明,包括顶层设计到CA码、NCO等重要模块设计,并给出了仿真结果。 @@关键词:GPS接收机;捕获;跟踪;MATLAB仿真:FPGA
上传时间: 2013-06-16
上传用户:jacking
随着航天技术的发展,载人飞船、空间站等复杂航天器对空-地或空-空之间数据传输速率的要求越来越高。在此情况下,为了提高空间通信中数据传输的可靠性,保证接收端分路系统能和发送端一致,必须要经过帧同步。对卫星基带信号处理来说,帧同步是处理的第一步也是关键的一步。只有正确帧同步才能获取正确的帧数据进行数据处理。因此,帧同步的效率,将直接影响到整个卫星基带信号处理的结果。 @@ 本设计在研究CCSDS标准及帧同步算法的基础上,利用硬件描述语言及ISE9.2i开发平台在基于FPGA的硬件平台上设计并实现了单路数据输入及两路合路数据输入的帧同步算法,并解决了其中可能存在的帧滑动及模糊度问题。在此基础之上,针对两路合路输入时可能存在的两路输入不同步或帧滑动在两路中分布不均匀问题,设计实现了两路并行帧同步算法,并利用ModelSim SE 6.1f工具对上述算法进行了前仿真和后仿真,仿真结果表明上述算法符合设计要求。 @@ 本论文首先介绍了课题研究的背景及国内外研究现状,其次介绍了与本课题相关的基础理论及系统的软硬件结构。然后对单路数据输入帧同步、两路数据合路输入帧同步和两路并行帧同步算法的具体设计及实现过程进行了详细说明,并给出了后仿真结果及结果分析。最后,对论文工作进行了总结和展望,分析了其中存在的问题及需要改进的地方。 @@关键词 FPGA;CCSDS;帧同步:模糊度;帧滑动
上传时间: 2013-06-11
上传用户:liglechongchong
IIR数字滤波器是冲激响应为无限长的一类数字滤波器,是电子、通信及信号处理领域的重要研究内容,国内外学者对IIR数字滤波器的优化设计进行了大量研究。其中,进化算法优化设计IIR数字滤波器虽然取得了一定的效果,但是其也有自身的一些不足;另外,基于粒子群算法以及人工鱼群算法的IIR数字滤波器优化设计也取得了较好的效果。但这些方法都是将多目标优化问题转化为单目标优化问题,这种方法是将每个目标赋一个权值,然后将这些赋了权值的目标相加,把相加的结果作为目标函数,在此基础上寻找目标函数的最小值,这样做造成的问题是可能将其中的任何一种满足目标函数值最小的情况作为最优解,但实际上得到的不一定是最优解。也就是说,单目标的方法难以区分哪一种情况为最优解,这样的寻优模型从理论上来说是难以得到最优解的。另外,在将多目标转化为单目标时,各个目标的权值难以确定,而且最终只能得到唯一解。针对这些问题,本文在研究传统遗传算法、进化规划算法以及量子遗传算法的IIR数字滤波器优化设计的基础上,将重点研究IIR数字滤波器的粒子进化规划优化、遗传多目标优化以及量子多目标优化。另外,由于在通信系统中IIR数字滤波器有广泛应用,并且大量采用FPGA实现,多目标优化方法得到的滤波器性能也值得验证,因此,对多目标优化方法得到的IIR数字滤波器系数进行FPGA仿真验证有重要的现实意义。 @@ 论文的主要工作及研究成果具体如下: @@ 1.分析IIR数字滤波器的数学模型及其优化设计的参数;针对低通IIR数字滤波器,采用遗传算法及量子遗传算法对其进行优化设计,并给出相应的仿真结果及分析。 @@ 2.针对使用进化规划算法优化设计IIR数字滤波器时容易陷入局部极值的问题,研究粒子进化规划算法,并将其应用于IIR数字滤波器的优化设计,该算法将粒子群优化算法与进化规划算法相结合,继承了粒子群算法局部搜索能力强和进化规划算法遗传父代优良基因能力强的优点。将这种新的粒子进化规划算法应用于IIR低通、高通、带通、带阻数字滤波器的优化设计,显示了较好的效果。 @@ 3.优化设计IIR数字滤波器时,通常将多目标转化为单目标的优化问题,这种方法虽然设计简单,但是在将多目标转化为单目标时,各个目标的权值难以确定,而且最终只能得到唯一解,不能提供更多的有效解给决策者。针对常 用基于单目标优化算法的不足,在分析IIR数字滤波器优化模型和待优化参数的基础上,本文研究遗传算法的IIR数字滤波器多目标优化设计方法,该方法将多个目标值直接映射到适应度函数中,通过比较函数值的占优关系来搜索问题的有效解集,使用这种方法可以求得一组有效解,并且将多目标转化为单目标的优化方法得到的唯一解也能被包括在这一组有效解中。@@ 4.将量子遗传算法应用于IIR数字滤波器多目标优化设计,研究量子遗传算法的IIR数字滤波器多目标优化设计方法,并将优化结果与传统遗传算法的多目标优化方法进行了比较。仿真结果表明,在对同一种滤波器进行优化设计时,使用该方法得到的结果通带波动更小,过渡带更窄,阻带衰减也更大。 @@ 5.针对IIR数字滤波器的硬件实现问题,在对IIR数字滤波器的结构特征进行分析的基础上,分别采用遗传多目标优化方法量子多目标方法优化设计IIR数字滤波器的系数,然后针对两组系数进行了FPGA( Field-Programmable GateArray,现场可编程门阵列)仿真验证,并对两种结果进行了对比分析。 @@关键词:IIR数字滤波器;优化设计
上传时间: 2013-06-09
上传用户:熊少锋
调整视频图像的分辨率需要视频缩放技术。如果图像缩放技术的处理速度达到实时性要求就可以应用于视频缩放。 传统图像缩放技术利用插值核函数对已有像素点进行插值重建还原图像。本文介绍了图像插值的理论基础一采样定理,并对理想重建函数Sinc函数进行了讨论。本文介绍了常用的线性图像插值技术及像素填充、自适应插值和小波域图像缩放等技术。然后,本文讨论了分级线性插值算法的思想,设计并实现了FPGA上的分级双三次算法。最后本文对各种算法的缩放效果进行了分析和讨论。 本文在分析现有视频缩放算法基础之上,提出了分级线性插值算法,并应用在简化线性插值算法中。分级线性插值算法以牺牲一定的计算精度为代价,用查找表代替乘法计算,降低了算法复杂度。本文设计并实现了分级双三次插值算法,详细说明了板上系统的模块结构。最后本文将分级线性插值算法与原线性插值算法效果图进行比较,比较结果显示分级插值算法与原算法误差较小,在放大比例较小时可以取代原算法。结果证明分级双三次线性插值算法的FPGA实现能够满足额定帧频,可以进行实时视频缩放。
上传时间: 2013-04-24
上传用户:亚亚娟娟123
随着我国国民经济的高速发展,国内高速公路、城市道路、停车场建设越来越多,对交通控制、安全管理的要求也日益提高,智能交通系统( IntelligentTransportation Systems,简称ITS)已成为当前交通管理发展的主要方向,而车牌识别系统(License Plate Recognition System,简称LPRS)技术作为智能交通系统的核心,起着举足轻重的作用,可以被广泛地应用于高速公路自动收费(ElectronicToll Collection,简称ETC)、停车场安全管理、被盗车辆的追踪、车流统计等。 目前,车牌识别系统大多都是基于PC平台的,其优势是实现容易,但是成本高、实时性不强、稳定性不高等缺点使其不能广泛推广。为了克服以上的缺点,且满足识别速度和识别率的要求,本文在原有车牌识别硬件系统设计的基础上做了一定的改进(原系统在图像采集、接口通信、系统稳定、脱机工作等方面存在一定问题),与团队成员一起设计出了新的车牌识别硬件系统,采用单DSP+FPGA和双DSP+FPGA双板子的方式来共同实现(本人负责单DSP+FPGA的原理图和PCB绘制,另一成员负责双DSP+FPGA的原理图和PCB绘制)。 本文所涉及的该车牌硬件系统,主要工作由以下几个部分组成: 1.团队共同完成了新车牌识别系统的硬件设计,采用两个板子实现。其中,本人负责单DSP+FPGA板子绘制。 2.团队一起完成了整个系统的硬件电路调试。主要分为如下模块进行调试:电源,DSP,FPGA,SAA7113H视频解码器,LCD液晶显示和UART接口等。 3.负责完成了整个系统的DSP应用程序设计。采用DSP/BIOS操作系统来构建系统的框架,添加了多个任务对象进行管理系统的调度;用CSL编写了DSP上的底层驱动:完成了车牌识别算法在DSP上的移植与优化。 4.参与完成了部分FPGA程序的开发,主要包括图像采集、存储、传输几个模块等。 最终,本系统实现了高效、快速的车牌识别,各模块工作稳定,能脱机实现图像采集、传输、识别、结果输出和显示为一体化的功能;为以后进行高性能的车牌识别算法开发提供了一个很好的硬件平台。
上传时间: 2013-04-24
上传用户:slforest
无线传感器网络(Wireless Sensor Networks,WSN)是由大量传感器节点组成,这些节点部署在监测区域内通过无线通信方式,形成的一个多跳自组织的网络。整个网络的作用是协作地感知、采集和处理网络覆盖区域中监测对象的信息,并发送给观察者,可广泛应用于环境监测、医疗护理、军事、商业等多个领域。 媒体访问控制(Medium Access Control,MAC)协议处于无线传感器网络协议的物理层和路由层之间,用于在传感器节点间公平有效地共享通信媒介,对传感器网络的性能有较大影响。与传统无线网络不同,提高能量效率和可扩展性是无线传感器网络MAC协议设计的主要目标。 本文主要阐述基于FPGA对IEEE802.15.4 MAC层功能的实现。首先介绍了无线传感器网络的体系结构、MAC协议的设计要求以及已有的MAC层协议,讨论了无线传感器网络MAC层的主要要求和功能。然后详细介绍和分析了IEEE802.15.4的MAC协议,并在此基础上,通过NS2平台对MAC层协议进行了仿真,研究不同网络负荷下信道访问机制的各个参数对吞吐量,丢包率,传输延时的影响,分析了隐蔽站问题、确认帧机制。 本文对MAC层中的主要功能,诸如数据收发、帧处理、信道接入方式以及帧检验等提出了基于FPGA的硬件解决方法。设计选用硬件描述语言VerilogHDL,在QuartusⅡ中完成模块的综合和布局布线,在QuartusⅡ和Modelsim中进行时序仿真验证,最终下载到自主设计Altera公司的Cyclone开发板中。 对设计的验证采取的是由里及外的方式,先对系统主模块的功能进行验证,然后下载到与CC2430开发板相连接的FPGA中对设计进行验证测试。验证流程是功能仿真、时序仿真和板级调试,最终通过测试,验证了该设计的功能。测试结果表明,该模块能满足无线传感器网络低速率应用环境的需要,具有优良的扩展性能,达到了预期的设计目标。
上传时间: 2013-06-14
上传用户:竺羽翎2222
本研究针对目标识别等系统中由于载机转动而使目标图像发生旋转,给测量及人眼观察带来的影响,因此需要对目标图像进行实时的反旋转处理,对目前出现的消像旋技术进行分析和比较,选择从电子学消旋方法出发,研究图像消像旋的方法,并给出了基于FPGA的实时消像旋系统的完整结构和相应的算法设计。 本文在对电子图像消旋原理的深入分析的基础上,设计并利用Visual C++6.0软件仿真实现了一种优化的快速旋转算法,再利用后插值处理保证了图像的质量;构建了以ACEX EP1K100为核心的数字图像实时消像旋系统,利用VHDL硬件描述语言实现了整个消像旋算法的FPGA设计。该系统利用高速相机和Camera Link接口传输图像,提高了系统的运行速度。利用QuartusII和Matlab软件对整个算法设计进行混合仿真实验。实验结果表明,该系统能够成功地对采集到的灰度图像进行消像旋处理,旋转后的图像清晰稳定,像素误差小于一个像素,而且对于视频信号只有一帧的延时不到20ms,达到系统参数要求。
上传时间: 2013-07-04
上传用户:MATAIYES
现代数字信号处理对实时性提出了很高的要求,当最快的数字信号处理器(DSP)仍无法达到速度要求时,唯一的选择是增加处理器的数目,或采用客户定制的门阵列产品。随着可编程逻辑器件技术的发展,具有强大并行处理能力的现场可编程门阵列(FPGA)在成本、性能、体积等方面都显示出了优势。本文以此为背景,研究了基于FPGA的快速傅立叶变换、数字滤波、相关运算等数字信号处理算法的高效实现。 首先,针对图像声纳实时性的要求和FPGA片内资源的限制,设计了级联和并行递归两种结构的FFT处理器。文中详细讨论了利用流水线技术和并行处理技术提高FFT处理器运算速度的方法,并针对蝶形运算的特点提出了一些优化和改进措施。 其次,分析了具有相同结构的数字滤波和相关运算的特点,采用了有乘法器和无乘法器两种结构实现乘累加(MAC)运算。无乘法器结构采用分布式算法(DA),将乘法运算转化为FPGA易于实现的查表和移位累加操作,显著提高了运算效率。此外,还对相关运算的时域多MAC方法及频域FFT方法进行了研究。 最后,完成了图像声纳预处理模块。在一片EP2S60上实现了对160路信号的接收、滤波、正交变换以及发送等处理。实验表明,本论文所有算法均达到了设计要求。
上传时间: 2013-06-09
上传用户:zgu489
人脸自动识别技术是模式识别、图像处理等学科的一个最热门研究课题之一。随着社会的发展,各方面对快速有效的自动身份验证的要求日益迫切,而人脸识别技术作为各种生物识别技术中最重要的方法之一,已经越来越多的受到重视。对于具有实时,快捷,低误识率的高性能算法以及对算法硬件加速的研究也逐渐展开。 本文详细分析了智能人脸识别算法原理,发展概况和前景,包括人脸检测算法,人眼定位算法,预处理算法,PCA和ICA 算法,详细分析了项目情况,系统划分,软硬件平台的资源和使用。并在ISE软件平台上,用硬件描述语言(verilog HDL)对算法部分严格按照FPGA代码风格进行了RTL 硬件建模,并对C++算法进行了优化处理,通过仿真与软件算法结果进行比对,评估误差,最后在VirtexII Pro FPGA 上进行了综合实现。 主要研究内容如下: 首先,对硬件平台xilinx的VirtexII Pro FPGA 上的系统资源进行了描述和研究,对存储器sdram,RS-232 串口,JTAG 进行了研究和调试,对Coreconnect的OPB总线仲裁机理进行了两种算法的比较,RTL 设计,仿真和综合。利用ISE和VC++软件平台,对verilog和C++算法进行同步比较测试,使每步算法对应正确的结果。对软硬件平台的合理使用使得在项目中能尽可能多的充分利用硬件资源,制板时正确选型,以及加快设计和调试进度。其次,对人脸识别算法流程中的人脸检测,人眼定位,预处理,识别算法分别进行了比较研究,选取其中各自性能最好的一种算法对其原理进行了分析讨论。人脸检测采用adaboost 算法,因其速度和精度的综合性能表现优异。人眼定位采用小块合并算法,因为它具有快速,准确,弱时实的特点。预处理算法采用直方图均衡加平滑的算法,简单,高效。 识别算法采用PCA 加ICA 算法,它能最大的弱化姿态和光照对人脸识别的影响。 最后,使用Verilog HDL 硬件描述语言进行算法的RTL 建模,在C++算法的基础上,保证原来效果的前提下,根据FPGA 硬件特点对算法进行了优化。视频输入输出是人脸识别的前提,它提供FPGA 上算法需要处理的数据,预处理算法在C++算法的基础上进行了优化,最大的减少了运算量,提高了运算速度,16 位计算器模块使得在算法实现时可以根据系统要求,在FPGA的ip 核和自己设计的模块之间选择性能更好的一个来调用,FIFO的设计提供同步和异步时钟域的数据缓存。设计在ISE和VC++软件平台同时进行,随时对verilog和C++数据进行监测和比对。全部设计模块通过仿真,达到预定的性能要求,并在FPGA 上综合实现。
上传时间: 2013-07-13
上传用户:李梦晗