随着中国二代导航系统的建设,卫星导航的应用将普及到各个行业,具有自主知识产权的卫星导航接收机的研究与设计是该领域的一个研究热点。在接收机的设计中,对于成熟技术将利用ASIC芯片进行批量生产,该芯片是专用芯片,一旦制造成型不能改变。但是对于正在研究的接收机技术,特别是在需要利用接收机平台进行提高接收机性能研究时,利用FPGA通用可编程门阵列芯片是非常方便的。在FPGA上的研究成果,一旦成熟可以很方便的移植到ASIC芯片,进行批量生产。本课题就是基于FPGA研究GPS并行捕获技术的硬件电路,着重进行了其中一个捕获通道的设计和实现。 GPS信号捕获时间是影响GPS接收机性能的一个关键因素,尤其是在高动态和实时性要求高的应用中或者对弱GPS信号的捕获方面。因此,本文在滑动相关法基础上引出了基于FFT的并行快速捕获方法,采用自顶向下的方法对系统进行总体功能划分和结构设计,并采用自底向上的方法对系统进行功能实现和验证。 本课题以Xilinx公司的Spartan3E开发板为硬件开发平台,以ISE9.2i为软件开发平台,采用Verilog HDL编程实现该系统。并利用Nemerix公司的GPS射频芯片NJ1006A设计制作了GPS中频信号产生平台。该平台可实时地输出采样频率为16.367MHz的GPS数字中频信号。 本课题主要是基于采样率变换和FFT实现对GPS C/A码的捕获。该算法利用平均采样的方法,将信号的采样率降低到1.024 MHz,在低采样率下利用成熟的1024点FFT IP核对C/A码进行粗捕,给出GPS信号的码相位(精度大约为1/4码片)和载波的多普勒频率,符合GPS后续跟踪的要求。 同时,由于FFT算法是以资源换取时间的方法来提高GPS捕获速度的,所以在设计时,合理地采用FPGA设计思想与技巧优化系统。基于实用性的要求,详细的给出了基于FFT的GPS并行捕获各个模块的实现原理、实现结构以及仿真结果。并达到降低系统硬件资源,能够快速、高效地实现对GPS C/A码捕获的要求。 本研究是导航研究所承担的国家863课题“利用多径信号提高GNSS接收机性能的新技术研究”中关于接收机信号捕获算法的一部分,对接收机的设计具有一定的参考价值。
上传时间: 2013-07-22
上传用户:user08x
矩阵运算是描述许多工程问题中不可缺少的数学关系,矩阵运算具有执行效率好、速度快、集成度高等优点,并且随着动态可配置技术的发展,灵活性也有了很大的提高。因此,寻找矩阵运算的高速实现方法是具有很大的现实意义,能够为高速运算应用提供技术支持。 为了提高研究成果的实用性与商用性,本文主要针对某种体积小、运算速度和性能要求很高的特殊场合设计并实现基于FPGA的矩阵运算功能。通过系统地研究FPGA功能结构、设计原理、DSP接口、IEEE-754标准,深入学习浮点数及矩阵的基础运算以及硬件编程语言等内容,根据矩阵运算的特点和原理,讨论了硬件设计方面重点对具体核心器件结构、特点以及有关FPGA的设计流程和控制器Verilog HDL硬件编程语言代码方面内容,确定了基于FPGA浮点运算及矩阵运算单元的Verilog HDL设计方法,在Quartus II平台上对其仿真、记录运算结果,并对采集到的数据结果进行了深入分析与总结。 本设计通过几种矩阵算法利用FPGA和MATLAB分别进行了实现测试,验证了设计结果的正确性,证明了本设计中矩阵运算速率的实用性与高效性,提高了系统资源利用率和系统可靠性,为今后在工程、军事、通讯等生产生活各个领域应用打下良好基础。
上传时间: 2013-07-07
上传用户:xuanjie
PID算法自从问世以来,一直受到广泛的关注。随着现代控制理论及智能控制技术的发展,PID算法也得到了长足的发展。结合传统的PID控制算法,针对特定的控制领域,出现了一些新的控制算法,模糊PID控制算法就是在此基础上渐渐形成并凸显其控制特色。 同时随着微电子技术的发展,现场可编程逻辑器件FPGA的发展及其EDA技术的日渐成熟,为集成控制芯片开拓了广阔的发展空间。FPGA的发展为基于硬件的算法模块的实现提供了可能性,同时节省了外围的电路,使算法模块的集成度大大提高。 本文针对当前国内外在算法研究方面的热点问题,对模糊PID算法进行了深入的分析和研究。通过对汽轮机调节系统的结构分析,对其进行了数学建模。采用某汽轮机的实际设计运行参数,利用Matlab仿真软件,对该汽轮机的数学模型进行了甩负荷动态特性仿真。仿真结果表明,模糊PID可以更好地解决汽轮发电机组在甩负荷过程中由于机组转子飞升量太大而导致危急保安装置动作,使得汽轮发电机组意外停机的问题,能够保证汽轮发电机组在意外甩负荷时机组正常的机械运转。根据模糊控制理论的特点及EDA技术和FPGA可编程逻辑器件的发展现状,提出了在FPGA上实现模糊PID算法的具体实现方案。在综合分析算法特性的基础上,选择Altera公司生产的CycloneⅡ系列中的EP2C35F672C6作为目标芯片,利用分层模块化设计思想,在Altera公司提供的QuartusⅡ开发环境中,利用原理图设计输入和VHDL设计输入相结合的方式实现了模糊PID控制算法,同时分别对实现的各个功能模块和整个算法模块进行了功能时序仿真。根据仿真结果分析,该设计实现了的模糊PID控制功能。 该控制算法模块的FPGA实现很好的避免了因CPU或者其它问题导致算法程序跑飞、程序死循环、复位不可靠等问题,提高了控制的可靠性。同时加强了模块的通用性,减少了系统硬件开发周期,节省了外围设备的电路,降低了设计开发成本。
上传时间: 2013-07-21
上传用户:thinode
全球定位系统(Global Positioning System—GPS)是新一代卫星导航定位系统,具有全球、全天候、连续、高精度导航与定位功能,能够为广大用户提供精确的三维坐标、速度和时间信息。因此,GPS系统被广泛地应用于生活中的各个领域。GPS系统用户主要是各种型号的接收机,而捕获跟踪技术是接收机的关键技术,同时也是一个技术难点。在GPS接收机中,导航电文是用户定位和导航的数据基础,为了得到导航电文必须要对GPS信号进行捕获跟踪。本文详细研究了GPS信号捕获跟踪技术,并进行了FPGA设计。 @@ 本文首先概述了GPS系统信号结构和GPS接收机工作原理,对GPS信号调制机理进行详细地阐述,重点分析了C/A码生成原理和特性。 @@ 其次叙述了GPS信号捕获的基础理论,重点研究时域滑动相关捕获方法,深入分析其算法和性能。用MATLAB中Simulink软件包搭建了可自由修改参数的GPS中频发生器,并在此平台上,对GPS信号时域滑动相关捕获算法进行仿真与分析。 @@ 接着重点研究了GPS信号跟踪技术,系统分析码跟踪环路和载波跟踪环路结构框图以及算法。在码跟踪环路方面,选用并分析了能分离载波的非相干超前滞后码锁定环的工作机理。在载波跟踪环路中选用对导航电文数据相位翻转不敏感的科斯塔斯环,并用数学模型分析GPS信号的解调过程。之后对整个跟踪环路进行MATLAB仿真,结果表明环路参数设计满足要求,并能成功解调出GPS导航电文。 @@ 最后本文在QuartusII环境下完成对GPS信号捕获跟踪系统的FPGA设计。根据对相关器硬件结构框架,对算法中各个模块的实现进行详细的说明,包括顶层设计到CA码、NCO等重要模块设计,并给出了仿真结果。 @@关键词:GPS接收机;捕获;跟踪;MATLAB仿真:FPGA
上传时间: 2013-06-16
上传用户:jacking
随着航天技术的发展,载人飞船、空间站等复杂航天器对空-地或空-空之间数据传输速率的要求越来越高。在此情况下,为了提高空间通信中数据传输的可靠性,保证接收端分路系统能和发送端一致,必须要经过帧同步。对卫星基带信号处理来说,帧同步是处理的第一步也是关键的一步。只有正确帧同步才能获取正确的帧数据进行数据处理。因此,帧同步的效率,将直接影响到整个卫星基带信号处理的结果。 @@ 本设计在研究CCSDS标准及帧同步算法的基础上,利用硬件描述语言及ISE9.2i开发平台在基于FPGA的硬件平台上设计并实现了单路数据输入及两路合路数据输入的帧同步算法,并解决了其中可能存在的帧滑动及模糊度问题。在此基础之上,针对两路合路输入时可能存在的两路输入不同步或帧滑动在两路中分布不均匀问题,设计实现了两路并行帧同步算法,并利用ModelSim SE 6.1f工具对上述算法进行了前仿真和后仿真,仿真结果表明上述算法符合设计要求。 @@ 本论文首先介绍了课题研究的背景及国内外研究现状,其次介绍了与本课题相关的基础理论及系统的软硬件结构。然后对单路数据输入帧同步、两路数据合路输入帧同步和两路并行帧同步算法的具体设计及实现过程进行了详细说明,并给出了后仿真结果及结果分析。最后,对论文工作进行了总结和展望,分析了其中存在的问题及需要改进的地方。 @@关键词 FPGA;CCSDS;帧同步:模糊度;帧滑动
上传时间: 2013-06-11
上传用户:liglechongchong
调整视频图像的分辨率需要视频缩放技术。如果图像缩放技术的处理速度达到实时性要求就可以应用于视频缩放。 传统图像缩放技术利用插值核函数对已有像素点进行插值重建还原图像。本文介绍了图像插值的理论基础一采样定理,并对理想重建函数Sinc函数进行了讨论。本文介绍了常用的线性图像插值技术及像素填充、自适应插值和小波域图像缩放等技术。然后,本文讨论了分级线性插值算法的思想,设计并实现了FPGA上的分级双三次算法。最后本文对各种算法的缩放效果进行了分析和讨论。 本文在分析现有视频缩放算法基础之上,提出了分级线性插值算法,并应用在简化线性插值算法中。分级线性插值算法以牺牲一定的计算精度为代价,用查找表代替乘法计算,降低了算法复杂度。本文设计并实现了分级双三次插值算法,详细说明了板上系统的模块结构。最后本文将分级线性插值算法与原线性插值算法效果图进行比较,比较结果显示分级插值算法与原算法误差较小,在放大比例较小时可以取代原算法。结果证明分级双三次线性插值算法的FPGA实现能够满足额定帧频,可以进行实时视频缩放。
上传时间: 2013-04-24
上传用户:亚亚娟娟123
当今,移动通信正处于向第四代通信系统发展的阶段,OFDM技术作为第四代数字移动通信(4G)系统的关键技术之一,被包括LTE在内的众多准4G协议所采用。IDFT/DFT作为OFDM系统中的关键功能模块,其精度对基带解调性能产生着重大的影响,尤其对LTE上行所采用的SC_FDMA更是如此。为了使定点化IDFT/DFT达到较好的性能,本文采用数字自动增益控制(DAGC)技术,以解决过大输入信号动态范围所造成的IDFT/DFT输出信噪比(SNR)恶化问题。 首先,本文简单介绍了较为成熟的AAGC(模拟AGC)技术,并重点关注近年来为了改善其性能而兴起的数字化AGC技术,它们主要用于压缩ADC输入动态范围以防止其饱和。针对基带处理中具有累加特性的定点化IDFT/DFT技术,进一步分析了AAGC技术和基带DAGC在实施对象,实现方法等上的异同点,指出了基带DAGC的必要性。 其次,根据LTE协议,搭建了从调制到解调的基带PUSCH处理链路,并针对基于DFT的信道估计方法的缺点,使用简单的两点替换实现了优化,通过高斯信道下的MATLAB仿真,证明其可以达到理想效果。仿真结果还表明,在不考虑同步问题的高斯信道下,本文所搭建的基带处理链路,采用64QAM进行调制,也能达到在SNR高于17dB时,硬判译码结果为极低误码率(BER)的效果。 再次,在所搭建链路的基础上,通过理论分析和MATLAB仿真,证明了包括时域和频域DAGC在内的基带DAGC具有稳定接收链路解调性能的作用。同时,通过对几种DAGC算法的比较后,得到的一套适用于实现的基带DAGC算法,可以使IDFT/DFT的输出SNR处于最佳范围,从而满足LTE系统基带解调的要求。针对时域和频域DAGC的差异,分别选定移位和加法,以及查表的方式进行基带DAGC算法的实现。 最后,本文对选定的基带DAGC算法进行了FPGA设计,仿真、综合和上板结果说明,时域和频域DAGC实现方法占用资源较少,容易进行集成,能够达到的最高工作频率较高,完全满足基带处理的速率要求,可以流水处理每一个IQ数据,使之满足基带解调性能。
上传时间: 2013-05-17
上传用户:laozhanshi111
随着信息时代的到来,用户对数据保护和传输可靠性的要求也在不断提高。由于信道衰落,信号经信道传输后,到达接收端不可避免地会受到干扰而出现信号失真。因此需要采用差错控制技术来检测和纠正由信道失真引起的信息传输错误。RS(Reed—Solomon)码是差错控制领域中一类重要的线性分组码,由于它编解码结构相对固定,性能强,不但可以纠正随机差错,而且对突发错误的纠错能力也很强,被广泛应用在数字通信、数据存储系统中,以满足对数据传输通道可靠性的要求。因此设计一款高性能的RS编解码器不但具有很大的应用意义,而且具有相当大的经济价值。 本文首先介绍了线形分组码及其子码循环码、BCH码的基础理论知识,重点介绍了BCH码的重要分支RS码的常用编解码算法。由于其算法在有限域上进行,接着介绍了有限域的有关理论。基于RS码传统的单倍结构,本文提出了一种八倍并行编码及九倍并行解码方案,并用Verilog HDL语言实现。其中编码器基于传统的线性反馈移位寄存器除法电路并进行八倍并行扩展,译码器关键方程求解模块基于修正的欧几里德算法设计了一种便于硬件实现的脉动关键方程求解结构,其他模块均采用九倍并行实现。由于进行了超前运算、流水线及并行处理,使编解码的数据吞吐量大为提高,同时延时更小。 本论文设计了C++仿真平台,并与HDL代码结果进行了对比验证。Verilog HDL代码经过modelsim仿真验证,并在ALTERA STRATIX3 EP3SL15OF1152C2 FPGA上进行综合验证以及静态时序分析,综合软件为QUATURSⅡ V8.0。验证及测试表明,本设计在满足编解码基本功能的基础上,能够实现数据的高吞吐量和低延时传输,达到性能指标要求。本论文在基于FPGA的RS(255,223)编解码器的高速并行实现方面的研究成果,具有通用性、可移植性,有一定的理论及经济价值。
上传时间: 2013-04-24
上传用户:思琦琦
现代数字信号处理对实时性提出了很高的要求,当最快的数字信号处理器(DSP)仍无法达到速度要求时,唯一的选择是增加处理器的数目,或采用客户定制的门阵列产品。随着可编程逻辑器件技术的发展,具有强大并行处理能力的现场可编程门阵列(FPGA)在成本、性能、体积等方面都显示出了优势。本文以此为背景,研究了基于FPGA的快速傅立叶变换、数字滤波、相关运算等数字信号处理算法的高效实现。 首先,针对图像声纳实时性的要求和FPGA片内资源的限制,设计了级联和并行递归两种结构的FFT处理器。文中详细讨论了利用流水线技术和并行处理技术提高FFT处理器运算速度的方法,并针对蝶形运算的特点提出了一些优化和改进措施。 其次,分析了具有相同结构的数字滤波和相关运算的特点,采用了有乘法器和无乘法器两种结构实现乘累加(MAC)运算。无乘法器结构采用分布式算法(DA),将乘法运算转化为FPGA易于实现的查表和移位累加操作,显著提高了运算效率。此外,还对相关运算的时域多MAC方法及频域FFT方法进行了研究。 最后,完成了图像声纳预处理模块。在一片EP2S60上实现了对160路信号的接收、滤波、正交变换以及发送等处理。实验表明,本论文所有算法均达到了设计要求。
上传时间: 2013-06-09
上传用户:zgu489
人脸自动识别技术是模式识别、图像处理等学科的一个最热门研究课题之一。随着社会的发展,各方面对快速有效的自动身份验证的要求日益迫切,而人脸识别技术作为各种生物识别技术中最重要的方法之一,已经越来越多的受到重视。对于具有实时,快捷,低误识率的高性能算法以及对算法硬件加速的研究也逐渐展开。 本文详细分析了智能人脸识别算法原理,发展概况和前景,包括人脸检测算法,人眼定位算法,预处理算法,PCA和ICA 算法,详细分析了项目情况,系统划分,软硬件平台的资源和使用。并在ISE软件平台上,用硬件描述语言(verilog HDL)对算法部分严格按照FPGA代码风格进行了RTL 硬件建模,并对C++算法进行了优化处理,通过仿真与软件算法结果进行比对,评估误差,最后在VirtexII Pro FPGA 上进行了综合实现。 主要研究内容如下: 首先,对硬件平台xilinx的VirtexII Pro FPGA 上的系统资源进行了描述和研究,对存储器sdram,RS-232 串口,JTAG 进行了研究和调试,对Coreconnect的OPB总线仲裁机理进行了两种算法的比较,RTL 设计,仿真和综合。利用ISE和VC++软件平台,对verilog和C++算法进行同步比较测试,使每步算法对应正确的结果。对软硬件平台的合理使用使得在项目中能尽可能多的充分利用硬件资源,制板时正确选型,以及加快设计和调试进度。其次,对人脸识别算法流程中的人脸检测,人眼定位,预处理,识别算法分别进行了比较研究,选取其中各自性能最好的一种算法对其原理进行了分析讨论。人脸检测采用adaboost 算法,因其速度和精度的综合性能表现优异。人眼定位采用小块合并算法,因为它具有快速,准确,弱时实的特点。预处理算法采用直方图均衡加平滑的算法,简单,高效。 识别算法采用PCA 加ICA 算法,它能最大的弱化姿态和光照对人脸识别的影响。 最后,使用Verilog HDL 硬件描述语言进行算法的RTL 建模,在C++算法的基础上,保证原来效果的前提下,根据FPGA 硬件特点对算法进行了优化。视频输入输出是人脸识别的前提,它提供FPGA 上算法需要处理的数据,预处理算法在C++算法的基础上进行了优化,最大的减少了运算量,提高了运算速度,16 位计算器模块使得在算法实现时可以根据系统要求,在FPGA的ip 核和自己设计的模块之间选择性能更好的一个来调用,FIFO的设计提供同步和异步时钟域的数据缓存。设计在ISE和VC++软件平台同时进行,随时对verilog和C++数据进行监测和比对。全部设计模块通过仿真,达到预定的性能要求,并在FPGA 上综合实现。
上传时间: 2013-07-13
上传用户:李梦晗