虫虫首页| 资源下载| 资源专辑| 精品软件
登录| 注册

条件下

  • 基于ARM的TimeToCount辐射测量仪的研究

    随着半导体工艺的飞速发展和芯片设计水平的不断进步,ARM微处理器的性能得到大幅度地提高,同时其芯片的价格也在不断下降,嵌入式系统以其独有的优势,己经广泛地渗透到科学研究和日常生活的各个方面。 本文以ARM7 LPC2132处理器为核心,结合盖革一弥勒计数管对Time-To-Count辐射测量方法进行研究。ARM结构是基于精简指令集计算机(RISC)原理而设计的,其指令集和相关的译码机制比复杂指令集计算机要简单得多,使用一个小的、廉价的ARM微处理器就可实现很高的指令吞吐量和实时的中断响应。基于ARM7TDMI-S核的LPC2132微处理器,其工作频率可达到60MHz,这对于Time-To-Count技术是非常有利的,而且利用LPC2132芯片的定时/计数器引脚捕获功能,可以直接读取TC中的计数值,也就是说不再需要调用中断函数读取TC值,从而大大降低了计数前杂质时间。本文是在我师兄吕军的《Time-To-Count测量方法初步研究》基础上,使用了高速的ARM芯片,对基于MCS-51的Time-To-Count辐射测量系统进行了改进,进一步论证了采用高速ARM处理器芯片可以极大的提高G-M计数器的测量范围与测量精度。 首先,讨论了传统的盖革-弥勒计数管探测射线强度的方法,并指出传统的脉冲测量方法的不足。然后讨论了什么是Time-To-Count测量方法,对Time-To-Count测量方法的理论基础进行分析。指出Time-To-Count方法与传统的脉冲计数方法的区别,以及采用Time-To-Count方法进行辐射测量的可行性。 接着,详细论述基于ARM7 LPC2132处理器的Time-To-Count辐射测量仪的原理、功能、特点以及辐射测量仪的各部分接口电路设计及相关程序的编制。 最后得出结论,通过高速32位ARM处理器的使用,Time-To-Count辐射测量仪的精度和量程均得到很大的提高,对于Y射线总量测量,使用了ARM处理器的Time-To-Count辐射测量仪的量程约为20 u R/h到1R/h,数据线性程度也比以前的Time-To-CotJnt辐射测量仪要好。所以在使用Time-To-Count方法进行的辐射测量时,如何减少杂质时间以及如何提高计数前时间的测量精度,是决定Time-To-Count辐射测量仪性能的关键因素。实验用三只相同型号的J33G-M计数管分别作为探测元件,在100U R/h到lR/h的辐射场中进行试验.每个测量点测量5次取平均,得出随着照射量率的增大,辐射强度R的测量值偏小且与辐射真实值之间的误差也随之增大。如果将测量误差限定在10%的范围内,则此仪器的量程范围为20 u R/h至1R/h,量程跨度近六个数量级。而用J33型G-M计数管作常规的脉冲测量,量程范围约为50 u R/h到5000 u R/h,充分体现了运用Time-To-Count方法测量辐射强度的优越性,也从另一个角度反应了随着计数前时间的逐渐减小,杂质时间在其中的比重越来越大,对测量结果的影响也就越来越严重,尽可能的减小杂质时间在Time-To-Count方法辐射测量特别是测量高强度辐射中是关键的。笔者用示波器测出此辐射仪器的杂质时间约为6.5 u S,所以在计算定时器值的时候减去这个杂质时间,可以增加计数前时间的精确度。通过实验得出,在标定仪器的K值时,应该在照射量率较低的条件下行,而测得的计数前时间是否精确则需要在照射量率较高的条件下通过仪器标定来检验。这是因为在照射量率较低时,计数前时间较大,杂质时间对测量结果的影响不明显,数据线斜率较稳定,适宜于确定标定系数K值,而在照射量率较高时,计数前时间很小,杂质时间对测量结果的影响较大,可以明显的在数据线上反映出来,从而可以很好的反应出仪器的性能与量程。实验证明了Time-To-Count测量方法中最为关键的环节就是如何对计数前时间进行精确测量。经过对大量实验数据的分析,得到计数前时间中的杂质时间可分为硬件杂质时间和软件杂质时间,并以软件杂质时间为主,通过对程序进行合理优化,软件杂质时间可以通过程序的改进而减少,甚至可以用数学补偿的方法来抵消,从而可以得到比较精确的计数前时间,以此得到较精确的辐射强度值。对于本辐射仪,用户可以选择不同的工作模式来进行测量,当辐射场较弱时,通常采用规定次数测量的方式,在辐射场较强时,应该选用定时测量的方式。因为,当辐射场较弱时,如果用规定次数测量的方式,会浪费很多时间来采集足够的脉冲信号。当辐射场较强时,由于辐射粒子很多,产生脉冲的频率就很高,规定次数的测量会加大测量误差,当选用定时测量的方式时,由于时间的相对加长,所以记录的粒子数就相对的增加,从而提高仪器的测量精度。通过调研国内外先进核辐射测量仪器的发展现状,了解到了目前最新的核辐射总量测量技术一Time-To-Count理论及其应用情况。论证了该新技术的理论原理,根据此原理,结合高速处理器ARM7 LPC2132,对以G-计数管为探测元件的Time-To-Count辐射测量仪进行设计。论文以实验的方法论证了Time-To-Count原理测量核辐射方法的科学性,该辐射仪的量程和精度均优于以前以脉冲计数为基础理论的MCS-51核辐射测量仪。该辐射仪具有量程宽、精度高、易操作、用户界面友好等优点。用户可以定期的对仪器的标定,来减小由于电子元件的老化对低仪器性能参数造成的影响,通过Time-To-Count测量方法的使用,可以极大拓宽G-M计数管的量程。就仪器中使用的J33型G-M计数管而言,G-M计数管厂家参考线性测量范围约为50 u R/h到5000 u R/h,而用了Time-To-Count测量方法后,结合高速微处理器ARM7 LPC2132,此核辐射测量仪的量程为20 u R/h至1R/h。在允许的误差范围内,核辐射仪的量程比以前基于MCS-51的辐射仪提高了近200倍,而且精度也比传统的脉冲计数方法要高,测量结果的线性程度也比传统的方法要好。G-M计数管的使用寿命被大大延长。 综上所述,本文取得了如下成果:对国内外Time-To-Count方法的研究现状进行分析,指出了Time-To-Count测量方法的基本原理,并对Time-T0-Count方法理论进行了分析,推导出了计数前时间和两个相邻辐射粒子时间间隔之间的关系,从数学的角度论证了Time-To-Count方法的科学性。详细说明了基于ARM 7 LPC2132的Time-To-Count辐射测量仪的硬件设计、软件编程的过程,通过高速微处理芯片LPC2132的使用,成功完成了对基于MCS-51单片机的Time-To-Count测量仪的改进。改进后的辐射仪器具有量程宽、精度高、易操作、用户界面友好等特点。本论文根据实验结果总结出了Time-To-Count技术中的几点关键因素,如:处理器的频率、计数前时间、杂质时间、采样次数和测量时间等,重点分析了杂质时间的组成以及引入杂质时间的主要因素等,对国内核辐射测量仪的研究具有一定的指导意义。

    标签: TimeToCount ARM 辐射测量仪

    上传时间: 2013-06-24

    上传用户:pinksun9

  • 基于ARM的声学海流剖面仪信号模拟器研制及回波信号处理

    随着海洋勘测技术的发展,研制高性能的海洋测流仪器越来越重要。多普勒声学海流剖面仪就是一种非常重要的用来测量海流速度的仪器。在调试多普勒声学海流剖面仪的过程中,多普勒声学海流剖面仪信号模拟器是很重要的设备,它是数字模拟技术与多普勒声学技术相结合的产物,它通过模拟的方法产生声学海流剖面仪回波信号,以便在不具备实际海洋情况的条件下,可以在实验室环境中对声学海流剖面仪的样机进行系统调试。在此情况下,本文研制了一种声学海流剖面仪信号模拟器,并对声学海流剖面仪回波信号接收过程中使用的算法进行了研究。 本文首先比较了多普勒声学海流剖面仪的发射信号与接收信号之间的关系,分析了产生多普勒频移的原因。选用直接数字频率合成技术(DDS)生成多普勒声学海流剖面仪调试所需要的回波信号o DDS技术克服了传统信号源的频率精度不高和频率不稳等问题。本文选用专用DDS芯片AD9833来实现回波信号的产生,利用ARM嵌入式技术对输出信号进行控制。 信号模拟器以S3C2410处理器为核心构建了硬件平台,采用核心板与扩展板相结合的硬件结构。核心板主要包括了存储系统、网络接口和各种通讯接口。其主要功能是存储大量数据信号和通讯功能;扩展电路包括了16路DDS信号输出及信号调理电路,可以通过软件来配置16路信号相应的工作状态及选择信号输出形式。硬件设计预留了一定数量的I/O接口以备将来扩展之用。 建立嵌入式Linux开发环境;并分析BootLoader启动机制,移植VIVI;通过配置内核相关文件,移植Linux2.4.18内核到模拟器系统;编写16路DDS的驱动程序;设计了模拟器的上位机通讯程序及用应程序;对系统进行了软硬件调试,调试结果表明模拟器完全能够模拟声学海流剖面仪的回波信号。 最后,结合回波信号形式,采用基带解调、复相关等技术对接收回波信号所使用的算法进行了研究,估算出多普勒频移,配合了调试海流剖面仪样机工作的进行。该模拟器不但可以模拟回波信号,还可以作为发射信号来用,大大提高了模拟器的实用性。关键词:声学海流剖面仪;S3C2410; AD9833;嵌入式Linux;回波信号

    标签: ARM 声学 信号模拟器 信号处理

    上传时间: 2013-04-24

    上传用户:prczsf

  • 基于ARM技术的大气激光信号处理技术研究

    大气激光通信是指以激光光波作为载体,大气作为传输介质的光通信系统。在空间大气激光通信中,由于大气的散射、吸收,大气湍流等作用,在激光接收端就会出现光斑抖动、相位起伏等现象,因此研究一种适合在高速率、弱信号条件下处理技术,保证激光信号的误码率是有着十分重要的意义。 本文研究了一种基于嵌入式微处理器系统的大气激光信号处理方法。文章从空间激光发展现状及信道环境出发,提出了一种采用ARM微处理控制器并在控制器上移植实时操作系统μC/OS-Ⅱ,运用浮动阈值算法来减小大气信道对激光探测的影响的方法。在测试中,取得了比较好的实验效果。

    标签: ARM 大气 信号处理 激光

    上传时间: 2013-04-24

    上传用户:prczsf

  • 基于ARM架构的嵌入式人脸识别技术研究

    嵌入式人脸识别系统建立在嵌入式操作系统和嵌入式硬件系统平台之上,具有起点高、概念新、实用性强等特点。它涉及嵌入式硬件设计、嵌入式操作系统应用开发、人脸识别算法等领域的研究;嵌入式人脸识别系统携带方便、安装快捷、机动性强,可广泛应用于各类门禁系统、户外机动布控的实时监测等特殊场合,因此对嵌入式人脸识别的研究工作具有突出的理论意义和广泛的应用前景。 本文是上海市经委创新研究项目《射频识别RFID系统-自动识别和记录人群的身份》(编号:04-11-2)与上海市科委AM基金项目《基于ARM和RFID芯片的自组织安全监控系统的研制》(编号:0512)的主要研究内容之一。论文从构建自动人脸识别系统所需解决的若干关键问题入手,重点探讨了基于嵌入式ARM微处理器的实时人脸检测、关键特征定位、高效的人脸特征描述、鲁棒的人脸识别分类器及自动人脸识别系统设计等问题的研究。论文的主要工作和创新点表现在以下方面: 1实现了结合肤色校验的Haar特征级联分类器嵌入式实时人脸检测,提出了基于人脸约束的人眼Haar特征RSVM级联分类器人眼检测算法和基于遮罩掩磨与椭圆拟合的瞳孔定位算法。 复杂背景中的人脸检测是自动人脸识别系统首先要解决的关键问题,通过对基于肤色模型和基于Haar特征级联强分类器的人脸检测算法的分析研究,综合两个算法的优点,提出了基于肤色模型校验和Haar特征级联强分类器的嵌入式实时人脸检测算法。实验结果表明,该算法不仅解决了复杂背景中的类肤色和类人脸结构问题,而且具有较高的检测率和较快的检测速度,同时对光照、尺度等变化条件下的人脸检测也具有较强的鲁棒性。 人眼检测与瞳孔定位在人脸归一化和有效人脸特征抽取等方面起着非常重要的作用,为了快速检测人眼并精确定位人眼瞳孔中心,论文提出了基于人脸约束的人眼Haar特征RSVM级联分类器人眼检测算法和基于遮罩掩磨与椭圆拟合的瞳孔定位算法,首先利用人眼检测分类器在人脸区域内完成对人眼位置的检测,然后通过对检测到的人眼进行遮罩掩磨、简单图像形态学变换及椭圆拟合实现瞳孔中心的精确定位。测试结果表明该算法只需几百毫秒便能完成人眼检测与瞳孔中心定位整个过程,在保证检测速度较快的同时,还能确保较高的定位精度。 2 针对传统线性判别分析法存在的小样本问题(sss),通过调整Fisher判别准则,实现了自适应线性判别分析算法及相应的人脸识别方法人脸识别中的小样本问题使线性判别分析算法的类内散布矩阵发生严重退化,导致问题无法求解。本文在人脸识别小样本问题的基础上,通过调整Fisher判别准则,利用类间散布矩阵的补空间巧妙地避开类内散布矩阵的求逆运算,通过训练集每类样本的样本数信息自适应改变调整参数,实现了自适应线性判别分析算法,实验结果表明,该算法能有效解决人脸识别中的小样本问题。 3 提出了基于有效人脸区域的Gabor特征抽取算法,有效地解决了Gabor特征抽取维数过高的问题。 Gabor小波对图像的光照、尺度变化具有较强鲁棒性,是一种良好的人脸特征表征方法。但维数过高的Gabor特征造成应用系统的维数灾难,为解决Gabor特征的维数灾难问题,论文第四章提出了基于有效人脸区域的Gabor特征抽取算法,该算法不仅有效地降低了人脸特征向量维数,缩小了人脸特征库的规模,同时降低了核心算法的时间和空间复杂度,而且具有与传统Gabor特征抽取算法同样的鲁棒性。 4 结合有效人脸区域的Gabor特征抽取、自适应线性判别分析算法和基于支持向量机分类策略,提出并实现了基于支持向量机的嵌入式人脸识别和嵌入式人像比对系统支持向量机通过引入核技巧对训练样本进行学习构造最小化错分风险的最优分类超平面,不仅具有强大的非线性和高维处理能力,而且具有更强的泛化能力。本文研究了支持向量机的多类分类策略和训练方法,并结合论文中提出的基于有效人脸区域的Gabor特征提取算法、自适应线性判别分析算法,首次在基于Windows CE操作系统的嵌入式ARM平台中实现了具有较强鲁棒性的嵌入式自动人脸识别系统和嵌入式人像比对系统。 5 提出并初步实现了基于客户机/服务器结构无线网络模型的远距离人脸识别方案为解决嵌入式人脸识别系统在海量人脸库中进行识别的难题,论文提出并初步实现了基于客户机/服务器结构无线网络模型的嵌入式远距离人脸识别方案。 客户机(嵌入式平台)完成对人脸图像的检测、归一化处理和人脸特征提取,然后通过无线网络将提取后的人脸特征数据传输到服务器端,由服务器在海量人脸库中完成人脸识别,并将识别后的结果通过无线网络传输到客户机显示输出,从而实现基于客户机/服务器无线网络模型的嵌入式远距离人脸识别方案。 6 结合我们开发的基于ARM的嵌入式自动人脸识别系统和嵌入式人像比对系统,从系统设计的角度探讨了在嵌入式系统中进行人脸识别应用设计的思路及应该注意的问题虽然嵌入式人脸识别系统的性能很大程度上取决于高效的人脸特征描述和鲁棒的人脸识别核心算法。但是,嵌入式系统的设计思想对嵌入式人脸识别系统的性能影响同样值得重视。本文第六章重点阐述了嵌入式自动人脸识别应用系统的设计思路,并结合我们自主开发的嵌入式自动人脸识别系统和嵌入式人像比对系统从系统设计的角度探讨了嵌入式人脸识别应用系统设计中应该注意的关键技术问题。 结合本文提出的算法我们在PC上完成对人脸识别分类器的训练,然后在嵌入式ARM开发平台上实现了嵌入式自动人脸识别、嵌入式人像比对两个便携式人员身份认证系统,经测试运行效果良好。所提出的人脸识别算法不仅具有一定的理论参考价值,而且对于嵌入式系统应用开发、AFR应用系统开发也具有一定的借鉴意义。

    标签: ARM 架构 嵌入式 人脸识别

    上传时间: 2013-05-18

    上传用户:我们的船长

  • JPEG2000算术编码的研究与FPGA实现

    JPEG2000是由ISO/ITU-T组织下的IEC JTC1/SC29/WG1小组制定的下一代静止图像压缩标准.与JPEG(Joint Photographic Experts Group)相比,JPEG2000能够提供更好的数据压缩比,并且提供了一些JPEG所不具有的功能[1].JPEG2000具有的多种特性使得它具有广泛的应用前景.但是,JPEG2000是一个复杂编码系统,目前为止的软件实现方案的执行时间和所需的存储量较大,若想将JPEG2000应用于实际中,有着较大的困难,而用硬件电路实现JPEG2000或者其中的某些模块,必然能够减少JPEG200的执行时间,因而具有重要的意义.本文首先简单介绍了JPEG2000这一新的静止图像压缩标准,然后对算术编码的原理及实现算法进行了深入的研究,并重点探讨了JPEG2000中算术编码的硬件实现问题,给出了一种硬件最优化的算术编码实现方案.最后使用硬件描述语言(Very High Speed Integrated Circuit Hardware Description Language,VHDL)在寄存器传输级(Register Transfer Level,RTL描述了该硬件最优化的算术编码实现方案,并以Altera 20K200E FPGA为基础,在Active-HDL环境中进行了功能仿真,在Quartus Ⅱ集成开发环境下完成了综合以及后仿真,综合得到的最高工作时钟频率达45.81MHz.在相同的输入条件下,输出结果表明,本文设计的硬件算术编码器与实现JPEG2000的软件:Jasper[2]中的算术编码模块相比,处理时间缩短了30﹪左右.因而本文的研究对于JPEG2000应用于数字监控系统等实际应用有着重要的意义.

    标签: JPEG 2000 FPGA 算术编码

    上传时间: 2013-05-16

    上传用户:671145514

  • 用AD590自组数字温度计的设计实验

    随着传感器技术的飞速发展,各种各样的温度传感器被广泛的应用于教学、科研和工业生产中。其中集成温度传感器AD590,因其线性好、精确度高和易于实现计算机在线测试与数据处理等优点,在常温条件下已占有

    标签: 590 AD 数字温度计 设计实验

    上传时间: 2013-07-22

    上传用户:685

  • JPEG2000标准中算术编码的FPGA设计与码率控制算法的研究

    JPEG2000是由ISO/ITU-T组织下的IECJTC1/SC29/WG1小组制定的下一代静止图像压缩标准,其优良的压缩特性使得它将具有广泛的应用领域。JPEG2000算法非常复杂,图像编码过程占用了大量的处理器时间开销和内存开销,因而通过对JPEG2000算法进行优化并采用硬件电路来实现JPEG2000标准的部分或全部内容,对加快编码速度从而扩展其应用领域有重要的意义。 本文的研究主要包括两方面的内容,其一是JPEG2000算术编码器算法的研究与硬件设计,其二是JPEG2000码率控制算法的研究与优化算法的设计。在研究算术编码器过程中,首先研究了JPEG2000中基于上下文的MQ算术编码器的编码原理和编码流程,之后采用有限状态机和二级流水线技术,并在不影响关键路径的情况下通过对算术编码步骤优化采用硬件描述语言对算术编码器进行了设计,并通过了功能仿真与综合。实验证明该设计不但编码速度快,而且流水线短,硬件设计的复杂度低且易于控制。 在研究码率控制算法过程中,首先结合率失真理论建立了算法的数学模型,并验证了该算法的有效性,之后深入分析了该数学模型的实现流程,找出影响算法效率的关键路径。在对算法优化时采用黄金分割点算法代替原来的二分查找法,并使用了码块R-D斜率最值记忆和码率误差控制算法。实验证明,采用优化算法在增加少量系统资源的情况下使得计算效率提高了60%以上。之后,分析了率失真理论与JPEG2000中PCRD-opt算法的具体实现,又提出了一种失真更低的比特分配方案,即按照“失真/码长”值从大到小通道编码顺序进行编码,通过对该算法的仿真验证,得出在固定码率条件下新算法将产生更少的失真。

    标签: JPEG 2000 FPGA 标准

    上传时间: 2013-07-13

    上传用户:long14578

  • OFDM系统中信道均衡的技术研究及基于FPGA的实现

    最新的研究进展是OFDM的出现,并且在2000年出现了第一个采用此技术的无线标准(HYPERLAN-Ⅱ)。由于它与TDMA及CDMA相比能处理更高数据速率,因此可以预想在第四代系统中也将使用此技术。 宽带应用和高速率数据传输是OFDM调制/多址技术通信系统的重要特征之一。作者通过参与国家863计划项目“OFDM通信系统”一年以来的研发工作,对OFDM通信系统及相关技术有了深入的理解,积累了大量实际经验,并在相关工作中取得了部分研究成果。 另一方面,关于宽带自适应均衡技术的研究在近年来也引起了广泛的关注。它是补偿信道畸变的重要的技术之一。作者通过参与该项目FPGA部分的开发与调试工作,基于单片FPGA实现了均衡部分;此外,作者在频域自适应均衡算法方面也取得了一些理论成果。 本文的主体部分就是根据上述工作的内容展开的。 首先介绍了本课题相关技术的发展情况,主要包括:OFDM系统的技术原理、技术优势、历史和现状,均衡技术的特点和发展等。末尾叙述了本课题的来源和研究意义,并简介了作者的主要工作和贡献。确定将WSSUS分布和瑞利衰落作为本文研究的信道模型。主要分析了常用的时域均衡器,均是单载波非扩频数字调制中常用到的均衡器和均衡算法,为接下来的进一步研究作理论参考。 接着,论述了均衡必须用到的信道估计技术。重点就该方案的核心算法(频域均衡算法)进行了数学上进行了较深入的研究,建立系统模型,并据此推导了三种频域均衡的算法:频域消除HICI,Gauss-Seidel迭代算法,频域线性内插。采用WSSUS信道模型进行了计算机仿真,得出了采用这些均衡算法在不同条件下的性能曲线。并且系统地、有重点地对该方案的原理和实质进行了较深入的讨论。归纳比较了各种算法的算法复杂度和能达到的性能,并且结合信道纠错编解码进行了细致的分析。进一步尝试设计了无线局域网OFDM系统的设计,采用典型的欧洲Hyperlan2系统为例,把研究成果引入到实际的整个系统中来看。结合具体的系统指出了该均衡算法在抗衰落和相位偏移方面的应用。 最后,描述了利用Xilinx的xc2v3000-4FG676型号芯片针对OFDM系统实现频域自适应均衡的方法,主要给出了设计方法、时序仿真结果和处理速度估值等;并结合最新的FPGA发展动态和特点,对基于FPGA实现其他均衡算法的升级空间进行了讨论。 本文的结束语中,对作者在本文中所作贡献进行了总结,并指出了仍有待深入研究的几个问题。

    标签: OFDM FPGA 信道

    上传时间: 2013-04-24

    上传用户:

  • 基于FPGA的JPEG编解码芯片设计

    近年来,随着微电子技术的高速发展,数字图像压缩编码技术的逐渐成熟,实时图象处理在多媒体、HDTV、图像通信等领域有着越来越广泛的应用,图像压缩/解压的IC芯片也已成为多媒体技术的核心,实现这些算法芯片的研究成为信息产业的新热点.该文基于FPGA设计了JPEG图像压缩编解码芯片,通过改进算法优化结构,在合理地利用硬件资源的条件下,有效地挖掘出算法内在的并行性.在JPEG编码器设计中,改进了JEONG的DCT变换算法,采用流水线优化算法解决时间并行性问题,提高了DCT/IDCT模块的运算速度;设计了基于查找表结构的定点乘法器,便于在设计中共享乘法单元,以适应流水线设计的要求;依据Huffman编码表的规律性,采用并行查找表结构,用较少的存储单元完成Huffman编解码的运算,同时也提高了编解码速度.在JPEG解码器设计中,根据Huffman码字本身的特点和JPEG标准,设计了一种Huffman码字分组结构,基于该结构提出分组Huffman查找表及地址编码的设计方法,进而完成了新的快速Huffman解码算法及其模块设计.整个设计及其各个模块都在ALTERA公司的EDA工具QUARTUSII平台上进行了逻辑综合及功能和时序仿真.综合和仿真结果表明,基于FPGA的JPEG图像编解码芯片消耗很少的FPGA硬件资源,达到了较高的工作频率,在速度和资源利用率方面均达到了较优的状态,可满足实时JPEG图像编解码的要求.在逻辑设计的基础上,该设计可以进一步作硬件仿真和实验,将源代码烧录进FPGA芯片,作为独立器件或有自主知识产权的JPEG IP模块,应用于可视电话、手机和会议电视等低成本JPEG编解码系统的实现.

    标签: FPGA JPEG 编解码 芯片设计

    上传时间: 2013-05-31

    上传用户:yuying4000

  • 卷积码在CDMA2000中的应用及其译码器FPGA实现

    数字信息在有噪声的信道中传输时,受到噪声的影响,误码总是不可避免的。根据香农信息理论,只要使Es/N0足够大,就可以达到任意小的误码率。采用差错控制编码,即信道编码技术,可以在一定的Es/N0条件下有效地降低误码率。按照对信息元处理方式不同,信道编码分为分组码与卷积码两类。卷积码的k0和n0较小,实现最佳译码与准最佳译码更加容易。卷积码运用广泛,被ITU选入第三代移动通信系统,作为包括WCDMA,CDMA2000和TD-SCDMA在内的信道编码的标准方案。 本文研究了CDMA2000业务通道中的帧结构,对CDMA2000系统中的卷积码特性及维特比译码的性能限进行了分析,并基于MATLAB平台做了相应的译码性能仿真。我们设计了一种可用于CDMA2000通信系统的通用、高速维特比译码器。该译码器在设计上具有以下创新之处:(1)采用通用码表结构,支持可变码率;帧控制模块和频率控制器模块的设计中采用计数器、定时器等器件实现了可变帧长、可变数据速率的数据帧处理方式。(2)结合流水线结构思想,利用四个ACS模块并行运行,加快数据处理速度;在ACS模块中,将路径度量值存贮器的存储结构进行优化,防止数据读写的阻塞,缩短存储器读写时间,使译码器的处理速度更快。(3)为了防止路径度量值和幸存路径长度的溢出,提出了保护处理策略。我们还将设计结果在APEXEP20K30E芯片上进行了硬件实现。该译码器芯片具有可变的码率和帧长处理能力,可以运行于40MHZ系统时钟下,内部最高译码速度可达625kbps。本文所提出的维特比译码器硬件结构具有很强的通用性和高速性,可以方便地应用于CDMA2000移动通信系统。

    标签: CDMA 2000 FPGA 卷积码

    上传时间: 2013-06-24

    上传用户:lingduhanya