核能谱仪中的数据采集系统,集核探测技术、电子技术、计算机技术为一体,以多道脉冲幅度分析器为核心部件,能够快速、准确地提取出核素的相关信息及参数。现已于勘探、建材放射性检测及环境放射性监测等领域得到广泛应用。随着嵌入式技术的发展,以32位ARM为核心的微控制器已被引入进来,提高了数据采集的速度和精度,同时嵌入式操作系统的引入也为功能扩展、系统集成提供了高效的开发平台。 本论文介绍的核数据采集系统即以ARM微控制器LPC2148和实时操作系统μC/OS-II为平台,谱数据采集为基本功能,在此基础上扩展GPS和GPRS模块,可实现GPS信息和核信号的实时、同步接收,保存和显示,并可将采集的数据通过GPRS网络及时传到采集中心进行谱数据处理和GPS差分定位,为野外多点测量及远程监测提供了有效的手段。 课题以教育部的高等学校博士学科点专项科研基金项目“基于3GS技术的便携式核地球物理数据采集系统研究(项目编号:20040616014)”为依托,本人在已有研究成果的基础上,进行了相关改进和系统集成: (1)选用轨对轨运算放大器,改进了峰值检测电路,增大了脉冲峰值的测量精度。 (2)数据采集系统以32位ARM微控制器LPC2148为核心,外围电路带有LCD显示,系统具有低功耗、小型化、高性价比等特点。 (3)实现了核数据采集系统对GPS、GPRS的集成。 (4)完成嵌入式μC/OS-II操作系统在LPC2148上的移植、操作系统的搭建,及各功能模块的设计与集成。
上传时间: 2013-04-24
上传用户:标点符号
随着半导体工艺的飞速发展和芯片设计水平的不断进步,ARM微处理器的性能得到大幅度地提高,同时其芯片的价格也在不断下降,嵌入式系统以其独有的优势,己经广泛地渗透到科学研究和日常生活的各个方面。 本文以ARM7 LPC2132处理器为核心,结合盖革一弥勒计数管对Time-To-Count辐射测量方法进行研究。ARM结构是基于精简指令集计算机(RISC)原理而设计的,其指令集和相关的译码机制比复杂指令集计算机要简单得多,使用一个小的、廉价的ARM微处理器就可实现很高的指令吞吐量和实时的中断响应。基于ARM7TDMI-S核的LPC2132微处理器,其工作频率可达到60MHz,这对于Time-To-Count技术是非常有利的,而且利用LPC2132芯片的定时/计数器引脚捕获功能,可以直接读取TC中的计数值,也就是说不再需要调用中断函数读取TC值,从而大大降低了计数前杂质时间。本文是在我师兄吕军的《Time-To-Count测量方法初步研究》基础上,使用了高速的ARM芯片,对基于MCS-51的Time-To-Count辐射测量系统进行了改进,进一步论证了采用高速ARM处理器芯片可以极大的提高G-M计数器的测量范围与测量精度。 首先,讨论了传统的盖革-弥勒计数管探测射线强度的方法,并指出传统的脉冲测量方法的不足。然后讨论了什么是Time-To-Count测量方法,对Time-To-Count测量方法的理论基础进行分析。指出Time-To-Count方法与传统的脉冲计数方法的区别,以及采用Time-To-Count方法进行辐射测量的可行性。 接着,详细论述基于ARM7 LPC2132处理器的Time-To-Count辐射测量仪的原理、功能、特点以及辐射测量仪的各部分接口电路设计及相关程序的编制。 最后得出结论,通过高速32位ARM处理器的使用,Time-To-Count辐射测量仪的精度和量程均得到很大的提高,对于Y射线总量测量,使用了ARM处理器的Time-To-Count辐射测量仪的量程约为20 u R/h到1R/h,数据线性程度也比以前的Time-To-CotJnt辐射测量仪要好。所以在使用Time-To-Count方法进行的辐射测量时,如何减少杂质时间以及如何提高计数前时间的测量精度,是决定Time-To-Count辐射测量仪性能的关键因素。实验用三只相同型号的J33G-M计数管分别作为探测元件,在100U R/h到lR/h的辐射场中进行试验.每个测量点测量5次取平均,得出随着照射量率的增大,辐射强度R的测量值偏小且与辐射真实值之间的误差也随之增大。如果将测量误差限定在10%的范围内,则此仪器的量程范围为20 u R/h至1R/h,量程跨度近六个数量级。而用J33型G-M计数管作常规的脉冲测量,量程范围约为50 u R/h到5000 u R/h,充分体现了运用Time-To-Count方法测量辐射强度的优越性,也从另一个角度反应了随着计数前时间的逐渐减小,杂质时间在其中的比重越来越大,对测量结果的影响也就越来越严重,尽可能的减小杂质时间在Time-To-Count方法辐射测量特别是测量高强度辐射中是关键的。笔者用示波器测出此辐射仪器的杂质时间约为6.5 u S,所以在计算定时器值的时候减去这个杂质时间,可以增加计数前时间的精确度。通过实验得出,在标定仪器的K值时,应该在照射量率较低的条件下行,而测得的计数前时间是否精确则需要在照射量率较高的条件下通过仪器标定来检验。这是因为在照射量率较低时,计数前时间较大,杂质时间对测量结果的影响不明显,数据线斜率较稳定,适宜于确定标定系数K值,而在照射量率较高时,计数前时间很小,杂质时间对测量结果的影响较大,可以明显的在数据线上反映出来,从而可以很好的反应出仪器的性能与量程。实验证明了Time-To-Count测量方法中最为关键的环节就是如何对计数前时间进行精确测量。经过对大量实验数据的分析,得到计数前时间中的杂质时间可分为硬件杂质时间和软件杂质时间,并以软件杂质时间为主,通过对程序进行合理优化,软件杂质时间可以通过程序的改进而减少,甚至可以用数学补偿的方法来抵消,从而可以得到比较精确的计数前时间,以此得到较精确的辐射强度值。对于本辐射仪,用户可以选择不同的工作模式来进行测量,当辐射场较弱时,通常采用规定次数测量的方式,在辐射场较强时,应该选用定时测量的方式。因为,当辐射场较弱时,如果用规定次数测量的方式,会浪费很多时间来采集足够的脉冲信号。当辐射场较强时,由于辐射粒子很多,产生脉冲的频率就很高,规定次数的测量会加大测量误差,当选用定时测量的方式时,由于时间的相对加长,所以记录的粒子数就相对的增加,从而提高仪器的测量精度。通过调研国内外先进核辐射测量仪器的发展现状,了解到了目前最新的核辐射总量测量技术一Time-To-Count理论及其应用情况。论证了该新技术的理论原理,根据此原理,结合高速处理器ARM7 LPC2132,对以G-计数管为探测元件的Time-To-Count辐射测量仪进行设计。论文以实验的方法论证了Time-To-Count原理测量核辐射方法的科学性,该辐射仪的量程和精度均优于以前以脉冲计数为基础理论的MCS-51核辐射测量仪。该辐射仪具有量程宽、精度高、易操作、用户界面友好等优点。用户可以定期的对仪器的标定,来减小由于电子元件的老化对低仪器性能参数造成的影响,通过Time-To-Count测量方法的使用,可以极大拓宽G-M计数管的量程。就仪器中使用的J33型G-M计数管而言,G-M计数管厂家参考线性测量范围约为50 u R/h到5000 u R/h,而用了Time-To-Count测量方法后,结合高速微处理器ARM7 LPC2132,此核辐射测量仪的量程为20 u R/h至1R/h。在允许的误差范围内,核辐射仪的量程比以前基于MCS-51的辐射仪提高了近200倍,而且精度也比传统的脉冲计数方法要高,测量结果的线性程度也比传统的方法要好。G-M计数管的使用寿命被大大延长。 综上所述,本文取得了如下成果:对国内外Time-To-Count方法的研究现状进行分析,指出了Time-To-Count测量方法的基本原理,并对Time-T0-Count方法理论进行了分析,推导出了计数前时间和两个相邻辐射粒子时间间隔之间的关系,从数学的角度论证了Time-To-Count方法的科学性。详细说明了基于ARM 7 LPC2132的Time-To-Count辐射测量仪的硬件设计、软件编程的过程,通过高速微处理芯片LPC2132的使用,成功完成了对基于MCS-51单片机的Time-To-Count测量仪的改进。改进后的辐射仪器具有量程宽、精度高、易操作、用户界面友好等特点。本论文根据实验结果总结出了Time-To-Count技术中的几点关键因素,如:处理器的频率、计数前时间、杂质时间、采样次数和测量时间等,重点分析了杂质时间的组成以及引入杂质时间的主要因素等,对国内核辐射测量仪的研究具有一定的指导意义。
标签: TimeToCount ARM 辐射测量仪
上传时间: 2013-06-24
上传用户:pinksun9
遥感图像是深空探测和近地观测所得数据的重要载体,在军事和社会经济生活领域发挥着重要作用。由于遥感图像数据量巨大,它的存储和传输已成为遥感信息应用中的关键问题。图像压缩编码技术能降低图像冗余度,从而减小图像的存储容量和传输带宽,它的研究对于遥感图像应用具有重要的现实意义。CCSDS图像压缩算法是空间数据系统咨询委员会(CCSDS)提出的图像数据压缩算法。该算法复杂度较低,并行性好,适合于硬件实现,能实现对空间数据的实时处理,从而广泛应用于深空探测和近地观测。对于直接关系到军事战略、经济建设等方面的遥感图像的传输,必须对它进行加密处理。AES加密算法是由美国国家标准和技术研究所(NIST)于2000年发布的数据加密标准,它不但能抵抗各种攻击,保证加密数据的安全性,而且易于软件和硬件实现。本论文对CCSDS图像压缩算法和AES加密算法进行了研究,完成的主要工作包括: (1)研究了CCSDS图像压缩算法的原理和结构,用C语言实现了算法的编解码器,并与SPIHT算法和JPEG2000算法的性能进行了比较。 (2)研究了AES加密算法的原理和结构,用C语言实现了算法的加解密器。 (3)介绍了实现CCSDS图像压缩算法和AES加密算法的FPGA设计所选择的软件开发工具、开发语言和硬件开发平台。 (4)给出了CCSDS编码器的FPGA实现方法和实现性能。 (5)给出了AES加密器的FPGA实现方法和实现性能。 本文设计的CCSDS图像压缩和AES加密FPGA系统运用了流水线设计、高速内存设计、模块并行化设计和模块串行化设计等技术,在系统速度和资源面积上取得了较好的平衡,达到了预期的设计目的。
上传时间: 2013-07-15
上传用户:dylutao
大气激光通信是指以激光光波作为载体,大气作为传输介质的光通信系统。在空间大气激光通信中,由于大气的散射、吸收,大气湍流等作用,在激光接收端就会出现光斑抖动、相位起伏等现象,因此研究一种适合在高速率、弱信号条件下处理技术,保证激光信号的误码率是有着十分重要的意义。 本文研究了一种基于嵌入式微处理器系统的大气激光信号处理方法。文章从空间激光发展现状及信道环境出发,提出了一种采用ARM微处理控制器并在控制器上移植实时操作系统μC/OS-Ⅱ,运用浮动阈值算法来减小大气信道对激光探测的影响的方法。在测试中,取得了比较好的实验效果。
上传时间: 2013-04-24
上传用户:prczsf
激光测距是激光技术在军事上最早和最成熟的应用,自1961.年美国休斯飞机公司研制成功世界上第一台激光测距机之后,激光测距技术发展迅速。如今,它已经被广泛运用于军用领域和民用领域。为了进一步提高我国激光测距水平,研制更高性能激光测距机依然是我国国防科技研究中的重要课题之一。其中,测距精度是激光测距机的一个重要参数。而激光测距机能否准确的检测激光回波信号将直接影响测距精度。 脉冲激光测距系统主要包括激光发射子系统、激光回波探测子系统、回波检测与主控子系统、终端显示子系统等组成。其中设计高精度激光回波检测与主控子系统是实现高精度激光测距的核心问题。传统激光回波检测与主控子系统通常采用分立元件和小规模集成电路设计,电路复杂且精度较低。随着数字电路设计技术的发展,已出现大规模可编程逻辑器件FPGA(现场可编程门阵列)和CPLD(复杂可编程逻辑器件)。采用FPGA代替传统的分立元件和小规模集成电路来设计激光回波检测与主控子系统,不仅提高了回波检测精度,同时简化了整个测距系统的设计。 本文研究了将激光回波信号直接送入FPGA进行检测的方案。同时,采用这种方案设计了一种激光回波检测系统,并把它成功运用在一引信项目中。这种方案电路设计简单,易于实现。在实际应用中,由于激光回波探测子系统只是完成由光信号到电信号的转换及简单放大,理论分析和试验结果均表明,采用该方案进行回波检测的精度较低,这种回波检测方法也只能应用在测距精度要求低的项目中。 为了满足另一高精度测距项目的需要,在FPGA直接进行激光回波检测方案的基础上,设计了一种高精度激光回波检测系统。文中介绍了其实现原理,理论上分析了该系统所能达到的回波检测精度及整机测距系统的测距精度。与第一种方案相比,该方案引入了超高速数据采集电路。由于采样速率高达lGsps,该方案实现的难点在于如何保证数据采集电路的稳定工作。文中从总体方案的设计,到器件的选型,硬件电路板的实现等方面做了详细的阐述,最终完成了系统硬件电路设计。接着介绍了系统程序设计。后面给出了试验测试结果,该系统工作稳定,性能良好。系统设计中引入的超高速数据采集电路有着广泛的应用,为其他相关设计提供了参考。最后,对全文做了工作总结,并给出了接下来的后续工作与展望。 本文在高速FPGA对激光回波信号检测方向取得了一定的成果,为进一步研究提供了参考价值。
上传时间: 2013-06-13
上传用户:cy1109
CAN-bus(Corltroller Area Network)即控制器局域网,是国际上应用最广泛的现场总线之一。它是一种多主方式的串行通讯总线,在工业控制通讯方面拥有高位速率,高抗电磁干扰性,而且能够检测出产生的任何错误。作为一种灵活,可靠的通讯系统,CAN总线已被广泛运用于各个工业控制现场。 基于FPGA+DSP的CAN总线通讯系统设计主要目标是完成CAN总线的多节点可靠高速性传输,通过各节点之间的数据通信以及结点处理单元内部对数据的处理实现整个通信系统间各个单元的协同工作。 本论文中的 CAN 总线通讯系统是完成红外目标探测系统和控制系统与图像处理系统的实时通信,其硬件部分采用 DSP+FPGA 作为核心通讯处理单元,通过对 DSP硬件编程和FPGA逻辑模块的设计实现了在处理单元外部CAN总线多节点之间的信息可靠性传输以及处理单元内部DSP和FPGA基于SPI的串行通信,从而完成了在FPGA中对CAN总线数据的处理和运用。
上传时间: 2013-05-23
上传用户:dyy618
随着变频调速技术的快速发展,基于变频调速的恒压供水系统越来越多的应用到了小区供水中。与恒速供水系统相比,变频调速恒压供水系统取得了较好的节能效果,但是由于其压力设定值一般是按系统最大能量需求时设定的,并且该设定值一旦设定后不能依据系统的能量需求自动做实时调整,使系统在大部分时间内供给的能量大于需求的能量。因此,该供水方式并没有把变频调速的节能潜力全部发挥出来。本文针对变频调速恒压供水系统这一不足,提出了变频调速实时恒压供水方式,它能依据系统的能量需求实时的调整压力设定值,能更好的发挥变频调速的节能潜力。 本文首先依据泵理论和水动力学对供水系统进行了深入的分析和研究,详细探讨了供水系统的节能原理,从而为后续章节中控制策略的选择奠定了基础。 然后针对供水系统的精确数学模型难以建立的问题,本文采用了专家系统。该专家系统能依据用户能量需求的不同,实时给出泵出口的压力设定值;在此基础上通过模糊-PID控制使供水系统迅速进入稳定状态,同时使系统具有快速性、稳定性和良好的鲁棒性。通过MATLAB仿真工具对整个控制系统进行了仿真,仿真结果表明该控制系统与常规PID控制相比具有更好的控制品质。 最后以ARM7LPC-2129为硬件基础,实现了以上各个部分的功能。另外还采用VB开发了上位机监控界面;开发了基于ARM的CAN接口,为供水系统的网络化提供技术支持;使用ARM7LPC-2129的通用输入输出口,实现了供水系统中电机的组合运行或单机启停控制;泵运行状态和火灾显示等辅助功能的实现。
上传时间: 2013-04-24
上传用户:moshushi0009
随着红外探测技术和超大规模专用集成电路的发展,实时红外成像系统得到了越来越广泛的应用。如何针对红外图像的特性对红外图像进行实时处理,得到能真实反映探测场景、适合观察分析的红外图像是目前红外成像技术的研究热点。针对红外图像在被采集后立即进行预处理,简化后级数字信号处理单元的繁重任务,在红外成像技术中具有重要意义。本论文主要工作如下: (1)对红外成像的原理、红外图像的形成过程、红外图像的特征以及红外图像与可见光图像的区别进行了阐述。 (2)简要介绍了频域中图像的增强算法,以及图像的灰度变换原理。 (3)通过对时域中各种算法的分析对比,以及时域处理与频域处理的对比,选择数种适合红外图像预处理的算法进行硬件实现,然后再根据硬件实现的难易程度和算法对硬件资源的占用率,以及最终对图像的处理效果,选择一种最佳的平滑和锐化方法。 (4)针对FPGA的特点,采用了模块化结构设计,方便构成并行运算,充分体现了实时处理的要求。 (5)分析了红外图像灰度变换的硬件构成,实现了对红外图像的直方图统计。 (6)阐述了I2C总线标准,使用I2C总线对SAA7115视频图像处理芯片的控制,对模拟的红外图像采集、量化成数字图像信号;由于采用SDRAM进行数据的存储,所以针对数据的存储及读取方式设计了SDRAM存储器的控制器,将量化后的数据存储到SDRAM存储器。 (7)详细阐述了图像频域处理的硬件实现方法,并特别说明了DFT的FPGA硬件构成方法及这种方法与DSP处理器构成方法的区别。然后针对整个系统的时序构成及时序要求,采用了PLL核构成了系统的时序部分,并对系统进行了优化,以提高运行速度及减少资源占用率。
上传时间: 2013-07-12
上传用户:顶得柱
涡流无损检测技术作为五大常规无损检测技术之一,不仅能够探测导体表面的涂层厚度,材料成分,组织状态以及某些物理量和机械量,还能检测材料或构件中是否有缺陷并判断缺陷的形状、大小、分布、走向。脉冲涡流无损检测技术因其激励信号的频域特点,具有有效率高,检测准确的特性,因而有着广泛的应用前景。 用无损检测方法进行钢铁材质检测的研究工作取得了大量成果,然而对于钢材及其制品的混料、硬度和裂纹质量检测还存在许多难题,如用传统检测方法检测齿轮毛坯的硬度效果不够理想,而且人工记录方法较慢。 本文以涡流检测技术理论为基础,系统地分析了脉冲涡流检测的基本理论。在此基础上设计了一套用于检测钢铁材硬度的脉冲涡流检测仪器。该脉冲涡流检测系统可分为硬件、软件两个子系统。整个系统由激励源、涡流传感器、数据处理、结果显示这四个主要部分组成。在涡流探伤中,影响涡流的因素很多,产生大量噪声使得信号分析相对困难。系统以FPGA为开发平台,使得信号激励和信号的采集可以在同一电路中实现,从而提高了信号处理的精确性,接着利用主成分分析方法去除噪音,提取信号的特征值,建立回归方程,利用最小二乘法实现对钢铁材质硬度的测量。实验结果表明,以FPGA为开发平台,采用脉冲涡流激励的方式及相关的脉冲涡流的主成分分析处理方法,使钢铁材质硬度的判别准确率有了很大提高。
上传时间: 2013-04-24
上传用户:327000306
文中简单阐述了红外辐射机理,论述了红外焦平面阵列技术的发展状况。红外成像系统,尤其是红外焦平面阵列,由于探测器材料和制造工艺的原因,各像素点之间的灵敏度存在差别,甚至存在一些缺陷点,各个探测单元特征参数不完全一致,因而存在着较大的非均匀性,降低了图像的分辨率,影响了红外成像系统的有效作用距离。实时非均匀性校正是提高和改善红外图像质量的一项重要技术。 论文建立了描述其非均匀性的数学模型,分析了红外焦平面阵列非均匀性产生的原因及特点,讨论了几种常用的非均匀性校正的方法,指出了其各自的优缺点和适应场合。 根据红外探测器光谱响应的特点和基于参考源的两点温度非均匀性校正理论,采用FPGA+DSP实现红外成像系统实时非均匀性两点校正,设计完成了相应的红外焦平面阵列非均匀性校正硬件电路。对该系统中各个模块的功能及电路实现进行了详细的描述,并给出了相应的结构框图。同时给出了该图像处理器的部分软件流程图。该方法动态范围大而且处理速度快,适用于红外成像系统实时的图像处理场合。实践表明,该方案取得了较为满意的结果。
上传时间: 2013-04-24
上传用户:shinnsiaolin