开关电容电路及MOSFET_C连续时间电路——原理与应用
上传时间: 2013-05-23
上传用户:LYNX
开关磁阻电机(SR电机)驱动系统(SRD)是一种先进的机电一体化装置,但是其较大的振动噪声和转矩脉动问题制约了SRD的广泛应用。本文以减小SR电机振动噪声和转矩脉动为主题展开理论分析和实验研究。主要内容有:由于径向力引起的定子径向振动是SR电机噪声的主要根源,因此径向力的分析和计算是研究SR电机振动噪声的基础。本文利用磁通管法推导出径向力的解析表达式,定性分析了径向力与电机结构参数等之间的关系。根据虚位移原理,推导出基于矢量磁势的电磁力计算公式。该计算方法求解电磁力时只需进行一次磁场计算,不但减小了计算量,同时计算精度较传统虚位移法高。利用这一计算方法,求出了实验样机的转矩及径向力的精确数值解。针对在SRD性能仿真时,传统的非线性插值不但耗时,而且对有限元计算数据量要求高的问题,本文利用人工神经网络强大的非线性模型辨识能力,成功进行了SR电机磁链反演和转矩计算的模型训练,最后建立了基于人工神经网络的SR电机精确解析数学模型。因为SR电机本体结构形式的选择问题与振动噪声大小有着密切的关系。本文从噪声辐射和振动幅值角度探讨了SR电机主要尺寸的确定;接着从对称性、力波阶数等角度研究了SR电机相数及绕组连接方式、极数、并联支路数的选择问题。并对一些常用的降低电机机械噪声的措施和方法进行了综述。系统振动特性的研究对于减小振动噪声十分重要。本文从振动系统的运动方程出发,导出了从激振力到振动加速度的传递函数和系统的自由振动解;然后利用机电类比法得出了SR电机定子系统的固有频率以及振动振幅的解析解,定性分析了影响振动振幅的各种因素;最后利用基于能量法的有限元解法,通过建立不同的散热筋结构形式、高度、根数以及形状的SR电机三维有限元模型,分析得出了最有利于降噪和散热的散热筋结构是高度高、根数多、上窄下宽的梯形截面的周向散热筋的结论。通过建立不同绕组装配工艺下的SR电机三维有限元模型,分析得出了加强绕组刚度可以提高系统低阶固有频率的结论。通过比较实验样机的模态分析结果和运行实验结果,证实了模态分析的有效性。仿真是计算SRD系统性能和预估电机振动的有效手段。本文在用MATLAB建立SRD系统的非线性动态仿真模型的基础上,对SRD系统进行了稳态性能仿真、动态性能仿真以及负载突变仿真。接着利用稳态性能仿真,综合考虑最大平均转矩和效率这两个优化目标,对SR电机的开关角进行了优化。最后结合由磁场有限元计算得到的径向力数据表和稳态性能仿真,通过非线性插值得到径向力的波形,然后对径向力波形进行了频谱分析,从而找到其主要的谐波分量。在电机设计阶段避免径向力波主要频谱分量与SR电机定子的固有频率接近而引起共振是降低SR电机噪声的首要条件。合适的控制策略对于SR电机减振降噪是必不可少的。本文理论推导出三步换相法的时间参数取值公式。仿真证明本取值公式较原先文献的结论在阻尼比较小时有更好的减振效果。针对SR电机运行中可能出现多个模态振形被激发出来的情况,利用数值优化法对三步换相法的时间参数进行了优化,使得减振效果整体最佳,所提的数值优化方法对两步换相法同样有效。在分析已有的直接瞬时转矩控制的基础上,针对其不足之处,提出了转矩定频控制取代内滞环的方法、开始重叠区域的转矩控制方法、最佳开关角度二次优化法和时间参数优化的三步换相法等新的控制方案。动态仿真证明这些方案是切实有效的,达到了预期效果。最后在直接瞬时转矩控制的每一次转矩斩波都使用三步换相法,和在相关断时刻根据实际电平灵活选用两步或三步换相法以减小电机振动噪声,并提出了考虑减振要求的开关频率设计方法,最终形成了一套完整的降低振动噪声和转矩脉动控制策略。设计并研制了基于TMS320LF2407DSP的SR电机控制器。根据控制策略要求,选用了不对称半桥功率电路拓扑结构;出于降低成本以及提高可靠性考虑,采用了MOSFET双路并联电路方案。在控制软件中实现了本文所提出的降低SR电机振动噪声和转矩脉动控制策略。本文最后对实验样机进行了静态转矩的测量实验,对比转矩测量值与转矩有限元计算值,验证了磁场有限元计算的有效性。然后对实验样机进行了空载与负载、电流控制与转矩控制、低速斩波与高速单波、是否采用两步或三步换相法等一系列对比运行实验,对比各种实验结果,充分证实了本文所提出的降低振动噪声和转矩脉动控制策略的有效性。本课题组承担了国家十·五863计划电动汽车重大专项:“EQ6110HEV混合动力城市公交车用电机及其控制系统”(2001AA501421)。本文的研究是在该项目的资助下完成,并且本文关于电机本体结构形式、散热筋结构和机械降噪措施等的结论已在该项目的60kW实验样机上得到证实。
上传时间: 2013-07-05
上传用户:13081287919
随着电力电子技术的飞速发展,越来越多的电力电子装置被广泛应用到各个领域,其中相当一部分负荷具有非线性或具有时变特性,使电网中暂态冲击、无功功率、高次谐波及三相不平衡问题日趋严重,给电网的供电质量造成严重的污染和损耗.因此,对电力系统进行谐波抑制和无功补偿,提高电网供电质量变得十分重要.电力有源滤波器(Active Power Filter,简称APF)与无源滤波器相比,APF具有高度可控制和快速响应特性,并且能跟踪补偿各次谐波、自动产生所需变化的无功功率和谐波功率,其特性不受系统影响,无谐波放大威胁.并联型电力有源滤波器(Shunt Active Power Filter,简称SAPF)更是得到了广泛的应用. 近年来,自适应算法中的递推最小二乘法(简称RLS)应用越来越广泛,该算法简单,收敛速度快.应用基于RLS自适应算法的滤波器(简称RLS滤波器),可以快速有效的滤除杂波,同时自动调整滤波器参数,不断改进滤波性能,最终得到所需的信号. 本文研究了基于平均功率和RLS自适应算法的并联型有源滤波器.它的参考电流是一个同电网相电压同相位的三相平衡的有功电流,它包含两个分量:一个是由实测的三相负载瞬时功率计算得到的,基于平均功率算法的电网应该为负载各相提供的有功电流瞬时参考值;另一个是为了维持有源滤波器中逆变器的直流母线电压基本恒定,主要通过RLS滤波器计算得出的电网各相应该提供的有功电流瞬时参考值.两个分量的计算共同构成了该有源滤波器参考电流的计算.补偿电流指令值与实际补偿电流比较生成控制逆变桥工作的PWM脉冲,生成补偿电流,达到补偿负载无功和抑制谐波的目的. 应用RLS滤波器得到维持直流母线电压恒定的直流侧有功系数A<,dc>,克服了传统PI控制中参数难以得到且由于参数过于敏感而导致补偿后电流纹波太大的问题.使得当稳态时SAPF自身的功率损耗和暂态负载变化时因为直流侧电容提供电网和负载之间的有功功率差而引起的电压的波动迅速反馈到指令电流的计算中.RLS算法收敛快,SAPF实时性大大提高.基于该方法的SAPF结构简单,无需锁相器. 根据本文的算法应用MATAB建立了仿真系统,仿真结果表明基于该算法的SAPF的可行性和实时性.
上传时间: 2013-04-24
上传用户:mfhe2005
开发与利用新能源是我国21世纪的重要能源战略。风能是一种“取之不尽,用之不竭”、环境友好的可持续性能源,已受到了越来越广泛的重视,并成为发展最快的新型能源。但是风电具有间歇性和随机性的固有缺点,随着大量的风力发电接入电网,势必会对电力系统的安全、稳定运行以及保证电能质量带来严峻挑战,从而限制风力发电的发展规模。风电场短期风速和发电功率预测是解决该问题的有效途径之一。中国的风电场大都是集中的、大容量的风电场,而且处于电网建设相对比较薄弱的地区,因此,中国更需要进行风电场短期风速和发电功率预测的研究,而发电功率的预测主要源自风速的预测。在此背景下,选择风电场短期风速预测方法作为主要研究内容,主要包括以下几个方面: 首先运用统计学方法来分析风速的时间序列特性及其预测方法和应用特点,说明现实中的风速序列具有很强的非平稳性。然后运用具有“数字显微镜”之美誉的小波变换来分析历史纪录的风速数据,通过运用二进正交小波变换Mallat算法对香港和河西走廊地区风速序列进行分解和重构,分离出风速序列中的低频信息和高频信息。对Mallat算法分解后的信号,运用最小二乘支持向量机分别进行向前一步预测,然后再把各预测结果合成,得到预测值。建立了基于小波变换和最小二乘支持向量机的短期风速预测方法。应用Matlab对该算法进行了仿真,仿真试验表明,小波变换是非平稳风速序列时频分析的有效工具,对风速序列的高频和低频信息起到很好的分离作用;最小二乘支持向量机的应用提高了预测的准确性。应用香港地区与河西走廊地区小时平均风速历史数据,验证了方法的有效性。
上传时间: 2013-04-24
上传用户:xg262122
近年来,随着大规模集成电路的飞速发展,微控制器和数字信号处理器的性价比不断提高,数字控制技术已逐步应用于大中功率高频开关电源。相对于传统模拟控制方式,数字控制方式具有电源设计灵活、外围控制电路少、可采用较先进的控制算法、具有较高可靠性等优点。 高频开关电源具有体积小、重量轻、效率高、输出纹波小等特点,现已逐步成为现代通讯设备的新型基础电源系统。针对传统开关电源中损耗较大、超调量较大、动态性能较差等问题,本文采用基于DSP的全桥软开关拓扑结构。全桥软开关移相控制技术由智能DSP系统完成,采样信号采用差分传输,控制算法采用模糊自适应PID算法,产生数字PWM波配合驱动电路控制全桥开关的通断。在输入端应用平均电流控制法的有源功率因数校正,使输入电流跟随输入电压的波形,从而使功率因数接近1。最后通过Matlab仿真结果表明模糊自适应PID控制算法比传统PID控制算法在超调量,调节时间,动态特性等性能上具有优越性。 论文以高频开关电源的设计为主线,在详细分析各部分电路原理的基础上,进行系统的主电路设计、辅助电路设计、控制电路设计、仿真研究、软件实现。重点介绍了高频变压器的设计及模糊自适应PID控制器的实现。并将辅助电源及控制电路制成电路板,以及在此电路板基础上进行各波形分析并进行相关实验。
上传时间: 2013-04-24
上传用户:s蓝莓汁
高性能ADC产品的出现,给混合信号测试领域带来前所未有的挑战。并行ADC测试方案实现了多个ADC测试过程的并行化和实时化,减少了单个ADC的平均测试时间,从而降低ADC测试成本。 本文实现了基于FPGA的ADC并行测试方法。在阅读相关文献的基础上,总结了常用ADC参数测试方法和测试流程。使用FPGA实现时域参数评估算法和频域参数评估算法,并对2个ADC在不同样本数条件下进行并行测试。 通过在FPGA内部实现ADC测试时域算法和频域算法相结合的方法来搭建测试系统,完成音频编解码器WM8731L的控制模式接口、音频数据接口、ADC测试时域算法和频域算法的FPGA实现。整个测试系统使用Angilent 33220A任意信号发生器提供模拟激励信号,共用一个FPGA内部实现的采样时钟控制模块。并行测试系统将WM8731.L片内的两个独立ADC的串行输出数据分流成左右两通道,并对其进行串并转换。然后对左右两个通道分别配置一个FFT算法模块和时域算法模块,并行地实现了ADC参数的评估算法。 在样本数分别为128和4096的实验条件下,对WM8731L片内2个被测.ADC并行地进行参数评估,被测参数包括增益GAIN、偏移量OFFSET、信噪比SNR、信号与噪声谐波失真比SINAD、总谐波失真THD等5个常用参数。实验结果表明,通过在FPGA内配置2个独立的参数计算模块,可并行地实现对2个相同ADC的参数评估,减小单个ADC的平均测试时间。 FPGA片内实时评估算法的实现节省了测试样本传输至自动测试机PC端的时间。而且只需将HDL代码多次复制,就可实现多个被测ADC在同一时刻并行地被评估,配置灵活。基于FPGA的ADC并行测试方法易于实现,具有可行性,但由于噪声的影响,测试精度有待进一步提高。该方法可用于自动测试机的混合信号选项卡或测试子系统。 关键词:ADC测试;并行;参数评估;FPGA;FFT
上传时间: 2013-07-11
上传用户:tdyoung
随着中国二代导航系统的建设,卫星导航的应用将普及到各个行业,具有自主知识产权的卫星导航接收机的研究与设计是该领域的一个研究热点。在接收机的设计中,对于成熟技术将利用ASIC芯片进行批量生产,该芯片是专用芯片,一旦制造成型不能改变。但是对于正在研究的接收机技术,特别是在需要利用接收机平台进行提高接收机性能研究时,利用FPGA通用可编程门阵列芯片是非常方便的。在FPGA上的研究成果,一旦成熟可以很方便的移植到ASIC芯片,进行批量生产。本课题就是基于FPGA研究GPS并行捕获技术的硬件电路,着重进行了其中一个捕获通道的设计和实现。 GPS信号捕获时间是影响GPS接收机性能的一个关键因素,尤其是在高动态和实时性要求高的应用中或者对弱GPS信号的捕获方面。因此,本文在滑动相关法基础上引出了基于FFT的并行快速捕获方法,采用自顶向下的方法对系统进行总体功能划分和结构设计,并采用自底向上的方法对系统进行功能实现和验证。 本课题以Xilinx公司的Spartan3E开发板为硬件开发平台,以ISE9.2i为软件开发平台,采用Verilog HDL编程实现该系统。并利用Nemerix公司的GPS射频芯片NJ1006A设计制作了GPS中频信号产生平台。该平台可实时地输出采样频率为16.367MHz的GPS数字中频信号。 本课题主要是基于采样率变换和FFT实现对GPS C/A码的捕获。该算法利用平均采样的方法,将信号的采样率降低到1.024 MHz,在低采样率下利用成熟的1024点FFT IP核对C/A码进行粗捕,给出GPS信号的码相位(精度大约为1/4码片)和载波的多普勒频率,符合GPS后续跟踪的要求。 同时,由于FFT算法是以资源换取时间的方法来提高GPS捕获速度的,所以在设计时,合理地采用FPGA设计思想与技巧优化系统。基于实用性的要求,详细的给出了基于FFT的GPS并行捕获各个模块的实现原理、实现结构以及仿真结果。并达到降低系统硬件资源,能够快速、高效地实现对GPS C/A码捕获的要求。 本研究是导航研究所承担的国家863课题“利用多径信号提高GNSS接收机性能的新技术研究”中关于接收机信号捕获算法的一部分,对接收机的设计具有一定的参考价值。
上传时间: 2013-07-22
上传用户:user08x
H.264作为新一代视频编码标准,相比上一代视频编码标准MPEG2,在相同画质下,平均节约64﹪的码流。该标准仅设定了码流的语法结构和解码器结构,实现灵活性极大,其规定了三个档次,每个档次支持一组特定的编码功能,并支持一类特定的应用,因此。H.264的编码器的设计可以根据需求的不同而不同。 H.264虽然具有优异的压缩性能,但是其复杂度却比一般编码器高的多。本文对H.264进行了编码复杂度分析,并统计了整个软件编码中计算量的分布。H.264中采用了率失真优化算法,提高了帧内预测编码的效率。在该算法下进行帧内预测时,为了得到一个宏块的预测模式,需要进行592次率失真代价计算。因此为了降低帧内预测模式选择的计算复杂度,本文改进了帧内预测模式选择算法。实践证明,在PSNR值的损失可以忽略不计的情况下,该算法相比原算法,帧内编码时间平均节约60﹪以上,对编码的实时性有较大帮助。 为了实现实时编码,考虑到FPGA的高效运算速度和使用灵活性,本文还研究了H.264编码器基本档次的FPGA实现。首先研究了H.264编码器硬件实现架构,并对影响编码速度,且具有硬件实现优越性的几个重要部分进行了算法研究和FPGA.实现。本文主要研究了H.264编码器中整数DCT变换、量化、Zig-Zag扫描、CAVLC编码以及反量化、逆整数DCT变换等部分。分别对这些模块进行了综合和时序仿真,并将验证后通过的系统模块下载到Xilinx virtex-Ⅱ Pro的FPGA中,进行了在线测试,验证了该系统对输入的残差数据实时压缩编码的功能。 本文对H.264编码器帧内预测模式选择算法的改进,算法实现简单,对软件编码的实时性有很大帮助。本文对在单片FPGA上实现H.264编码器做出了探索性尝试,这对H.264编码器芯片的设计有着积极的借鉴性。
上传时间: 2013-06-13
上传用户:夜月十二桥
H.264/AVC是由ITU和ISO两大组织联合组成的JVT共同制定的一项新的视频压缩技术标准,在较低带宽上提供高质量的图像传输是H.264/AVC的应用亮点。在同样的视觉质量前提下,H.264/AVC比H.263和MPEG-4节约了50%的码率。但H.264获得优越性能的代价是计算复杂度的增加,据估计其编码的计算复杂度大约为H.263的3倍,因此很难应用于实时视频处理领域。针对这一现状,业内做了大量的研究工作,力图降低其计算复杂度和提高运行效率。比如在运动估计方面,国内外在这方面的研究已经很成熟。而针对帧内/帧间预测编码的研究却较少。因此研究预测模式的快速算法具有理论意义和应用价值。 本文在详细研究H.264标准视频压缩编码特点基础上,分析了H.264帧内编码, 帧间编码及变换,量化技术的原理及特点,提出了一种基于局部边缘方向信息的快速帧内模式判决算法,通过结合SAD的模式选择方法来减少模式选择数目。它采用了Sobel梯度算子计算当前块的边缘信息,累加当前块中属于同一方向像素点的边缘矢量构造不同模式下的边缘方向直方图,以便确定最可能的预测模式。该算法有效降低了编码器的运算复杂度,在并未显著降低编码性能的情况下提升了编码器效率。仿真表明:Foreman 图像序列编码性能有了提高,其中PSNR平均降低了0.06dB,Bitrate平均降低了19.4%,这大大提高了视频传输的质量。 另外在帧间预测模式选择算法方面进行了改进研究:按顺序对不同类型进行判决,有选择地去比较可能模式,使得在有效减少需判决的模式数量的同时,结合小块模式搜索中途停止准则来确定最优模式。仿真表明:改进算法相对与原来算法能够节省很多的编码时间(平均下降了49.3%),但带来的图像质星的下降(平均下降0.08dB,可以忽略)和码率较少的增加。 同时在整数DCT变换模块中,提出了一种快速蝶形算法,使得对4×4点数据做一次变换,只需通过8×8次加法和2×8次移位运算便可完成,与原来12×8次加法和4×8次移位相比,新算法大大降低了运算复杂度。 最后介绍FPGA的特点及设计流程,并实现了H.264编解码器中变换编码及量化和熵解码模块的硬件。这种基于FPGA所实现的H.264编码视频处理模块设计具备了成本低,周期短,设计方法灵活等优点,具有广阔的市场应用前景。 仿真表明,通过使用本文提出的帧内/帧间速算法方法可使得H.264编码速度获得显著的提高,使H.264 Baseline编码器能在PC平台上实现实时编码。
上传时间: 2013-07-18
上传用户:zukfu
随着半导体工艺的飞速发展和芯片设计水平的不断进步,ARM微处理器的性能得到大幅度地提高,同时其芯片的价格也在不断下降,嵌入式系统以其独有的优势,己经广泛地渗透到科学研究和日常生活的各个方面。 本文以ARM7 LPC2132处理器为核心,结合盖革一弥勒计数管对Time-To-Count辐射测量方法进行研究。ARM结构是基于精简指令集计算机(RISC)原理而设计的,其指令集和相关的译码机制比复杂指令集计算机要简单得多,使用一个小的、廉价的ARM微处理器就可实现很高的指令吞吐量和实时的中断响应。基于ARM7TDMI-S核的LPC2132微处理器,其工作频率可达到60MHz,这对于Time-To-Count技术是非常有利的,而且利用LPC2132芯片的定时/计数器引脚捕获功能,可以直接读取TC中的计数值,也就是说不再需要调用中断函数读取TC值,从而大大降低了计数前杂质时间。本文是在我师兄吕军的《Time-To-Count测量方法初步研究》基础上,使用了高速的ARM芯片,对基于MCS-51的Time-To-Count辐射测量系统进行了改进,进一步论证了采用高速ARM处理器芯片可以极大的提高G-M计数器的测量范围与测量精度。 首先,讨论了传统的盖革-弥勒计数管探测射线强度的方法,并指出传统的脉冲测量方法的不足。然后讨论了什么是Time-To-Count测量方法,对Time-To-Count测量方法的理论基础进行分析。指出Time-To-Count方法与传统的脉冲计数方法的区别,以及采用Time-To-Count方法进行辐射测量的可行性。 接着,详细论述基于ARM7 LPC2132处理器的Time-To-Count辐射测量仪的原理、功能、特点以及辐射测量仪的各部分接口电路设计及相关程序的编制。 最后得出结论,通过高速32位ARM处理器的使用,Time-To-Count辐射测量仪的精度和量程均得到很大的提高,对于Y射线总量测量,使用了ARM处理器的Time-To-Count辐射测量仪的量程约为20 u R/h到1R/h,数据线性程度也比以前的Time-To-CotJnt辐射测量仪要好。所以在使用Time-To-Count方法进行的辐射测量时,如何减少杂质时间以及如何提高计数前时间的测量精度,是决定Time-To-Count辐射测量仪性能的关键因素。实验用三只相同型号的J33G-M计数管分别作为探测元件,在100U R/h到lR/h的辐射场中进行试验.每个测量点测量5次取平均,得出随着照射量率的增大,辐射强度R的测量值偏小且与辐射真实值之间的误差也随之增大。如果将测量误差限定在10%的范围内,则此仪器的量程范围为20 u R/h至1R/h,量程跨度近六个数量级。而用J33型G-M计数管作常规的脉冲测量,量程范围约为50 u R/h到5000 u R/h,充分体现了运用Time-To-Count方法测量辐射强度的优越性,也从另一个角度反应了随着计数前时间的逐渐减小,杂质时间在其中的比重越来越大,对测量结果的影响也就越来越严重,尽可能的减小杂质时间在Time-To-Count方法辐射测量特别是测量高强度辐射中是关键的。笔者用示波器测出此辐射仪器的杂质时间约为6.5 u S,所以在计算定时器值的时候减去这个杂质时间,可以增加计数前时间的精确度。通过实验得出,在标定仪器的K值时,应该在照射量率较低的条件下行,而测得的计数前时间是否精确则需要在照射量率较高的条件下通过仪器标定来检验。这是因为在照射量率较低时,计数前时间较大,杂质时间对测量结果的影响不明显,数据线斜率较稳定,适宜于确定标定系数K值,而在照射量率较高时,计数前时间很小,杂质时间对测量结果的影响较大,可以明显的在数据线上反映出来,从而可以很好的反应出仪器的性能与量程。实验证明了Time-To-Count测量方法中最为关键的环节就是如何对计数前时间进行精确测量。经过对大量实验数据的分析,得到计数前时间中的杂质时间可分为硬件杂质时间和软件杂质时间,并以软件杂质时间为主,通过对程序进行合理优化,软件杂质时间可以通过程序的改进而减少,甚至可以用数学补偿的方法来抵消,从而可以得到比较精确的计数前时间,以此得到较精确的辐射强度值。对于本辐射仪,用户可以选择不同的工作模式来进行测量,当辐射场较弱时,通常采用规定次数测量的方式,在辐射场较强时,应该选用定时测量的方式。因为,当辐射场较弱时,如果用规定次数测量的方式,会浪费很多时间来采集足够的脉冲信号。当辐射场较强时,由于辐射粒子很多,产生脉冲的频率就很高,规定次数的测量会加大测量误差,当选用定时测量的方式时,由于时间的相对加长,所以记录的粒子数就相对的增加,从而提高仪器的测量精度。通过调研国内外先进核辐射测量仪器的发展现状,了解到了目前最新的核辐射总量测量技术一Time-To-Count理论及其应用情况。论证了该新技术的理论原理,根据此原理,结合高速处理器ARM7 LPC2132,对以G-计数管为探测元件的Time-To-Count辐射测量仪进行设计。论文以实验的方法论证了Time-To-Count原理测量核辐射方法的科学性,该辐射仪的量程和精度均优于以前以脉冲计数为基础理论的MCS-51核辐射测量仪。该辐射仪具有量程宽、精度高、易操作、用户界面友好等优点。用户可以定期的对仪器的标定,来减小由于电子元件的老化对低仪器性能参数造成的影响,通过Time-To-Count测量方法的使用,可以极大拓宽G-M计数管的量程。就仪器中使用的J33型G-M计数管而言,G-M计数管厂家参考线性测量范围约为50 u R/h到5000 u R/h,而用了Time-To-Count测量方法后,结合高速微处理器ARM7 LPC2132,此核辐射测量仪的量程为20 u R/h至1R/h。在允许的误差范围内,核辐射仪的量程比以前基于MCS-51的辐射仪提高了近200倍,而且精度也比传统的脉冲计数方法要高,测量结果的线性程度也比传统的方法要好。G-M计数管的使用寿命被大大延长。 综上所述,本文取得了如下成果:对国内外Time-To-Count方法的研究现状进行分析,指出了Time-To-Count测量方法的基本原理,并对Time-T0-Count方法理论进行了分析,推导出了计数前时间和两个相邻辐射粒子时间间隔之间的关系,从数学的角度论证了Time-To-Count方法的科学性。详细说明了基于ARM 7 LPC2132的Time-To-Count辐射测量仪的硬件设计、软件编程的过程,通过高速微处理芯片LPC2132的使用,成功完成了对基于MCS-51单片机的Time-To-Count测量仪的改进。改进后的辐射仪器具有量程宽、精度高、易操作、用户界面友好等特点。本论文根据实验结果总结出了Time-To-Count技术中的几点关键因素,如:处理器的频率、计数前时间、杂质时间、采样次数和测量时间等,重点分析了杂质时间的组成以及引入杂质时间的主要因素等,对国内核辐射测量仪的研究具有一定的指导意义。
标签: TimeToCount ARM 辐射测量仪
上传时间: 2013-06-24
上传用户:pinksun9