随着电子技术的不断发展,各种智能核仪器逐步走向自动化、智能化、数字化和便携式的方向发展。针对传统的多道脉冲幅度分析器体积大,人机交互不友好,不方便现场分析等的缺陷[5]。新型的高速、集成度高、界面友好的多道脉冲幅度分析器的陆续出现填补了这一缺点。 随着电子技术的发展,以ARM为核的处理器技术的应用领域不断扩大,相比较单片机而言,它的主频高、运算速度快,可以满足多道脉冲幅度分析器的苛刻的时间上的要求。而且ARM处理器功耗小,适合于功耗要求比较苛刻的地方,这些方面的特点正好满足了便携式多道脉冲幅度分析器野外勘察的要求。同时,由于以ARM为核的处理器具有丰富的外设资源,这样就简化了外设电路及芯片的使用,降低了功耗并增强了产品的信赖性。另外,ARM芯片可以方便的移植操作系统,为多道脉冲幅度分析器多任务的管理和并行的处理,甚至硬实时功能的实现提供了前提。而且在ARM平台使用嵌入式linux操作系统使多道脉冲幅度分析器的软件易于升级。 智能化和小型化是多道脉冲幅度分析器的发展趋势。智能化要求系统的自动化程度高、操作简便、容错性好。智能化除了需要控制软件外,还需要软件命令的执行者即硬件控制电路来实现相应的控制逻辑,两者的结合才能真正的实现智能化。小型化要求系统的体积小、功耗小、便于携带;小型化除了要求采用微功耗的器件,还要求电路板的尺寸尽量的小且所用元件尽量的少,但小型化的同时必须保持系统的智能化,即不能减少智能化所要求的复杂的逻辑和时序的控制功能。为此采用高集成度的ARM芯片实现控制电路能满意地同时满足智能化和小型化的要求。在研制的多道脉冲幅度分析器中,几乎所有的控制都可以用控制芯片来实现,如阈值设定、自动稳谱以及多道数据采集,在节省了元件的数目和电路板的尺寸的同时仍能保持系统的智能化程度。 Linux内核精简而高效,可修改性强,支持多种体系结构的处理器等,使得它是一个非常适合于嵌入式开发和应用的操作系统。嵌入式Linux可以运行的硬件平台十分广泛,从x86、MIPS、POWERPC到ARM,以及其他许多硬件体系结构。目前在世界范围内,ARM体系结构的SOC逐渐占领32位嵌入式微处理器市场,ARM处理器及技术的应用几乎已经深入到各个领域,例如:工业控制,无线通讯,网络,消费类电子,成像等。 本课题采用三星公司生产的ARM(Advanced RISC Machines,先进精简指令集机器)芯片S3C2410A设计并研制了一种便携式的核数据采集系统设计方案。利用ARM芯片丰富的外设资源对传统的多道脉冲幅度分析器进行改进和简化。系统由前端探测器系统,以及由线性脉冲放大器、甄别电路、控制电路、采样保持电路组成的前置电路,中央处理器模块,显示模块,用户交互模块,存储模块,网络传输模块等多个模块组成。本设计基于ARM9芯片S3C2410,并在此平台上移植了嵌入式linux操作系统来进行任务的调度和处理等。 电路板核心板部分设计采用6层PCB板结构,这样增加了系统可靠性,提高了电磁兼容的稳定性。数据采集系统是多道脉冲幅度分析器的核心,A/D转换直接使用了S3C2410内置的ADC(Analog to Digital Converter,模数转换器),在2.5 MHz的转换时钟下最大转换速度500 KSPS(Kilo-Samples per second,千采样点每秒),满足了系统最低转换时间≤5 μs的要求,并且控制简单,简化了外部接口电路。由于SD(Secure Digital Card,安全数码卡)卡存储容量大、携带方便、成本低等优点,所以设计中采用其作为外部的数据存储设备,其驱动部分采用SD卡软件包,为开发带来了方便。本设计采用640*480的6.4寸LCD(Liquid Crystal Display,液晶显示)屏作为人机交互的显示部分,并且通过Qt/Embedded为系统提供图形用户界面的应用框架和窗口系统。其中包括了波形显示部分和用户菜单设置部分,这样方便了用户操作。系统的数据存取方面是基于SQLite嵌入式小型数据库而进行的。为了方便数据向上位机的传输,系统设计中采用XML(Extensible Markup Language,可扩展标记语言)格式来组织传输的数据,通过基于TCP/IP(Transmission Control Protocol/Internet Protocol)协议的Linux下Socket套接字编程,来进行与上位机或PC(Personal Computer,个人计算机或桌面机)等的连接和数据传输。
上传时间: 2013-04-24
上传用户:tzl1975
磁通反向电机(FRM)是一种新型的双凸极永磁(DSPM)电机,它把高磁能的永磁体放在定子极的表面,永磁体易于安装.随着转子旋转,FRM定子绕组所交链的永磁磁通改变极性,这意味着比磁通脉振产生更大的磁通变化.由于FRM的绕组利用率高、结构简单、转动惯量小及适于高速运转等优点,可广泛应用于汽车制造业、航空航天等工业领域.本文将从模型建立、分析方法、性能分析等方面对该电机进行深入研究.首先,为了解FRM基本理论和掌握其基本规律,写出FRM的基本方程式;由于电机的双凸极结构以及饱和和非线性的影响,整个系统为一强非线性系统.对该电机作适当简化,建立其线性数学模型,这样有利于对FRM的定性分析,弄清其内部的基本电磁关系和基本特性.讨论了绕组电感、绕组磁链、感应电动势及绕组电流、电磁转矩等静态特性,推导出FRM的功率密度计算公式.其次,为准确计算FRM性能,要考虑磁路饱和、铁磁材料的非线性以及永磁磁场与电枢反应磁场之间的相互影响等因素,要建立FRM的非线性模型,提出用变网络等效磁路法进行分析.具体方法是建立FRM的非线性变网络等效磁路模型,推导等效磁路中各部分磁导的计算公式,用节点磁位法建立相应的方程,通过求解该非线性等效磁路方程,得到磁路各部分的磁通分布,进一步求得静态特性,计算出电磁参数.然后用FRM样机的实验结果验证理论分析的正确性.样机的理论分析结果同实验结果进行比较表明,本文所介绍的FRM变网络等效磁路模型具有较好的精度及通用性,基于等效磁网络模型的FRM电磁计算是可行的,计算结果是正确的.最后对磁通反向汽车发电机的功率密度进行分析.导出了磁通反向汽车发电机功率密度的计算公式,分析了影响电机功率密度的因素,并与电励磁汽车发电机进行了比较.
上传时间: 2013-07-30
上传用户:ljthhhhhh123
永磁无刷直流电动机是一种性能优越、应用前景广阔的电动机,传统的理论分析及设计方法已比较成熟,它的进一步推广应用,在很大程度上有赖于对控制策略的研究.该文提出了一套基于DSP的全数字无刷直流电动机模糊神经网络双模控制系统,将模糊控制和神经网络分别引入到无刷直流电动机的控制中来.充分利用模糊控制对参数变化不敏感,能够提高系统的快速性的特点,构造适用于调节较大速度偏差的模糊调节器,加快系统的调节速度;由于神经网络既具有非线性映射的能力,可逼近任何线性和非线性模型,又具有自学习、自收敛性,对被控对象无须精确建模,对参数变化有较强的鲁棒性的特点,构造三层BP神经网络调节器,来实现消除稳态偏差的精确控制.以速度偏差率为判断依据,实现模糊和神经网络两种控制模式的切换,使系统在不同速度偏差段快速调整、平滑运行.此外充分利用系统硬件构成的特点,采用适当的PWM输出切换策略,最大限度的抑制逆变桥换相死区;通过换相瞬时转矩公式推导和分析,得出在换相过程中保持导通相功率器件为恒通,即令PWM输出占空比D=1,来抑制定子电感对换相电流影响的控制策略.上述抑制换相死区和采用恒通电压的控制方法,减小了换相引起的转矩波动,使系统电流保持平滑、转矩脉动大幅度减小、系统响应更快、并具有较强的鲁棒性和实时性.在这种设计下,系统不仅能实现更精确的定位和更准确的速度调节,而且可以使无刷直流电动机长期工作在低速、大转矩、频繁起动的状态下.该文选用TMS320LF2407作为微控制器,将系统的参数自调整模糊控制算法,BP神经网络控制算法以及PWM输出,转子位置、速度、相电流检测计算等功能模块编程存储于DSP的E2PROM,实现了对无刷直流电动机的全数字实时控制,并得到了良好的实验结果的结果.
上传时间: 2013-06-01
上传用户:zl123!@#
开关磁阻电机驱动系统(SRD)是一种新型交流驱动系统,以结构简单、坚固耐用、成本低廉、控制参数多、控制方法灵活、可得到各种所需的机械特性,而备受瞩目,应用日益广泛.并且SRD在宽广的调速范围内均具有较高的效率,这一点是其它调速系统所不可比拟的.但开关磁阻电机(SRM)的振动与噪声比较大,这影响了SRD在许多领域的应用.本文针对上述问题进行了研究,提出了一种新型齿极结构,可有效降低开关磁阻电机的振动与噪声.通过电磁场有限元计算可看出,在新型齿极结构下,导致开关磁阻电机振动与噪声的径向力大为减小,尤其是当转子极相对定子极位于关断位置时,径向力大幅度地减小,并改善了径向力沿定子圆周的分布,使其波动减小,从而减小了定子铁心的变形与振动,进而降低了开关磁阻电机的噪声.静态转矩因转子极开槽也略微减小,但对电机的效率影响不大.开关磁阻电机因磁路的饱和导致参数的非线性,又因在不同控制方式下是变结构的.这使得开关磁阻电机的控制非常困难.经典的线性控制方法如PI、PID等方法用于开关磁阻电机的控制,效果不好.其它的控制方法如滑模变结构控制、状态空间控制方法等可取得较好的控制效果但大都比较复杂,实现起来比较困难.而智能控制方法如模糊控制本身为一种非线性控制方法,对于非线性、变结构、时变的被控对象均可取得较好的控制效果且不需知道被控对象的数学模型,这对于很难精确建模的开关磁阻电机来说尤其适用.同时,模糊控制实现比较容易.但对于变参数、变结构的开关磁阻电机来说固定参数的模糊控制在不同条件下其控制效果难以达到最优.为取得最优的控制效果,该文采用带修正因子的自组织模糊控制器,采用单纯形加速优化算法通过在线调整参数,达到了较好的控制效果.仿真结果证明了这一点.
上传时间: 2013-05-16
上传用户:大三三
随着电网中非线性负载的迅速增加,电能质量日趋恶化,这不仅严重影响电网安全高效的运行,而且对经典的电力测量理论、方法和仪表的设计都提出了新的挑战。电力检测系统的发展和应用,对电力系统的安全运行有重要意义,并且具有明显的经济效益和社会效益。 本文讲述了谐波测量的基本理论,着重对傅里叶变换进行说明,使用PSIM软件对谐波信号进行仿真,并给出仿真结果。以电力监控领域现阶段的技术为参考,提出并研制了一种基于ARM和DSP的嵌入式平台的电力监控系统。该系统为了能满足实时谐波分析算法运算量大的要求,它采用模块化设计,核心CPU按数据处理和控制两种功能分别采用美国TI公司生产的TMS320LF2407芯片和Samsung公司基于ARM920T内核的16/32位S3C2410A微处理器,两个核心芯片各自在不同的电路板上独立运行,充分发挥DSP芯片的数字信号处理优势和ARM的控制功能,以实现系统中的复杂软件算法,运算速度也能得以提高。 系统硬件设计包括DSP数据采集模块、实时时钟电路和ARM的时钟电路、存储器接口电路、SDRAM电路、串行接口电路、通信模块接口电路、LCD显示等电路的设计。 系统软件设计主要包括操作系统的移植以及应用程序的设计,应用程序设计由ARM主控程序设计、网络通讯程序、ARM与DSP通讯程序设计以及DSP数据处理程序设计组成。
上传时间: 2013-04-24
上传用户:sun_pro12580
目前国内的大多数通用直流电参数测量设备,精度等级一般为0.5级或0,2级,精度更高的测量仪表(校表)一般为0.1~0.05级。而数字仪表使用的CPU大多数仍采用8位或16位单片机,由于其处理速度慢,不易实现更多的功能。软件上还是采用汇编语言编程,流程上沿用传统的线性程序,不便于软件的升级和维护。而国外高精度的测量设备往往价格很高。为了更好地满足计算过程中准确性、精确性、快速性以及日后客户对仪表功能上的升级要求,克服目前国内现行的直流电参数测量仪器存在的局限,同时获得更高的性价比,本文在充分分析和吸收当前国内外数字仪表的先进技术和经验后,研制了一种基于32位ARM和嵌入式实时操作系统μC/OS-Ⅱ的智能直流校验表,精度已达到了0.05级,该仪器是目前国内直流电参数测量的最高性能仪器之一,可广泛用于实验室、计量院所、电力系统等部门作为0.1级、0.05级直流电压、电流测量标准或现场检测。 本文首先对直流表的各种测量功能和精度要求进行了分析,提出了仪器的总体框架和满足测量精度要求的措施。本装置硬件上采用ARM结构,以恩智浦公司的ARM微控制器(LPC2134)为控制核心,实现测量、校准、通信和显示功能。软件上则基于嵌入式实时操作系统μC/OS-Ⅱ进行了仪表的总体程序设计。 在介绍了对直流表硬件电路的设计及驱动程序的编写后,再简单阐述了μC/OS-Ⅱ的一些基本概念和在ARM微控制器(LPC2134)上的移植,并详细介绍了基于μC/OS-Ⅱ平台应用程序的任务划分,在设计了全部程序后,探讨了误差的分类和产生原因,并对实验结果进行了分析。
上传时间: 2013-06-25
上传用户:元宵汉堡包
红外对管检测装置.pdf
上传时间: 2013-05-21
上传用户:klin3139
现在,下一代嵌入式微处理器和软件面临着不断减小的产品寿命。而由此产生的缩短的研发周期则要求设计者能够在更短的时间内开发出更为复杂的处理器和软件。为了解决这个问题,嵌入式系统的仿真逐渐成为在新的可编程结构的开发中必不可少的工具。对于嵌入式系统仿真核心的指令集仿真器,由于普遍使用的解释型仿真器的性能较低,从十几年前开始,人们就开始了对编译型指令集仿真器的研究。但是,由于编译技术的限制,它从来没有能够在商业产品中推广。 ARM公司06年新推出的Cortex-M3系列芯片已经广泛应用在无线传感器网络等领域。本文将针对基于ARM Cortex-M3的嵌入式系统设计出一个仿真平台,以ARM Cortex-M3 所采用最新的Thumb-2 指令集作为目标指令集,设计了其仿真器,给出了一种优化的解释型指令仿真机。 1.首先介绍了Thumb-2 指令集的编程模型,包括目标指令集支持的处理器的模式、寄存器和存储器的组织。 2.其次建立了仿真平台。在平台的建立过程中,设计了结合编译技术速度和解释技术灵活性的仿真机;完成了Thumb-2 指令集体系结构的描述;实现了存储器接口,从而可以满足目标指令集对存储器的访问要求;介绍了ELF 文件格式,并设计了将ELF 文件中的指令和数据装入存储器的装载程序。 3.最后以一个基于ARM Cortex-M3 处理器的机器小车嵌入式系统为例,对仿真平台进行功能上的验证。
上传时间: 2013-07-19
上传用户:111111112
随着半导体工艺的飞速发展和芯片设计水平的不断进步,ARM微处理器的性能得到大幅度地提高,同时其芯片的价格也在不断下降,嵌入式系统以其独有的优势,己经广泛地渗透到科学研究和日常生活的各个方面。 本文以ARM7 LPC2132处理器为核心,结合盖革一弥勒计数管对Time-To-Count辐射测量方法进行研究。ARM结构是基于精简指令集计算机(RISC)原理而设计的,其指令集和相关的译码机制比复杂指令集计算机要简单得多,使用一个小的、廉价的ARM微处理器就可实现很高的指令吞吐量和实时的中断响应。基于ARM7TDMI-S核的LPC2132微处理器,其工作频率可达到60MHz,这对于Time-To-Count技术是非常有利的,而且利用LPC2132芯片的定时/计数器引脚捕获功能,可以直接读取TC中的计数值,也就是说不再需要调用中断函数读取TC值,从而大大降低了计数前杂质时间。本文是在我师兄吕军的《Time-To-Count测量方法初步研究》基础上,使用了高速的ARM芯片,对基于MCS-51的Time-To-Count辐射测量系统进行了改进,进一步论证了采用高速ARM处理器芯片可以极大的提高G-M计数器的测量范围与测量精度。 首先,讨论了传统的盖革-弥勒计数管探测射线强度的方法,并指出传统的脉冲测量方法的不足。然后讨论了什么是Time-To-Count测量方法,对Time-To-Count测量方法的理论基础进行分析。指出Time-To-Count方法与传统的脉冲计数方法的区别,以及采用Time-To-Count方法进行辐射测量的可行性。 接着,详细论述基于ARM7 LPC2132处理器的Time-To-Count辐射测量仪的原理、功能、特点以及辐射测量仪的各部分接口电路设计及相关程序的编制。 最后得出结论,通过高速32位ARM处理器的使用,Time-To-Count辐射测量仪的精度和量程均得到很大的提高,对于Y射线总量测量,使用了ARM处理器的Time-To-Count辐射测量仪的量程约为20 u R/h到1R/h,数据线性程度也比以前的Time-To-CotJnt辐射测量仪要好。所以在使用Time-To-Count方法进行的辐射测量时,如何减少杂质时间以及如何提高计数前时间的测量精度,是决定Time-To-Count辐射测量仪性能的关键因素。实验用三只相同型号的J33G-M计数管分别作为探测元件,在100U R/h到lR/h的辐射场中进行试验.每个测量点测量5次取平均,得出随着照射量率的增大,辐射强度R的测量值偏小且与辐射真实值之间的误差也随之增大。如果将测量误差限定在10%的范围内,则此仪器的量程范围为20 u R/h至1R/h,量程跨度近六个数量级。而用J33型G-M计数管作常规的脉冲测量,量程范围约为50 u R/h到5000 u R/h,充分体现了运用Time-To-Count方法测量辐射强度的优越性,也从另一个角度反应了随着计数前时间的逐渐减小,杂质时间在其中的比重越来越大,对测量结果的影响也就越来越严重,尽可能的减小杂质时间在Time-To-Count方法辐射测量特别是测量高强度辐射中是关键的。笔者用示波器测出此辐射仪器的杂质时间约为6.5 u S,所以在计算定时器值的时候减去这个杂质时间,可以增加计数前时间的精确度。通过实验得出,在标定仪器的K值时,应该在照射量率较低的条件下行,而测得的计数前时间是否精确则需要在照射量率较高的条件下通过仪器标定来检验。这是因为在照射量率较低时,计数前时间较大,杂质时间对测量结果的影响不明显,数据线斜率较稳定,适宜于确定标定系数K值,而在照射量率较高时,计数前时间很小,杂质时间对测量结果的影响较大,可以明显的在数据线上反映出来,从而可以很好的反应出仪器的性能与量程。实验证明了Time-To-Count测量方法中最为关键的环节就是如何对计数前时间进行精确测量。经过对大量实验数据的分析,得到计数前时间中的杂质时间可分为硬件杂质时间和软件杂质时间,并以软件杂质时间为主,通过对程序进行合理优化,软件杂质时间可以通过程序的改进而减少,甚至可以用数学补偿的方法来抵消,从而可以得到比较精确的计数前时间,以此得到较精确的辐射强度值。对于本辐射仪,用户可以选择不同的工作模式来进行测量,当辐射场较弱时,通常采用规定次数测量的方式,在辐射场较强时,应该选用定时测量的方式。因为,当辐射场较弱时,如果用规定次数测量的方式,会浪费很多时间来采集足够的脉冲信号。当辐射场较强时,由于辐射粒子很多,产生脉冲的频率就很高,规定次数的测量会加大测量误差,当选用定时测量的方式时,由于时间的相对加长,所以记录的粒子数就相对的增加,从而提高仪器的测量精度。通过调研国内外先进核辐射测量仪器的发展现状,了解到了目前最新的核辐射总量测量技术一Time-To-Count理论及其应用情况。论证了该新技术的理论原理,根据此原理,结合高速处理器ARM7 LPC2132,对以G-计数管为探测元件的Time-To-Count辐射测量仪进行设计。论文以实验的方法论证了Time-To-Count原理测量核辐射方法的科学性,该辐射仪的量程和精度均优于以前以脉冲计数为基础理论的MCS-51核辐射测量仪。该辐射仪具有量程宽、精度高、易操作、用户界面友好等优点。用户可以定期的对仪器的标定,来减小由于电子元件的老化对低仪器性能参数造成的影响,通过Time-To-Count测量方法的使用,可以极大拓宽G-M计数管的量程。就仪器中使用的J33型G-M计数管而言,G-M计数管厂家参考线性测量范围约为50 u R/h到5000 u R/h,而用了Time-To-Count测量方法后,结合高速微处理器ARM7 LPC2132,此核辐射测量仪的量程为20 u R/h至1R/h。在允许的误差范围内,核辐射仪的量程比以前基于MCS-51的辐射仪提高了近200倍,而且精度也比传统的脉冲计数方法要高,测量结果的线性程度也比传统的方法要好。G-M计数管的使用寿命被大大延长。 综上所述,本文取得了如下成果:对国内外Time-To-Count方法的研究现状进行分析,指出了Time-To-Count测量方法的基本原理,并对Time-T0-Count方法理论进行了分析,推导出了计数前时间和两个相邻辐射粒子时间间隔之间的关系,从数学的角度论证了Time-To-Count方法的科学性。详细说明了基于ARM 7 LPC2132的Time-To-Count辐射测量仪的硬件设计、软件编程的过程,通过高速微处理芯片LPC2132的使用,成功完成了对基于MCS-51单片机的Time-To-Count测量仪的改进。改进后的辐射仪器具有量程宽、精度高、易操作、用户界面友好等特点。本论文根据实验结果总结出了Time-To-Count技术中的几点关键因素,如:处理器的频率、计数前时间、杂质时间、采样次数和测量时间等,重点分析了杂质时间的组成以及引入杂质时间的主要因素等,对国内核辐射测量仪的研究具有一定的指导意义。
标签: TimeToCount ARM 辐射测量仪
上传时间: 2013-06-24
上传用户:pinksun9
线性预测技术作为一种基于全极点模型假定和均方预测误差最小准则下的波形逼近技术。本文简要介绍了LPC 技术的基本原理,并利用MATLAB 这一有力工具对语音信号进行了LPC 分析,并对阶数的选取
上传时间: 2013-05-26
上传用户:博雅abcd