编译原理课程设计,做了一个:根据LR分析表构造LR分析器!对同学们做编译原理实验很有帮助
标签: 编译原理
上传时间: 2016-12-03
上传用户:zhichenglu
自己写的一个用java实现的一个语法分析器,是LR的貌似,很久以前的,大家可以看看
上传时间: 2014-01-06
上传用户:Andy123456
综合运用所学知识,集成词法分析、符号表管理等程序的成果,编程实现LR(0)算法
标签:
上传时间: 2017-06-28
上传用户:yuchunhai1990
语音识别中的说话人自适应研究.nh 1.MAP和MLLR算法比较 文章在讨论由说话人引起的声学差异基础上,研究两种基于模型 的自适应算法:最大似然线性回归(州压LR)和最大后验概率(MAp)。 实验结果表明,不论采用哪种自适应都能使识别率有一定的提升。两 种算法之间的差异性在于MAP具有良好的渐进性,但收敛性较差, 而MLLR在很大程度上改善了收敛特性,但其渐进特性却不如MAP。 文章讨论了在侧汰P自适应中,初始模型参数的先验知识对自适 应效果的影响,以及在MLLR中,回归类对自适应效果的影响。文 章还进一步研究了采用两种算法的累加自适应效果,从结果看MAP 和MLLR结合的方法比单独使用M[AP和MLLR的效果要好。文章 还对包括基于特征层的归一化算法和用于基于声学模型的MLLR算 法等效性进行讨论,并给出了统一的算法框架。
上传时间: 2014-01-09
上传用户:bakdesec
多个程序,C++编写的。自己在做编译课设时搜集参考用的,呵呵,都放上来了,有各种语法写的,LL(1),LR的,递归下降的,还有语义分析部分,有四元式,逆波兰式等等,而且每个都能调试运行。(不好的,我可不拿出来现眼)……
标签: 程序
上传时间: 2017-09-11
上传用户:wuyuying
设计题三:条件语句的语法分析及语义分析程序设计。 1.目的 通过设计、编制、调试一个语法及语义分析程序,加深对语法及语义分析原理的理解。 2.设计内容及要求 IF 〈布尔表达式〉 THEN 〈赋值语句〉 ELSE 〈赋值语句〉 其中 (1)可以选择递归下降法、LL(1)、算符优先分析法、LR法完成以上任务,中间代码选用四元式。 (2)如1题写出符合分析方法要求的文法,给出分析方法的思想,完成分析程序设计。 (3)编制好分析程序后,设计若干用例,上机测试并通过所设计的分析程序。
上传时间: 2013-12-24
上传用户:顶得柱
% 生成训练样本集 clear all; clc; P=[110 0.807 240 0.2 15 1 18 2 1.5; 110 2.865 240 0.1 15 2 12 1 2; 110 2.59 240 0.1 12 4 24 1 1.5; 220 0.6 240 0.3 12 3 18 2 1; 220 3 240 0.3 25 3 21 1 1.5; 110 1.562 240 0.3 15 3 18 1 1.5; 110 0.547 240 0.3 15 1 9 2 1.5]; 0 1.318 300 0.1 15 2 18 1 2]; T=[54248 162787 168380 314797; 28614 63958 69637 82898; 86002 402710 644415 328084; 230802 445102 362823 335913; 60257 127892 76753 73541; 34615 93532 80762 110049; 56783 172907 164548 144040]; @907 117437 120368 130179]; m=max(max(P)); n=max(max(T)); P=P'/m; T=T'/n; %-------------------------------------------------------------------------% pr(1:9,1)=0; %输入矢量的取值范围矩阵 pr(1:9,2)=1; bpnet=newff(pr,[12 4],{'logsig', 'logsig'}, 'traingdx', 'learngdm'); %建立BP神经网络, 12个隐层神经元,4个输出神经元 %tranferFcn属性 'logsig' 隐层采用Sigmoid传输函数 %tranferFcn属性 'logsig' 输出层采用Sigmoid传输函数 %trainFcn属性 'traingdx' 自适应调整学习速率附加动量因子梯度下降反向传播算法训练函数 %learn属性 'learngdm' 附加动量因子的梯度下降学习函数 net.trainParam.epochs=1000;%允许最大训练步数2000步 net.trainParam.goal=0.001; %训练目标最小误差0.001 net.trainParam.show=10; %每间隔100步显示一次训练结果 net.trainParam.LR=0.05; %学习速率0.05 bpnet=train(bpnet,P,T); %------------------------------------------------------------------------- p=[110 1.318 300 0.1 15 2 18 1 2]; p=p'/m; r=sim(bpnet,p); R=r'*n; display(R);
上传时间: 2016-05-28
上传用户:shanqiu
LR(0)文法的判定(☆☆☆) 要求:输入文法,输出判断该文法是否是LR(0)的。
上传时间: 2017-05-24
上传用户:838798360
Reconstruction- and example-based super-resolution (SR) methods are promising for restoring a high-resolution (HR) image from low-resolution (LR) image(s). Under large magnification, reconstruction-based methods usually fail to hallucinate visual details while example-based methods sometimes introduce unexpected details. Given a generic LR image, to reconstruct a photo-realistic SR image and to suppress artifacts in the reconstructed SR image, we introduce a multi-scale dictionary to a novel SR method that simultaneously integrates local and non-local priors. The local prior suppresses artifacts by using steering kernel regression to predict the target pixel from a small local area. The non-local prior enriches visual details by taking a weighted average of a large neighborhood as an estimate of the target pixel. Essentially, these two priors are complementary to each other. Experimental results demonstrate that the proposed method can produce high quality SR recovery both quantitatively and perceptually.
标签: Super-resolution Multi-scale Dictionary Single Image for
上传时间: 2019-03-28
上传用户:fullout
设置易福门传感器软件,IFM LR Device 参数设定软件。
标签: 传感器 软件设置易福门传感器软件
上传时间: 2021-01-10
上传用户: