本书共分17章,第一章介绍了图像处理的基本知识,第二章介绍了图像处理编程的基本知识,以后各章分别介绍了区域分割与目标提取、边缘检测与提取、图像平滑、图像增强、特征选择与描述、彩色变换、彩色分割、几何变换、Hough变换、频率变换、小波变换、模式识别、神经网络、遗传算法、图像压缩的基本知识和应用实例,并且都附有相应的C语言图像处理程序。提供有一个Visual C++的学习版框架源程序和专业版演示程序,光盘里还附有专业版图像处理软件介绍和图像处理的工程应用介绍。
标签: 分
上传时间: 2017-08-23
上传用户:脚趾头
几篇关于神经网络的文章,结合遥感图像的特性,介绍了人工神经网络在遥感图像分类中的作用
标签: 神经网络
上传时间: 2017-09-17
上传用户:ljt101007
用bp神经网络训练分类器,进行分类,将结果分为几个类
上传时间: 2015-04-12
上传用户:sunnymovie
RBF神经网络在分类问题中得到了广泛的应用,尤其是模式识别的问题。许多模式识别实验证明,RBF具有更有效的非线性逼近能力,并且RBF神经网络的学习速度较其他网络快。本文在具有复杂控制规律的S函数构造方法的基础上,给出了基于MATLAB语言的RBF神经网络PID控制器,及该模型的一非线性对象的仿真结果。
上传时间: 2016-05-19
上传用户:子夜青衫
% 生成训练样本集 clear all; clc; P=[110 0.807 240 0.2 15 1 18 2 1.5; 110 2.865 240 0.1 15 2 12 1 2; 110 2.59 240 0.1 12 4 24 1 1.5; 220 0.6 240 0.3 12 3 18 2 1; 220 3 240 0.3 25 3 21 1 1.5; 110 1.562 240 0.3 15 3 18 1 1.5; 110 0.547 240 0.3 15 1 9 2 1.5]; 0 1.318 300 0.1 15 2 18 1 2]; T=[54248 162787 168380 314797; 28614 63958 69637 82898; 86002 402710 644415 328084; 230802 445102 362823 335913; 60257 127892 76753 73541; 34615 93532 80762 110049; 56783 172907 164548 144040]; @907 117437 120368 130179]; m=max(max(P)); n=max(max(T)); P=P'/m; T=T'/n; %-------------------------------------------------------------------------% pr(1:9,1)=0; %输入矢量的取值范围矩阵 pr(1:9,2)=1; bpnet=newff(pr,[12 4],{'logsig', 'logsig'}, 'traingdx', 'learngdm'); %建立BP神经网络, 12个隐层神经元,4个输出神经元 %tranferFcn属性 'logsig' 隐层采用Sigmoid传输函数 %tranferFcn属性 'logsig' 输出层采用Sigmoid传输函数 %trainFcn属性 'traingdx' 自适应调整学习速率附加动量因子梯度下降反向传播算法训练函数 %learn属性 'learngdm' 附加动量因子的梯度下降学习函数 net.trainParam.epochs=1000;%允许最大训练步数2000步 net.trainParam.goal=0.001; %训练目标最小误差0.001 net.trainParam.show=10; %每间隔100步显示一次训练结果 net.trainParam.lr=0.05; %学习速率0.05 bpnet=train(bpnet,P,T); %------------------------------------------------------------------------- p=[110 1.318 300 0.1 15 2 18 1 2]; p=p'/m; r=sim(bpnet,p); R=r'*n; display(R);
上传时间: 2016-05-28
上传用户:shanqiu
通过Matlab实现的bp神经网络分类,机器学习的基础
上传时间: 2017-01-17
上传用户:zhoubang
建立两层神经网络,对12个样本进行学习,并且能够实现对故障测试样本的分类
上传时间: 2019-03-12
上传用户:AHAHahah
这是我在做大学教授期间推荐给我学生的一本书,非常好,适合入门学习。《python深度学习》由Keras之父、现任Google人工智能研究员的弗朗索瓦•肖莱(François Chollet)执笔,详尽介绍了用Python和Keras进行深度学习的探索实践,包括计算机视觉、自然语言处理、产生式模型等应用。书中包含30多个代码示例,步骤讲解详细透彻。作者在github公布了代码,代码几乎囊括了本书所有知识点。在学习完本书后,读者将具备搭建自己的深度学习环境、建立图像识别模型、生成图像和文字等能力。但是有一个小小的遗憾:代码的解释和注释是全英文的,即使英文水平较好的朋友看起来也很吃力。本人认为,这本书和代码是初学者入门深度学习及Keras最好的工具。作者在github公布了代码,本人参照书本,对全部代码做了中文解释和注释,并下载了代码所需要的一些数据集(尤其是“猫狗大战”数据集),并对其中一些图像进行了本地化,代码全部测试通过。(请按照文件顺序运行,代码前后有部分关联)。以下代码包含了全书约80%左右的知识点,代码目录:2.1: A first look at a neural network( 初识神经网络)3.5: Classifying movie reviews(电影评论分类:二分类问题)3.6: Classifying newswires(新闻分类:多分类问题 )3.7: Predicting house prices(预测房价:回归问题)4.4: Underfitting and overfitting( 过拟合与欠拟合)5.1: Introduction to convnets(卷积神经网络简介)5.2: Using convnets with small datasets(在小型数据集上从头开始训练一个卷积网络)5.3: Using a pre-trained convnet(使用预训练的卷积神经网络)5.4: Visualizing what convnets learn(卷积神经网络的可视化)
上传时间: 2022-01-30
上传用户:
论文-基于红外热成像技术的猪体温检测与关键测温部位识别63页摘要 实现猪体温测量自动化有利于实时监测猪的健康状况、母猪发情和排卵检测等 生理健康状况。本文采用红外热成像仪采集猪的红外热图像,引入化学计量学建模 方法建立体表温度、环境温度与直肠温度间的多元校正模型,同时提出两种关键测 温部位的自动检测方法。主要结论总结如下: (1)建立了母猪体表温度、环境温度与母猪体温之间的一元和多元线性回归模型。研 究发现, 9个身体区域提取的体表温度与直肠温度呈正相关(产O.34~0.68),其中, 基于耳根区域体表温度平均值建立的一元回归方程效果最优,预测集相关系数RP与 均方根误差RMSEP分别为0.66和0.420C。全特征模型相比一元线性回归方程有更 好的预测效果,RP和RMSEP分别为0.76和O.370C。此外,应用特征选择方法LARS. Lasso确定了7个重要特征建立简化模型,其校正集和预测集的R分别为0.80和 0.80,RMSEs分别为0.30和0.350C。 (2)将卷积神经网络应用于生猪主要测温部位(眼睛和耳朵区域)的直接分割。利用 python构建了四种不同结构的卷积神经网络模型FCN一1 6s、FCN.8s、U.Net一3和U. Net.4。对比分析4种卷积神经网络模型的性能,结果表明U-Net.4网络结构的分割 效果最优,平均区域重合度最高为78.75%。然而,当计算设备的计算力不够时,可 以选用U.Net一3模型以达到较好的分割效果。 (3)提出猪只眼睛及耳根区域关键点的识别方法,将猪只主要测温部位的检测问题 转变为主要测温部位的定位问题。设计具有不同深度的卷积神经网络架构A.E,得 出架构E最优。且当Dropout概率设置为0.6时模型效果最好,验证集平均误差和 预测集平均误差分别为1.96%和2.65%。测试集单张猪脸关键点的预测误差小于5% 和10%的比例分别为89.5%和97.4%。模型能够很好的定位猪脸关键点,用于猪只 体温测量。 本文采用红外热像仪测量母猪体表温度,通过化学计量学建模为非接触母猪直 肠温度测量提供了更准确、可靠的方法,同时提出两种关键测温部位的自动检测方 法,有助于实现母猪体温测量自动化,为生猪健康管理提供参考。
标签: 红外热成像技术
上传时间: 2022-02-13
上传用户:jiabin
人口老龄化是世界各国正在面对的一个普遍问题。随着我国老龄化程度的持续加剧,对于老年人群体的医疗资源投入会不断提高。而与此同时,跌倒已经成为老年人日常生活中最为常见的危险行为活动。所以,跌倒检测系统的研究和应用对降低老年人受到的身心伤害和医疗成本具有显著的意义。目前解决老年人跌倒检测的方案仍存在许多不足。其中,基于计算机视觉的跌倒检测技术在无干扰的场景下检测较为有效,但其易受环境变化(如背景光线影响、人遮挡问题等)影响。此外,基于可穿戴计算的跌倒检测技术受限于算法稳定性和识别准确率,系统的灵敏度和特异性难以同时得到保证。针对上述问题本文提出一种融合计算机视觉和可穿戴计算数据的跌倒检测新的方法。首先,设计并开发了集成三轴加速度计、三轴陀螺仪和蓝牙的活动感知模块,实现实时采集、传输人体活动数据:其次,使用深度学习算法从摄像头采集的图像数据提取人体姿态特征数据:最后,对采集的人体活动数据和姿态数据进行规范化和时序化处理,设计了两个深度学习网络分别对数据进行特征提取,并将两特征进行特征层数据融合,在此基础上构建神经网络对融合数据进行活动本文搭建了实验平台并进行了算法测试,其中,本文跌倒检测算法针对离线测试数据的准确率为992%,平均敏感度为995%、平均特异性为99.8%:针对在线数据系统测试准确率为98.9%、平均敏感度为99.2%、平均特异性为99.5%实验结果证明了利用计算机视觉和可穿戴计算数据融合的跌倒检测具有较高的准确率和鲁棒性。
上传时间: 2022-03-14
上传用户:bluedrops