虫虫首页| 资源下载| 资源专辑| 精品软件
登录| 注册

图像识别

图像识别,是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术,是应用深度学习算法的一种实践应用。[1]现阶段图像识别技术一般分为人脸识别与商品识别,人脸识别主要运用在安全检查、身份核验与移动支付中;商品识别主要运用在商品流通过程中,特别是无人货架、智能零售柜等无人零售领域[2]。
  • 使用小波_ICA对图像进行特征提取

    利用小波和ICA结合方式对图像进行特征提取和识别。

    标签: ICA feature identification

    上传时间: 2016-03-29

    上传用户:2084592

  • 三维目标识别

    很经典的文献,利用深度和灰度图像实现三维目标的识别和分类

    标签: 目标识别

    上传时间: 2016-05-20

    上传用户:Gargan

  • 路径识别及中心线定位

    数字图像处理报告,无人驾驶,路径识别,中心线定位

    标签: 路径识别 中心线 定位

    上传时间: 2016-06-20

    上传用户:yechen130

  • 车辆号牌识别代码

    此软件仅供学习使用,特别是对那些学习图像处理和识别的同学

    标签: 算法 识别

    上传时间: 2016-06-25

    上传用户:黑核技术

  • 天气图像处理数据集

    这是一篇基于主动学习天气识别论文的数据集,包括1000副图像,晴天,多云和阴天三类。

    标签: 图像处理 数据集

    上传时间: 2016-10-20

    上传用户:qwer-ww

  • 基于FPGA的二值图像连通域标记快速算法实现

    针对高速图像目标实时识别和跟踪任务,需要利用系统中有限的硬件资源实现高速、准确的二值图像 连通域标记,提出了一种适合FPGA实现的二值图像连通域标记快速算法。算法以快捷、有效的方式识别、并 记录区域间复杂的连通关系。与传统的二值图像标记算法相比,该算法具有运算简单性、规则性和可扩展性的 特点。

    标签: FPGA 二值图像 标记 快速算法基于FPGA的二值图像连通域标记快速算法实现

    上传时间: 2016-11-19

    上传用户:nathanlgy

  • 论文-基于红外热成像技术的猪体温检测与关键测温部位识别63页

    论文-基于红外热成像技术的猪体温检测与关键测温部位识别63页摘要 实现猪体温测量自动化有利于实时监测猪的健康状况、母猪发情和排卵检测等 生理健康状况。本文采用红外热成像仪采集猪的红外热图像,引入化学计量学建模 方法建立体表温度、环境温度与直肠温度间的多元校正模型,同时提出两种关键测 温部位的自动检测方法。主要结论总结如下: (1)建立了母猪体表温度、环境温度与母猪体温之间的一元和多元线性回归模型。研 究发现, 9个身体区域提取的体表温度与直肠温度呈正相关(产O.34~0.68),其中, 基于耳根区域体表温度平均值建立的一元回归方程效果最优,预测集相关系数RP与 均方根误差RMSEP分别为0.66和0.420C。全特征模型相比一元线性回归方程有更 好的预测效果,RP和RMSEP分别为0.76和O.370C。此外,应用特征选择方法LARS. Lasso确定了7个重要特征建立简化模型,其校正集和预测集的R分别为0.80和 0.80,RMSEs分别为0.30和0.350C。 (2)将卷积神经网络应用于生猪主要测温部位(眼睛和耳朵区域)的直接分割。利用 python构建了四种不同结构的卷积神经网络模型FCN一1 6s、FCN.8s、U.Net一3和U. Net.4。对比分析4种卷积神经网络模型的性能,结果表明U-Net.4网络结构的分割 效果最优,平均区域重合度最高为78.75%。然而,当计算设备的计算力不够时,可 以选用U.Net一3模型以达到较好的分割效果。 (3)提出猪只眼睛及耳根区域关键点的识别方法,将猪只主要测温部位的检测问题 转变为主要测温部位的定位问题。设计具有不同深度的卷积神经网络架构A.E,得 出架构E最优。且当Dropout概率设置为0.6时模型效果最好,验证集平均误差和 预测集平均误差分别为1.96%和2.65%。测试集单张猪脸关键点的预测误差小于5% 和10%的比例分别为89.5%和97.4%。模型能够很好的定位猪脸关键点,用于猪只 体温测量。 本文采用红外热像仪测量母猪体表温度,通过化学计量学建模为非接触母猪直 肠温度测量提供了更准确、可靠的方法,同时提出两种关键测温部位的自动检测方 法,有助于实现母猪体温测量自动化,为生猪健康管理提供参考。

    标签: 红外热成像技术

    上传时间: 2022-02-13

    上传用户:jiabin

  • STM32二维码与条形码识别库(含资料与源码)

    该二维码&条码识别LIB功能:1,支持QR二维码识别.2,支持CODE128,CODE39,I25,EAN13等四种编码方式的条码识别.3,支持UTF8-OEM转换输出(需要客户自己提供转换码表).    本LIB移植步骤:    1,实现atk_qrdecode.c里面的所有函数. 2,堆栈(Stack_Size)设置为0X1000或以上.        本LIB使用步骤:                       1,调用atk_qr_init函数,初始化识别程序,返回值为ATK_QR_OK,则初始化成功.2,调用atk_qr_decode函数,给定参数,对图像进行识别.3,如果需要不停的识别,则重复第2个步骤即可.4,调用atk_qr_destroy函数,结束识别,释放所有内存.结束识别.文件截图:

    标签: stm32 条形码识别

    上传时间: 2022-02-24

    上传用户:

  • 视觉图像和可穿戴计算数据融合的跌倒检测技术及应用

    人口老龄化是世界各国正在面对的一个普遍问题。随着我国老龄化程度的持续加剧,对于老年人群体的医疗资源投入会不断提高。而与此同时,跌倒已经成为老年人日常生活中最为常见的危险行为活动。所以,跌倒检测系统的研究和应用对降低老年人受到的身心伤害和医疗成本具有显著的意义。目前解决老年人跌倒检测的方案仍存在许多不足。其中,基于计算机视觉的跌倒检测技术在无干扰的场景下检测较为有效,但其易受环境变化(如背景光线影响、人遮挡问题等)影响。此外,基于可穿戴计算的跌倒检测技术受限于算法稳定性和识别准确率,系统的灵敏度和特异性难以同时得到保证。针对上述问题本文提出一种融合计算机视觉和可穿戴计算数据的跌倒检测新的方法。首先,设计并开发了集成三轴加速度计、三轴陀螺仪和蓝牙的活动感知模块,实现实时采集、传输人体活动数据:其次,使用深度学习算法从摄像头采集的图像数据提取人体姿态特征数据:最后,对采集的人体活动数据和姿态数据进行规范化和时序化处理,设计了两个深度学习网络分别对数据进行特征提取,并将两特征进行特征层数据融合,在此基础上构建神经网络对融合数据进行活动本文搭建了实验平台并进行了算法测试,其中,本文跌倒检测算法针对离线测试数据的准确率为992%,平均敏感度为995%、平均特异性为99.8%:针对在线数据系统测试准确率为98.9%、平均敏感度为99.2%、平均特异性为99.5%实验结果证明了利用计算机视觉和可穿戴计算数据融合的跌倒检测具有较高的准确率和鲁棒性。

    标签: 视觉图像 数据融合

    上传时间: 2022-03-14

    上传用户:bluedrops

  • 【毕业设计】基于STM32的车牌识别系统电路设计方案(原理图工程文件+程序)

    本系统以STM32F103RBT单片机为主控,控制OV7670摄像头(带FIFO)进行图像采集,通过模式识别、匹配,最后获得车牌的识别结果。为尽大可能的提高处理速度,STM32单片机进行了16倍频。识别主要过程包括图像采集、二值化分析、识别车牌区域、字符分割、字符匹配五过程。实物图:原理图:程序:部分文件截图:

    标签: stm32 车牌识别系统

    上传时间: 2022-03-19

    上传用户: