人口老龄化是世界各国正在面对的一个普遍问题。随着我国老龄化程度的持续加剧,对于老年人群体的医疗资源投入会不断提高。而与此同时,跌倒已经成为老年人日常生活中最为常见的危险行为活动。所以,跌倒检测系统的研究和应用对降低老年人受到的身心伤害和医疗成本具有显著的意义。目前解决老年人跌倒检测的方案仍存在许多不足。其中,基于计算机视觉的跌倒检测技术在无干扰的场景下检测较为有效,但其易受环境变化(如背景光线影响、人遮挡问题等)影响。此外,基于可穿戴计算的跌倒检测技术受限于算法稳定性和识别准确率,系统的灵敏度和特异性难以同时得到保证。针对上述问题本文提出一种融合计算机视觉和可穿戴计算数据的跌倒检测新的方法。首先,设计并开发了集成三轴加速度计、三轴陀螺仪和蓝牙的活动感知模块,实现实时采集、传输人体活动数据:其次,使用深度学习算法从摄像头采集的图像数据提取人体姿态特征数据:最后,对采集的人体活动数据和姿态数据进行规范化和时序化处理,设计了两个深度学习网络分别对数据进行特征提取,并将两特征进行特征层数据融合,在此基础上构建神经网络对融合数据进行活动本文搭建了实验平台并进行了算法测试,其中,本文跌倒检测算法针对离线测试数据的准确率为992%,平均敏感度为995%、平均特异性为99.8%:针对在线数据系统测试准确率为98.9%、平均敏感度为99.2%、平均特异性为99.5%实验结果证明了利用计算机视觉和可穿戴计算数据融合的跌倒检测具有较高的准确率和鲁棒性。
标签:
视觉图像
数据融合
上传时间:
2022-03-14
上传用户:bluedrops