基于YOLOv5的手势识别系统(含手势识别数据集+训练代码)
“ 这是博文《基于YOLOv5的手势识别系统(含手势识别数据集+训练代码)》项目代码”
1.项目介绍
手势作为一种肢体语言,在人类交流中的使用起着重要作用。一个简单的手势蕴涵着丰富的信息,正因为如此,人与人可以之间通过手势来传达大量的信息,实现高速的通信。将手势运用于计算机,能够很好地改善人机交互的效率。
手势识别(HGR)作为人机交互的一部分,在汽车领域、家庭自动化系统、各种视频/流媒体平台等领域具有广泛的实际应用。本篇博客,将基于YOLOv5搭建一个手势识别目标检测系统,支持one,two,ok等18种常见的通用手势动作识别,目前基于多目标检测的手势识别方法mAP_0.5=0.99569,mAP_0.5:0.95=0.87605,基本满足业务的性能需求。
Demo视频效果:
|
|
如果想进一步提高模型的性能,可以尝试:
增加样本数据:原始数据集,基本上都是欧美白色人的图片数据,缺乏亚洲人脸数据集,建议根据自己的业务场景,采集相关数据,提高模型泛化能力
使用参数量更大的模型:本教程使用的YOLOv5s,其参数量才7.2M,而YOLOv5x的参数量有86.7M,理论上其精度更高,但推理速度也较慢。
尝试不同数据增强的组合进行训练
整套项目源码内容包含Light-HaGRID数据集 + YOLOv5训练代码和测试代码
(1)Light-HaGRID数据集
提供手势动作识别数据集,共18个手势类别,每个类别约含有7000张图片,总共123731张图片(12W+)
提供所有图片的json标注格式文件,即原始HaGRID数据集的标注格式
提供所有图片的XML标注格式文件,即转换为VOC数据集的格式
提供所有手势区域的图片,每个标注框的手部区域都裁剪下来,并保存在Classification文件夹下
可用于手势目标检测模型训练
可用于手势分类识别模型训练
(2)YOLOv5训练代码和测试代码
整套YOLOv5项目工程的训练代码和测试代码
根据本篇博文说明,简单配置即可开始训练
2.详细说明
详细说明,请查看原文《基于YOLOv5的手势识别系统(含手势识别数据集+训练代码)》
3.资源下载
关于项目的任何问题,均可在博客评论留言~
《基于YOLOv5的手势识别系统(含手势识别数据集+训练代码)》的项目源码