建设网站如果赚钱,lnmp架构部署wordpress,百度外推发帖软件,网站到期请续费摘要#xff1a;动物识别系统用于识别和统计常见动物数量#xff0c;通过深度学习技术检测日常几种动物图像识别#xff0c;支持图片、视频和摄像头画面等形式。在介绍算法原理的同时#xff0c;给出Python的实现代码、训练数据集以及PyQt的UI界面。动物识别系统主要用于常… 摘要动物识别系统用于识别和统计常见动物数量通过深度学习技术检测日常几种动物图像识别支持图片、视频和摄像头画面等形式。在介绍算法原理的同时给出Python的实现代码、训练数据集以及PyQt的UI界面。动物识别系统主要用于常见动物的识别检测几种动物的数目、位置、预测置信度等检测模型可选择切换识别结果记录在界面表格中系统设计有注册登录功能方便用户进行管理和使用。博文提供了完整的Python代码和使用教程适合新入门的朋友参考完整代码资源文件请转至文末的下载链接。本博文目录如下 文章目录前言1. 效果演示2. 原理与数据集3. 基于YOLOv5的训练与识别下载链接结束语➷点击跳转至文末所有涉及的完整代码文件下载页☇ 基于深度学习的动物识别系统演示与介绍PyQt5YOLOv5深度学习模型清新界面前言 人工智能的出现引发了动物监测与识别的巨大变革如何应用智能技术来开展野生动物资源的观测与评估工作成为研究重点。如今CNN作为一种学习效率极高且易于训练的深度学习模型在动物识别中最为常用。在CNN的基础上人们通过对卷积层、池化层、全连接层等结构的交替与优化加强对图像的特征提取并通过调整网络层数加强学习能力进一步训练提高识别性能。 这里博主也设计了基于深度学习的动物识别系统下面给出了软件界面同款的简约风功能也可以满足图片、视频和摄像头的识别检测希望大家可以喜欢初始界面如下图 检测动物时的界面截图点击图片可放大如下图可识别画面中存在的多个动物也可开启摄像头或视频检测 详细的功能演示效果参见博主的B站视频或下一节的动图演示觉得不错的朋友敬请点赞、关注加收藏系统UI界面的设计工作量较大界面美化更需仔细雕琢大家有任何建议或意见和可在下方评论交流。 1. 效果演示 这里通过动图看一下识别动物的效果系统主要实现的功能是对图片、视频和摄像头画面中的动物属性进行识别识别的结果可视化显示在界面和图像中另外提供多个动物的显示选择功能演示效果如下。
一用户注册登录界面 这里设计了一个登录界面可以注册账号和密码然后进行登录。界面还是参考了当前流行的UI设计左侧是一个logo右侧输入账号、密码、验证码 二选择图片识别 系统允许选择图片文件进行识别点击图片选择按钮图标选择图片后显示所有动物识别的结果可通过下拉选框查看单个动物的类别。本功能的界面展示如下图所示 三视频识别效果展示 很多时候我们需要识别一段视频中的动物种类这里设计了视频选择功能。点击视频按钮可选择待检测的视频系统会自动解析视频逐帧识别动物并将结果记录在右下角表格中效果如下图所示 2. 原理与数据集
一源码简介 基于人工特征的野生动物识别方法主要通过人工对野生动物图像中具有辨识度的特征信息进行提取并通过特征比对的方式就可以对野生动物所属的类别进行识别判断。本文借助YOLOv5实现下面介绍一下YOLOv5原理。 YOLOv5的调用、训练和预测都十分方便并且它为不同的设备需求和不同的应用场景提供了大小和参数数量不同的网络。 1主干部分使用了Focus网络结构具体操作是在一张图片中每隔一个像素拿到一个值这个时候获得了四个独立的特征层然后将四个独立的特征层进行堆叠此时宽高信息就集中到了通道信息输入通道扩充了四倍。该结构在YoloV5第5版之前有所应用最新版本中未使用。 2数据增强Mosaic数据增强、Mosaic利用了四张图片进行拼接实现数据中增强优点是可以丰富检测物体的背景且在BN计算的时候可以计算四张图片的数据。 3多正样本匹配在之前的Yolo系列里面在训练时每一个真实框对应一个正样本即在训练时每一个真实框仅由一个先验框负责预测。YoloV5中为了加快模型的训练效率增加了正样本的数量在训练时每一个真实框可以由多个先验框负责预测。
二数据集准备 这里我们使用的动物识别数据集是从COCO和VOC数据集中抽取的包含鸟、猫、狗、马、羊等类别的图像数据每张图片除包括类别标签外还有一个标注的物体边框Bounding Box。组成的训练数据集包含1284张图片验证集321张图片测试集321张图片共计1926张图片。
Chinese_name {bird: 鸟,cat: 猫,cow: 牛,dog: 狗子,horse: 马,sheep: 羊}由于原数据集采用的是xml的标注文件格式所以我们需要将xml格式修改为YOLOv5能够使用的标注格式可通过以下代码进行转换
classes dict()
num_classes 0parentpath # Directory path with parent dir before xml_dir or img_dir
addxmlpath parentpath PersonCar/annotations/train # Directory path with XML files
addimgpath parentpath PersonCar/images/train # Directory path with IMG files
outputpath parentpath PersonCar/labels/train # output folder for yolo format
classes_txt ./personcar_classes.txt # File containing classes
ext .jpg # Image file extension [.jpg or .png]if os.path.isfile(classes_txt):with open(classes_txt, r) as f:class_list f.read().strip().split()classes {k: v for (v, k) in enumerate(class_list)}xmlPaths glob(addxmlpath /*.xml)# 保存数据集图片路径到txt
imgPaths glob(addimgpath /*.jpg)
with open(./train.txt,w) as f:for imgPath in imgPaths:imgPath imgPath.replace(\\, /)f.write(imgPath\n)for xmlPath in xmlPaths:tVocParseReader PascalVocReader(xmlPath)shapes tVocParseReader.getShapes()with open(outputpath / os.path.basename(xmlPath)[:-4] .txt, w) as f:for shape in shapes:class_name shape[0]box shape[1]# filename os.path.splittext(xmlPath)[0] extfilename os.path.splitext(addimgpath / os.path.basename(xmlPath)[:-4])[0] extif class_name not in classes.keys():classes[class_name] num_classesnum_classes 1class_idx classes[class_name](height, width, _) cv2.imread(filename).shapecoord_min box[0]coord_max box[2]xcen float((coord_min[0] coord_max[0])) / 2 / widthycen float((coord_min[1] coord_max[1])) / 2 / heightw float((coord_max[0] - coord_min[0])) / widthh float((coord_max[1] - coord_min[1])) / heightf.write(%d %.06f %.06f %.06f %.06f\n % (class_idx, xcen, ycen, w, h))print(class_idx, xcen, ycen, w, h)with open(parentpath classes.txt, w) as f:for key in classes.keys():f.write(%s\n % key)print(key)打开具体的标注文件你将会看到下面的内容txt文件中每一行表示一个目标以空格进行区分分别表示目标的类别id归一化处理之后的中心点x坐标、y坐标、目标框的w和h。 3. 基于YOLOv5的训练与识别
一训练过程 我们可以在终端输入如下命令进行训练当然也可以直接点击train.py运行。
python train.py --batch 32 --epochs 300在深度学习中我们通常通过损失函数下降的曲线来观察模型训练的情况。而YOLOv5训练时主要包含三个方面的损失矩形框损失(box_loss)、置信度损失obj_loss和分类损失(cls_loss)在训练结束后我们也可以在logs目录下找到生成对若干训练过程统计图。下图为博主训练动物类识别的模型训练曲线图。 一般我们会接触到两个指标分别是召回率recall和精度precision两个指标p和r都是简单地从一个角度来判断模型的好坏均是介于0到1之间的数值其中接近于1表示模型的性能越好接近于0表示模型的性能越差为了综合评价目标检测的性能一般采用均值平均密度map来进一步评估模型的好坏。我们通过设定不同的置信度的阈值可以得到在模型在不同的阈值下所计算出的p值和r值一般情况下p值和r值是负相关的绘制出来可以得到如下图所示的曲线其中曲线的面积我们称AP目标检测模型中每种目标可计算出一个AP值对所有的AP值求平均则可以得到模型的mAP值。 以PR-curve为例可以看到我们的模型在验证集上的均值平均准确率为0.755。
二预测过程 执行predict.py得到的结果如下图所示图中动物的种类和置信度值都标注出来了预测速度较快。基于此模型我们可以将其设计成一个带有界面的系统在界面上选择图片、视频或摄像头然后调用模型进行检测。 博主整个系统进行了详细测试最终开发出一版流畅得到清新界面就是博文演示部分的展示完整的UI界面、测试图片视频、代码文件以及Python离线依赖包方便安装运行也可自行配置环境均已打包上传感兴趣的朋友可以通过下载链接获取。 下载链接 若您想获得博文中涉及的实现完整全部程序文件包括测试图片、视频py, UI文件等如下图这里已打包上传至博主的面包多平台见可参考博客与视频已将所有涉及的文件同时打包到里面点击即可运行完整文件截图如下 在文件夹下的资源显示如下下面的链接中也给出了Python的离线依赖包读者可在正确安装Anaconda和Pycharm软件后复制离线依赖包至项目目录下进行安装离线依赖的使用详细演示也可见本人B站视频win11从头安装软件和配置环境运行深度学习项目、Win10中使用pycharm和anaconda进行python环境配置教程。 注意该代码采用PycharmPython3.8开发经过测试能成功运行运行界面的主程序为runMain.py和LoginUI.py测试图片脚本可运行testPicture.py测试视频脚本可运行testVideo.py。为确保程序顺利运行请按照requirements.txt配置Python依赖包的版本。Python版本3.8请勿使用其他版本详见requirements.txt文件
完整资源中包含数据集及训练代码环境配置与界面中文字、图片、logo等的修改方法请见视频项目完整文件下载请见参考博客文章里面或参考视频的简介处给出➷➷➷
参考博客文章https://zhuanlan.zhihu.com/p/615308511
参考视频演示https://www.bilibili.com/video/BV1yT411r7kG/
离线依赖库下载链接https://pan.baidu.com/s/1hW9z9ofV1FRSezTSj59JSg?pwdoy4n 提取码oy4n 界面中文字、图标和背景图修改方法 在Qt Designer中可以彻底修改界面的各个控件及设置然后将ui文件转换为py文件即可调用和显示界面。如果只需要修改界面中的文字、图标和背景图的可以直接在ConfigUI.config文件中修改步骤如下 1打开UI_rec/tools/ConfigUI.config文件若乱码请选择GBK编码打开。 2如需修改界面文字只要选中要改的字符替换成自己的就好。 3如需修改背景、图标等只需修改图片的路径。例如原文件中的背景图设置如下
mainWindow :/images/icons/back-image.png可修改为自己的名为background2.png图片位置在UI_rec/icons/文件夹中可将该项设置如下即可修改背景图
mainWindow ./icons/background2.png结束语 由于博主能力有限博文中提及的方法即使经过试验也难免会有疏漏之处。希望您能热心指出其中的错误以便下次修改时能以一个更完美更严谨的样子呈现在大家面前。同时如果有更好的实现方法也请您不吝赐教。