当前位置: 首页 > news >正文

网站二级目录怎么做在线网站转app

网站二级目录怎么做,在线网站转app,合肥工程建设信息网站,官方网站app最新下载本专栏主要是提供一种国产化图像识别的解决方案#xff0c;专栏中实现了YOLOv5/v8在国产化芯片上的使用部署#xff0c;并可以实现网页端实时查看。根据自己的具体需求可以直接产品化部署使用。 B站配套视频#xff1a;https://www.bilibili.com/video/BV1or421T74f 数据…本专栏主要是提供一种国产化图像识别的解决方案专栏中实现了YOLOv5/v8在国产化芯片上的使用部署并可以实现网页端实时查看。根据自己的具体需求可以直接产品化部署使用。 B站配套视频https://www.bilibili.com/video/BV1or421T74f 数据训练 上一篇博客里面我们已经获得了标注好的数据以及图片接下来我们就要开始训练过程。 数据整备阶段 首先在yolov5的目录下创建一个datasets目录这一步是个人习惯我们将要训练的数据都会放在这里。 所有的数据需要按照目录规范进行放置通常train、val的分配比例为8:2images和labels里面的内容需要对应。 yaml文件准备阶段 编写数据说明文件和结构说明文件找到data目录下创建一个yaml文件此处以我个人创建的举例。 数据yaml文件 可以直接复制目录中的coco128.yaml进行修改将其中的download部分删掉。然后更具自己数据的存放路径进行配置。 train 写训练图片的完整路径经过多次尝试写相对路径会有问题。 val 写验证图片的完整路径。系统会自动找到对应的labels目录。 test 可以不用写对训练结果不会有影响。 nc 写你需要识别的数量。 names 写你需要识别的类别此处循序一定要注意。 # YOLOv5 by Ultralytics, GPL-3.0 license # COCO128 dataset https://www.kaggle.com/ultralytics/coco128 (first 128 images from COCO train2017) by Ultralytics # Example usage: python train.py --data coco128.yaml # parent # ├── yolov5 # └── datasets # └── coco128 ← downloads here (7 MB)# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..] # path: ../datasets/cx # dataset root dir train: /app/docs/yolov5_v7.0/datasets/cx/images/train # train images (relative to path) 128 images val: /app/docs/yolov5_v7.0/datasets/cx/images/train # val images (relative to path) 128 images test: # test images (optional)# Classes nc: 2 # number of classes names: [good,bad] # class names结构yaml文件 打开model目录找到下面的yaml文件此处系统已经默认了一些模型文件。通常不需要进行模型魔改的情况下可以基于pt训练如果需要魔改模型需要自己重新设置一个yaml文件。此处举例看一下。 下文是一个修改后的s模型文件主要修改的就是nc其他内容如果没有学习过模型魔改就不要动。 # YOLOv5 by Ultralytics, GPL-3.0 license# Parameters nc: 2 # number of classes depth_multiple: 0.33 # model depth multiple width_multiple: 0.50 # layer channel multiple anchors:- [10,13, 16,30, 33,23] # P3/8- [30,61, 62,45, 59,119] # P4/16- [116,90, 156,198, 373,326] # P5/32# YOLOv5 v6.0 backbone backbone:# [from, number, module, args][[-1, 1, Conv, [64, 6, 2, 2]], # 0-P1/2[-1, 1, Conv, [128, 3, 2]], # 1-P2/4[-1, 3, C3, [128]],[-1, 1, Conv, [256, 3, 2]], # 3-P3/8[-1, 6, C3, [256]],[-1, 1, Conv, [512, 3, 2]], # 5-P4/16[-1, 9, C3, [512]],[-1, 1, Conv, [1024, 3, 2]], # 7-P5/32[-1, 3, C3, [1024]],[-1, 1, SPPF, [1024, 5]], # 9]# YOLOv5 v6.0 head head:[[-1, 1, Conv, [512, 1, 1]],[-1, 1, nn.Upsample, [None, 2, nearest]],[[-1, 6], 1, Concat, [1]], # cat backbone P4[-1, 3, C3, [512, False]], # 13[-1, 1, Conv, [256, 1, 1]],[-1, 1, nn.Upsample, [None, 2, nearest]],[[-1, 4], 1, Concat, [1]], # cat backbone P3[-1, 3, C3, [256, False]], # 17 (P3/8-small)[-1, 1, Conv, [256, 3, 2]],[[-1, 14], 1, Concat, [1]], # cat head P4[-1, 3, C3, [512, False]], # 20 (P4/16-medium)[-1, 1, Conv, [512, 3, 2]],[[-1, 10], 1, Concat, [1]], # cat head P5[-1, 3, C3, [1024, False]], # 23 (P5/32-large)[[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)] 启动训练 训练其实很简单就是要根据自己的实际电脑配置进行训练参数的调整。如果是常规训练参考以下参数就可以了参数weights和cfg选择一个配置就可以。 python ./train.py --data ./data/coco_bz.yaml --weights ./weights/yolov5s.pt --cfg ./models/yolov5s_bz.yaml --batch-size 48 --epochs 200 --workers 0 --name 754-200 --project yolo5_bz_spython ./train.py 是官方写好的训练搅拌文件 – data 指向数据整备的yaml文件 –weights 指向已经训练好的模型这个参数主要两个作用一个是基于模型结构训练另一个是训练大型模型异常终端可以接续训练 –cfg 指向模型配置文件 –batch-size 单次训练的的数据量大小理论是越大越好要根据实际电脑配置调整此处注意v5和v8这个参数同一台电脑也不同 –epochs 总过训练多少轮设置特别大没有太大意义代码在发现最后几次训练模型没有改进会自动停止 –workers 此项也是根据显卡性能调整如果不知道怎么设置可以直接设置成0系统会自动配置 –name 代表本次定义的名字默认会写exp重复训练会自动加上后缀 –project 代表本次工程名字默认会写runs 启动之后会显示以下内容如果是第一次训练系统会需要下载几个文件可能比较慢一个是文字格式文件一个是yolov5模型用来进行数据处理的。 root935f1467d228:/app/docs/yolov5_v7.0# python ./train.py --data ./data/coco_bz.yaml --cfg ./models/yolov5n_bz.yaml --batch-size 48 --epochs 200 --workers 0 --name 754-200 --project yolo5_bz_ntrain: weightsyolov5s.pt, cfg./models/yolov5n_bz.yaml, data./data/coco_bz.yaml, hypdata/hyps/hyp.scratch-low.yaml, epochs200, batch_size48, imgsz640, rectFalse, resumeFalse, nosaveFalse, novalFalse, noautoanchorFalse, noplotsFalse, evolveNone, bucket, cacheNone, image_weightsFalse, device, multi_scaleFalse, single_clsFalse, optimizerSGD, sync_bnFalse, workers0, projectyolo5_bz_n, name754-200, exist_okFalse, quadFalse, cos_lrFalse, label_smoothing0.0, patience100, freeze[0], save_period-1, seed0, local_rank-1, entityNone, upload_datasetFalse, bbox_interval-1, artifact_aliaslatest remote: Enumerating objects: 390, done. remote: Counting objects: 100% (273/273), done. remote: Compressing objects: 100% (96/96), done. remote: Total 390 (delta 204), reused 217 (delta 177), pack-reused 117 Receiving objects: 100% (390/390), 476.92 KiB | 599.00 KiB/s, done. Resolving deltas: 100% (261/261), completed with 88 local objects. From https://github.com/ultralytics/yolov5920c721e..8003649c master - origin/master* [new branch] refactor-20240717220233 - origin/refactor-20240717220233* [new branch] snyk-fix-19a9bd869ca677b68dcdaf5f4affcd24 - origin/snyk-fix-19a9bd869ca677b68dcdaf5f4affcd24* [new branch] snyk-fix-f5bfc0187c0599da5db2839fa7a5f8f5 - origin/snyk-fix-f5bfc0187c0599da5db2839fa7a5f8f5 github: ⚠️ YOLOv5 is out of date by 345 commits. Use git pull or git clone https://github.com/ultralytics/yolov5 to update. YOLOv5 v7.0-0-g915bbf29 Python-3.8.12 torch-1.12.0a02c916ef CUDA:0 (NVIDIA GeForce RTX 3060, 12022MiB)hyperparameters: lr00.01, lrf0.01, momentum0.937, weight_decay0.0005, warmup_epochs3.0, warmup_momentum0.8, warmup_bias_lr0.1, box0.05, cls0.5, cls_pw1.0, obj1.0, obj_pw1.0, iou_t0.2, anchor_t4.0, fl_gamma0.0, hsv_h0.015, hsv_s0.7, hsv_v0.4, degrees0.0, translate0.1, scale0.5, shear0.0, perspective0.0, flipud0.0, fliplr0.5, mosaic1.0, mixup0.0, copy_paste0.0 ClearML: run pip install clearml to automatically track, visualize and remotely train YOLOv5 in ClearML Comet: run pip install comet_ml to automatically track and visualize YOLOv5 runs in Comet TensorBoard: Start with tensorboard --logdir yolo5_bz_n, view at http://localhost:6006/from n params module arguments 0 -1 1 1760 models.common.Conv [3, 16, 6, 2, 2] 1 -1 1 4672 models.common.Conv [16, 32, 3, 2] 2 -1 1 4800 models.common.C3 [32, 32, 1] 3 -1 1 18560 models.common.Conv [32, 64, 3, 2] 4 -1 2 29184 models.common.C3 [64, 64, 2] 5 -1 1 73984 models.common.Conv [64, 128, 3, 2] 6 -1 3 156928 models.common.C3 [128, 128, 3] 7 -1 1 295424 models.common.Conv [128, 256, 3, 2] 8 -1 1 296448 models.common.C3 [256, 256, 1] 9 -1 1 164608 models.common.SPPF [256, 256, 5] 10 -1 1 33024 models.common.Conv [256, 128, 1, 1] 11 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, nearest] 12 [-1, 6] 1 0 models.common.Concat [1] 13 -1 1 90880 models.common.C3 [256, 128, 1, False] 14 -1 1 8320 models.common.Conv [128, 64, 1, 1] 15 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, nearest] 16 [-1, 4] 1 0 models.common.Concat [1] 17 -1 1 22912 models.common.C3 [128, 64, 1, False] 18 -1 1 36992 models.common.Conv [64, 64, 3, 2] 19 [-1, 14] 1 0 models.common.Concat [1] 20 -1 1 74496 models.common.C3 [128, 128, 1, False] 21 -1 1 147712 models.common.Conv [128, 128, 3, 2] 22 [-1, 10] 1 0 models.common.Concat [1] 23 -1 1 296448 models.common.C3 [256, 256, 1, False] 24 [17, 20, 23] 1 9471 models.yolo.Detect [2, [[10, 13, 16, 30, 33, 23], [30, 61, 62, 45, 59, 119], [116, 90, 156, 198, 373, 326]], [64, 128, 256]] YOLOv5n_bz summary: 214 layers, 1766623 parameters, 1766623 gradients, 4.2 GFLOPsTransferred 57/349 items from yolov5s.pt AMP: checks passed ✅ optimizer: SGD(lr0.01) with parameter groups 57 weight(decay0.0), 60 weight(decay0.000375), 60 bias train: Scanning /app/docs/yolov8/ultralytics/datasets/bz_754/labels/train... 754 images, 0 backgrounds, 0 corrupt: 100%|██████████| 754/754 00:00 train: New cache created: /app/docs/yolov8/ultralytics/datasets/bz_754/labels/train.cache val: Scanning /app/docs/yolov8/ultralytics/datasets/bz_754/labels/val... 200 images, 0 backgrounds, 0 corrupt: 100%|██████████| 200/200 00:00 val: New cache created: /app/docs/yolov8/ultralytics/datasets/bz_754/labels/val.cacheAutoAnchor: 5.75 anchors/target, 1.000 Best Possible Recall (BPR). Current anchors are a good fit to dataset ✅ Plotting labels to yolo5_bz_n/754-2002/labels.jpg... Image sizes 640 train, 640 val Using 0 dataloader workers Logging results to yolo5_bz_n/754-2002 Starting training for 200 epochs...Epoch GPU_mem box_loss obj_loss cls_loss Instances Size0/199 5.74G 0.1083 0.1563 0.02792 1076 640: 19%|█▉ | 3/16 00:08完成训练 完成训练后我们会获得以下目录其中weights中就有我们最优的模型和最后一次训练模型通常使用best其他参数信息我会在视频讲解中和大家说明。视频链接见博客顶部。 导出模型 执行以下指令就可以导出我们onnx的模型这里面 python export.py --weights weights/yolov5s.pt --include onnx --opset 11使用Netron就可以看到整体模型的内容Netron的安装地址 https://github.com/lutzroeder/netron
http://www.hkea.cn/news/14316753/

相关文章:

  • 广州网站建设好公司网站备案 修改
  • 徐州哪里做网站广州网络营销推广
  • 微网站建站php 网站共享变量
  • 软件毕设代做网站青海中小企业网站建设
  • 做素材类的网站赚钱吗做购物网站 需要手续
  • 学计算机网站开发好吗多用户商城网站开发
  • 网站运营优化推广html入门到精通
  • 北京 网站 优化网络平台建设怎么做
  • 仿制网站软件哈尔滨免费自助建站模板
  • 做非洲外贸的网站wordpress主主页只显示标题
  • 网站建设后压缩代码怎样查网站谁做的
  • 国内哪个网站用wordpress北京中国建设部网站首页
  • 湖南建设厅网站二建注销喀什市建设局网站查证件
  • 加强和改进校园网站内容建设大学生网页设计作业成品下载
  • 什么查网站是否降权网店美工分为几个级别
  • 做网站根据内容生成pdf语文建设 官方网站
  • 河北网站seowordpress首页404伪静态
  • 做网站用什么样的电脑网站名字怎样做版权
  • 百度这个网站怎么做自己怎么做视频网站
  • 贸易公司网站建设要多少钱wordpress 首页错误
  • 济南富新网站建设用织梦做视频网站
  • 深圳网站建设推广公司网页制作需要下载什么软件
  • 哪些网站做任务好赚钱的金华网站建设哪里好
  • 集团门户网站建设费用科目小程序商城推广
  • 电子商务html网站模板做视频网站公司要怎么做
  • html5网站开发教学手机商城网站方案
  • 手机开发网站工具网站首页大小
  • 婚恋网站要钱吗外贸网络营销该如何做
  • 南通影楼网站建设做外贸网站注意什么
  • 淮北网站三合一建设西安中高风险地区查询