当前位置: 首页 > news >正文

高淳网站建设别人用我公司权限做网站

高淳网站建设,别人用我公司权限做网站,在线ps图,网站返回首页怎么做的好看从read_split_data中得到#xff1a;训练数据集#xff0c;验证数据集#xff0c;训练标签#xff0c;验证标签。的所有的具体详细路径 数据集位置#xff1a;https://download.csdn.net/download/guoguozgw/87437634 import os #一种轻量级的数据交换格式#xff0c; …从read_split_data中得到训练数据集验证数据集训练标签验证标签。的所有的具体详细路径 数据集位置https://download.csdn.net/download/guoguozgw/87437634 import os #一种轻量级的数据交换格式 import json #文件读/写操作 import pickle import random import matplotlib.pyplot as plt def read_split_data(root:str,val_rate:float 0.2):random.seed(0)#保证随机结果可重复出现assert os.path.exists(root),dataset root:{} does not exist..format(root)#遍历文件夹一个文件夹对应一个类别flower_class [cla for cla in os.listdir(root) if os.path.isdir(os.path.join(root,cla))]#排序保证顺序一致flower_class.sort()#生成类别名称以及对应的数字索引,将数据转换为字典的类型。将标签分好类之后其类别是key对应的唯一值是valueclass_indices dict((k,v) for v,k in enumerate(flower_class))#将数据编写成json文件json_str json.dumps(class_indices,indent4)with open(json_str,w) as json_file:json_file.write(json_str)train_images_path [] #存储训练集的所有图片路径train_images_label [] #存储训练集所有图片的标签val_images_path [] #存储验证机所有图片的路径val_images_label [] #存储验证机所有图片的标签every_class_num [] #存储每个类别的样本总数supported [.jpg, .JPG, .png, .PNG] # 支持的文件后缀类型#遍历每一个文件夹下的文件for cla in flower_class:cla_path os.path.join(root,cla)#遍历获取supported支持的所有文件路径,得到所有图片的路径地址。针对的是某一个类别。images [os.path.join(root,cla,i) for i in os.listdir(cla_path) if os.path.splitext(i)[-1] in supported]#获取该类别对应的索引,此时对应就是数字了。对应的只是一个数字image_class class_indices[cla]#记录该类别的样本数量every_class_num.append(len(images))#按比例随机采样验证样本按照0.2的比例来作为测试集。val_path random.sample(images,kint(len(images)*val_rate))for img_path in images:#如果该路径在采样的验证集样本中则存入验证集。否则的话存入到训练集当中。其中label和image是相互对应的。if img_path in val_path:val_images_path.append(img_path)val_images_label.append(image_class)else:train_images_path.append(img_path)train_images_label.append(image_class)print(该数据集一共有{}多张图片。.format(sum(every_class_num)))print(一共有{}张图片是训练集.format(len(train_images_path)))print(一共有{}张图片是验证集.format(len(val_images_path)))#输出每一个类别对应的图片个数for i in every_class_num:print(i)plot_image Falseif plot_image:#绘制每一种类别个数柱状图plt.bar(range(len(flower_class)),every_class_num,aligncenter)#将横坐标01234替换成相应类别的名称plt.xticks(range(len(flower_class)),flower_class)#在柱状图上添加数值标签for i,v in enumerate(every_class_num):plt.text(xi,yv5,sstr(v),hacenter)#设置x坐标plt.xlabel(image class)plt.ylabel(number of images)#plt.title(flower class distribution)plt.show()return train_images_path,train_images_label,val_images_path,val_images_label if __name__ __main__:root ../11Flowers_Predict/flower_photosread_split_data(root)最后得到的数据信息分别如此代码中的路径需要进行更换替换为自己的路径。 从写Dataset类 from PIL import Image import torch from torch.utils.data import Datasetclass MyDataSet(Dataset):自定义数据集def __init__(self,images_path:list,images_classes:list,transform None):super(MyDataSet, self).__init__()self.images_path images_pathself.images_classes images_classesself.transform transformdef __len__(self):return len(self.images_path)def __getitem__(self, item):img Image.open(self.images_path[item])#RGB为彩色图片L为灰度图片if img.mode ! RGB:#直接在这里终止程序的运行raise ValueError(image {} is not RGB mode..format(self.images_path[item]))label self.images_classes[item]if self.transform is not None:img self.transform(img)return img , label 对数据集的预处理部分 import os import torch from torchvision import transforms from utils import read_split_data from my_dataset import MyDataSet #数据集所在的位置 root ../11Flowers_Predict/flower_photos def main():device torch.device(cuda if torch.cuda.is_available() else cpu)print(using {} device..format(device))#接下来这一行是对数据的读取train_images_path,train_images_label,val_images_path,val_images_label read_split_data(root)#设置transform,compose立main必须是列表data_transform {train: transforms.Compose([transforms.RandomResizedCrop(224),transforms.RandomHorizontalFlip(),transforms.ToTensor(),transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])]),val: transforms.Compose([transforms.Resize(256),transforms.CenterCrop(224),transforms.ToTensor(),transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])}train_data_set MyDataSet(images_pathtrain_images_path,images_classestrain_images_label,transformdata_transform[train])val_data_set MyDataSet(images_pathval_images_path,images_classesval_images_label,transformdata_transform[val])batch_size 32#number of workers#nw min([os.cpu_count() , batch_size if batch_size1 else 0,8])#print(Using {} dataloader workers.format(nw))train_loader torch.utils.data.DataLoader(train_data_set,batch_sizebatch_size,shuffleTrue,num_workers 0)val_loader torch.utils.data.DataLoader(val_data_set,batch_sizebatch_size,shuffleTrue,num_workers 0)for step,data in enumerate(train_loader):images,labels data#print(images.shape)#print(labels)#print(labels.shape)return train_loader,val_loader if __name__ __main__:main()开始对数据集进行训练 import torch from torch import nn import torchvision from torchvision import transforms,models from tqdm import tqdm from main import * import time HP {epochs:25,batch_size:32,learning_rate:1e-3,momentum:0.9,test_size:0.05,seed:1 }#创建一个残差网络34层结果使用预训练参数 model models.resnet34(pretrainedTrue) model.fc torch.nn.Sequential(torch.nn.Dropout(0.1),torch.nn.Linear(model.fc.in_features,5) ) device cuda if torch.cuda.is_available() else cpu if device cuda:torch.backends.cudnn.benchmark True print(fusing {device} device) #将模型添加到gpu当中 model model.to(device)#分类问题使用交叉熵函数损失 criterion torch.nn.CrossEntropyLoss() #优化器使用SGD随机梯度下降法 optimizer torch.optim.SGD(model.parameters(),lrHP[learning_rate],momentumHP[momentum])train_loader,val_loader main()def train(model,criterion,optimizer,train_loader,val_loader):#设置总的训练损失和验证损失以及训练准确度和验证准确度。total_train_loss 0total_val_loss 0total_train_accracy 0total_val_accracy 0model.train()#设置为训练模式loop tqdm(enumerate(train_loader),totallen(train_loader))loop.set_description(ftraining)for step,data in loop:images,labels data#将数据添加到GPU当中images images.to(device)labels labels.to(device)output model(images)#单个损失loss criterion(output,labels)#计算准确率accracy (output.argmax(1)labels).sum()#将所有的损失进行相加total_train_loss loss.item()#将所有正确的全部相加起来total_train_accracy accracy#开始进行层数更新optimizer.zero_grad()loss.backward()optimizer.step()model.eval()loop_val tqdm(enumerate(val_loader),totallen(val_loader))loop_val.set_description(fvaluing)for step,data in loop_val:images,labels dataimages images.to(device)labels labels.to(device)output model(images)loss criterion(output,labels)accracy_val (output.argmax(1)labels).sum()total_val_loss loss.item()total_val_accracy accracy_valtrain_acc total_train_accracy/(2939)val_acc total_val_accracy/(731)train_loss total_train_loss/(2939)val_loss total_val_loss/(731)print(f训练集损失率: {train_loss:.4f} 训练集准确率: {train_acc:.4f})print(f验证集损失率: {val_loss:.4f} 验证集准确率: {val_acc:.4f})if __name__ __main__:time_start time.time()for i in range(HP[epochs]):print(fEpoch {i1}/{HP[epochs]})train(model, criterion, optimizer, train_loader, val_loader)time_end time.time()print(time_end-time_start)json_str {daisy: 0,dandelion: 1,roses: 2,sunflowers: 3,tulips: 4 }训练结束之后可以得出来训练出来的结果。 总结部分 一针对全部是目录且目录里面是已经分好类的数据集且数据没有分成训练集和测试集 1函数参数设置为路径划分的概率 2设置一定的随机结果 3判断该路径是否存在使用assert 4根据传过来的root来判断当前路径下所有的文件夹如果是文件夹将其写入到列表当中 5同时这个列表也是所有的类别将该列表进行排序 6使用enumerate来使其成为字典其中key对应的是分类value对应的是数值 7可以选择使用json可以将其写入到文件当中 8创建训练集图片路径训练集标签路径验证集图片路径验证集标签路径每个类别的数目都是列表形式 9开始对文件进行遍历然后将其存放到上面的集合当中 10以根据类别以及root使用join将其连接起来。根据类别来进行循环然后进行拼接 11接这这个类别循环的时候使用随机数来将其划分验证数据集和训练数据集 二如果数据已经分好训练集和测试集的情况下如果存在csv的文件情况下可以使用pandas来进行数据处理 shuffle函数是sklearn utils里面的类 对csv文件读取主要使用到的是pandas库 1对读取到的csv文件可以首先使用head查看前几个数据 2使用sklearn里面的shuffle方法来进行打乱顺序 3使用pandas里面的factorize对标签进行数据化显示把复杂计算分解为基本运算其返回值为元祖 4使用unique返回的是列表将标签封装成列表 5再将其相互对应封装为字典key是类别value是数字 6使用sklearn中的train_test_split方法来对数据集进行划分传入参数为DataFrame,比例 7使用value_count来对标签进行计数 对DataSet的重写 1主要是实现其中的三个方法initgetitemlen 2init主要是接受参数路径类别以及transforms在这里一定要吧image处理到对应的每一张图片的身上 3返回的是image格式的图片以及一个标签数字 部分测试代码 # import osdef main(root:int,images_class: list,transform None):print(root:,root)print(int:, int)print(images_class:, images_class)print(list:, list)def read_split_data(root:str,val_rate:float 0.2):print(root:, root)print(str:, str)print(val_rate:, val_rate)print(float:, float)root ../11Flowers_Predict/flower_photos #遍历文件夹os.listdir是展示当前所在层的所有文件 os.isdir判断当前这个文件是否属于文件夹 os.path.join()将两个字符串进行连接中间用/ os.path.splittext()返回的是一个元祖flowers_classes [cla for cla in os.listdir(root) if os.path.isdir(os.path.join(root,cla))] print(flowers_classes) flowers_classes_copy flowers_classes.copy() flowers_classes.sort() print(os.path.isdir(../11Flowers_Predict/flower_photos)) print(os.path.join(root,roses)) print(flowers_classes) class_ind dict((k, v) for v, k in enumerate(flowers_classes)) for v,k in enumerate(flowers_classes):print(此时标号{},对应的类别是{}..format(v,k)) for v,k in class_ind.items():print(v,k) import json json_str json.dumps(class_ind,indent2) print(json_str) with open(json_str,w) as json_file:json_file.write(json_str)AA os.path.splitext(123.jpg) print(type(os.path.splitext(123.jpg))) supported [.jpg, .JPG, .png, .PNG] # 支持的文件后缀类型 print(AA[-1] in supported) list [1,2,3,4] #main(root,list) for cla in flowers_classes:image_class class_ind[cla]print(image_class) import matplotlib.pyplot as plt every_class_num [633,898,641,699,799] plt.bar(flowers_classes,every_class_num,aligncenter) # 这个东西就是用来替换的 #plt.xticks(range(len(flowers_classes)),[10,11,12,13,14]) for i,v in enumerate(every_class_num):plt.text(xi,yv,sstr(v)) plt.show()
http://www.hkea.cn/news/14455177/

相关文章:

  • 广州 网站开发 骏域wordpress 开启评论
  • 怎么开通网站域名到期了网站会打不开吗
  • shopify网站建设那些网站做任务领q币
  • 西安建设工程交易中心网站wordpress二开前端
  • 网站关键词优化教程seo工程师是做什么的
  • 做网站怎么去找客户网站构建规划书
  • php网站后台开发教程杭州网站建设制作联系电话
  • 黄石市下陆区建设管理局网站wordpress 用iis建站
  • 丰县住房和城乡建设局网站西安网站设设
  • 烟台网站设计公司无锡网站制作哪家强
  • 检测WordPress网站的安全性淘宝美工做倒计时图片网站
  • 大连优化网站课程百度收录推广
  • 软件网站开发市场前景湘潭做网站公司
  • wordpress搭建企业网站企业宣传片的制作流程
  • ps工具设计网站沧州礼品行业网站设计
  • 网站建设与管理课程设计sem技术培训
  • 网站建设的展望 视频四位一体网站开发
  • 北京壹零零壹网站建设南通做网站价格
  • 在哪里能建免费的网站房产网排名
  • 山西建设执业注册中心网站远程医疗型网站开发
  • 出口网站制作网站建设佰首选金手指二八
  • weekly做网站怎样说服客户做网站
  • 响应式网站模板免费新干县城乡建设局网站
  • 机械做卖产品网站购物商城网站建设
  • 资阳公司网站建设西安企业招聘
  • 网站如何做搜索引擎优化洮南住建局网站
  • 华大基因 网站建设公司做的网站在百度找不到了
  • 沈阳建站经验seo优化案例
  • 宁波百度做网站的公司哪家好提高工作效率8个方法
  • 做网站生意买螃蟹wordpress nginx安装