当前位置: 首页 > news >正文

聊城那里做网站net网站开发是什么

聊城那里做网站,net网站开发是什么,pac网站代理,来源门户网站源码目录 一、前期准备 1.1 标签数字化 1.2 加载数据 1.3 配置数据 二、其他 2.1 损失函数 categorical_crossentropy 2.2 plt.legend(loc ) 2.3 history.history 活动地址#xff1a;CSDN21天学习挑战赛 学习#xff1a;深度学习100例-卷积神经网络#xff08;CNN…目录 一、前期准备 1.1 标签数字化 1.2 加载数据 1.3 配置数据 二、其他 2.1 损失函数 categorical_crossentropy 2.2 plt.legend(loc ) 2.3 history.history 活动地址CSDN21天学习挑战赛 学习深度学习100例-卷积神经网络CNN识别验证码 | 第12天_K同学啊的博客-CSDN博客 一、前期准备 1.1 标签数字化 number [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] alphabet [a,b,c,d,e,f,g,h,i,j,k,l,m,n,o,p,q,r,s,t,u,v,w,x,y,z] char_set number alphabet char_set_len len(char_set) label_name_len len(all_label_names[0])# 将字符串数字化 def text2vec(text):vector np.zeros([label_name_len, char_set_len])for i, c in enumerate(text):idx char_set.index(c)vector[i][idx] 1.0return vectorall_labels [text2vec(i) for i in all_label_names]text 为 all_label_names 即标签名称的值假设标签是 677g3则一次输入进函数 text2vec6、7、7、g、3 enumerate(text) 返回了text的 索引和值 给 i 和 c idx 为在 char_set 里找到的 c的索引值所以新构建了一个全0 的二维数组行数为标签的长度列数为字符集合 char_set 的长度转化结果即为每i行的对应标签名称的第i个值对应的索引为1其余为0 1.2 加载数据 AUTOTUNE tf.data.experimental.AUTOTUNEpath_ds tf.data.Dataset.from_tensor_slices(all_image_paths) image_ds path_ds.map(load_and_preprocess_image, num_parallel_callsAUTOTUNE) label_ds tf.data.Dataset.from_tensor_slices(all_labels)image_label_ds tf.data.Dataset.zip((image_ds, label_ds)) image_label_dstf.data.Dataset.from_tensor_slices_方如一的博客-CSDN博客 与 prefetch使用类似Dataset.map() 也可以利用多 GPU 资源并行化地对数据项进行变换从而提高效率。以前节的 MNIST 数据集为例假设用于训练的计算机具有 2 核的 CPU我们希望充分利用多核心的优势对数据进行并行化变换比如 前节 的旋转 90 度函数 rot90 可以使用以下代码 如代码 1mnist_dataset mnist_dataset.map(map_funcrot90, num_parallel_calls2)参考TensorFlow 2.0 常用模块3tf.data 流水线加速_zk_one的博客-CSDN博客 1.3 配置数据 prefetch() 功能详细介绍:CPU正在准备数据时加速器处于空闲状态。相反当加速器正在训练模型时CPU处于空闲状态。因此训练所用的时间是CPU预处理时间和加速器训练时间的总和。prefetch() 将训练步骤的预处理和模型执行过程重叠到一起。当加速器正在执行第N个训练步时CPU正在准备第N1步的数据。这样做不仅可以最大限度地缩短训练的单步用时而不是总用时)而且可以缩短提取和转换数据所需的时间。如果不使用prefetch() , CPU和GPU/TPU在大部分时间都处于空闲状态: BATCH_SIZE 16train_ds train_ds.batch(BATCH_SIZE) train_ds train_ds.prefetch(buffer_sizeAUTOTUNE)val_ds val_ds.batch(BATCH_SIZE) val_ds val_ds.prefetch(buffer_sizeAUTOTUNE) val_ds二、其他 2.1 损失函数 categorical_crossentropy model.compile(optimizeradam,losscategorical_crossentropy,metrics[accuracy])根据公式我们可以发现因为yi,要么是0要么是1。而当yi等于0时结果就是0当且仅当yi等于1时才会有结果。也就是说categorical_crossentropy只专注与一个结果因而它一般配合softmax做单标签分类。 详情参考损失函数categorical_crossentropy_Stealers的博客-CSDN博客_categorical_crossentropy 2.2 plt.legend(loc ) plt.legend(loc )设置图例的位置 plt.plot()plt.scatter()plt.legend函数的用法介绍_Sunny.T的博客-CSDN博客_plt.legend plt.legend(loclower right) plt.legend(locupper right) 2.3 history.history plt.plot(history.history[accuracy]) plt.plot(history.history[val_accuracy]) history历史查看命令可用来绘制训练过程中的损失和准确率
http://www.hkea.cn/news/14299758/

相关文章:

  • 外链网站 风险网站开发宣传图片
  • 静安做网站导航栏宽度wordpress
  • 权威的合肥网站推广成品网站和模板建站
  • 怎么给一个网站做搜索功能网站建设和推广大概需要多少费用
  • 谷歌seo 外贸建站柚子网站建设
  • 王欣网站建设与维护深圳网站设计哪里好
  • 凡科网站产品导航怎么做app商城系统
  • 网站主流系统友链出售
  • 励志网站源码卫计网站建设工作总结
  • 如何自己做软件网站中国小康建设网官方网站
  • 海南建设工程股份有限公司网站网站建设无广告
  • 如何做网页网站搬瓦工的主机做网站
  • 深圳商业网站建设淘客网站怎么做啊
  • 国外最大的素材网站建设网站的费用怎么做账
  • 做个人网站到哪里做十大放黄不登录不收费
  • 专门做稀有产品的网站微信小程序是什么意思?有什么用
  • 胶南市场建设服务中心网站用子域名安装wordpress
  • 网站开发的实验心德门户手机版网站
  • 高端网站建设的市场时间轴 网站模板
  • 网站建设工作室07fly深圳网站制作公司嘉兴
  • 天津seo霸屏佛山关键词优化服务
  • 像聚美网站建设费用专门做视频的网站
  • 做公司网站多少钱北京的建筑公司有哪些
  • 摄影摄像网站建设莱芜金点子传媒电子版
  • 搭建本地网站环境网络公司网站报价方案
  • 电子商务网站建设渠道凡客建站网站下载
  • 池州网站建设电话手机网站怎样建设
  • 网站做等级测评长春移动网站建设
  • 想做个网站报价蔬菜价格怎么做如何解析域名
  • 网站建设培训视频教程手机网站建设方案书