当前位置: 首页 > news >正文

沧州做网站的大公司个人餐饮网站模板

沧州做网站的大公司,个人餐饮网站模板,wordpress 防采集插件,网站的基本组成部分有哪些上篇文章#xff0c;我们理解了我们程序的神经网络设计#xff0c;这篇我们继续#xff0c;把训练迭代过程分析一下#xff0c;完成这两篇文章#xff0c;下面问题#xff0c;应该能回答了。 一张图片#xff0c;如何被计算机读懂#xff1f;pytorch 封装的网络#…上篇文章我们理解了我们程序的神经网络设计这篇我们继续把训练迭代过程分析一下完成这两篇文章下面问题应该能回答了。 一张图片如何被计算机读懂pytorch 封装的网络什么是卷积层为什么要多层层与层如何衔接如何设计什么是池化为什么要池化什么是全链接层它有什么作用神经网络模型的前向传播这个步骤的作用是什么什么梯度下降梯度下降的价值什么是激活函数为什么要用激活函数 一、上篇完成网络设计后神经网络如何训练自优化的 回到程序【如需解读请参阅从0到1AI我来了- 2解读程序-从AI手写数字识别开始】 for epoch in range(num_epochs): running_loss 0.0 correct 0 total 0 for images, labels in train_loader: optimizer.zero_grad() outputs model(images) loss criterion(outputs, labels) loss.backward() optimizer.step() running_loss loss.item() _, predicted torch.max(outputs.data, 1) total labels.size(0) correct (predicted labels).sum().item() avg_loss running_loss / len(train_loader) accuracy 100 * correct / total # 记录到 TensorBoard writer.add_scalar(Loss/train, avg_loss, epoch) writer.add_scalar(Accuracy/train, accuracy, epoch) # 记录到列表 loss_values.append(avg_loss) accuracy_values.append(accuracy) print(fEpoch [{epoch1}/{num_epochs}], Loss: {avg_loss:.4f}, Accuracy: {accuracy:.2f}%) writer.close() 这里做了10次训练每次迭代训练会经过 forward(前向传播--》计算损失 --》backward(反向传播) --》更新权重 forward 前篇提到了定义网络模型时有个函数forword。 forward通常是指一个模型的前向传播过程它的主要作用是计算输入数据通过网络时的输出即这里的输入数据图片到输出数字概率的过程。 outputs model(images)   程序中这句代码实际就是会调用SimpleCNN 的forward的方法输入是图片输出的是概率结果。 计算损失Loss criterion nn.CrossEntropyLoss() ... loss criterion(outputs, labels) torch.nn模块提供了多种常用的损失函数这些损失函数可以用于不同类型的机器学习任务。附录一有一些主要的损失函数这里是个多分类问题所以nn.CrossEntropyLoss 可以满足我们要求。 那CrossEntropyLoss 是如何计算损失的 CrossEntropyLoss 结合了 softmax 函数和负对数似然损失Negative Log Likelihood Loss 大白话就是模型会跑出一些结果比如[1.0,2.0,7.0]这里表示7.0的可能性最大CrossEntropyLoss 会先把这些分数转化为概率即把这些值变为0~1之间的值且和为1。[1.0,2.0,7.0] 转化为[0.1,0.2,0.7]。 backward 反向传播 loss.backward() 非常关键的一行代码简单理解就是为了追求更小的损失自动优化模型参数不断迭代。 原理尝试解读一下网上找了个图解释一下 损失函数L(w),随机指定权重偏置bias随机标量)比如图中的W0哪个点为了让损失更小找到波谷需要对w求导即寻找W0点的切线。 如果切线斜率为负如下图w越大Loss越小说明应该增加w的值也就是会自动根据学习率更新w的值。 如果切线斜率为正w越大Loss 越大说明梯度应该减少w的值。 更新权重 optimizer.step() 在计算出梯度后我们需要根据这些梯度更新模型的参数。这里使用的优化器optimizer将会在调用 optimizer.step() 时生成参数的更新。 optimizer.step()  会更新哪些参数 在调用 optimizer.step() 时所有在优化器中注册的参数即 model.parameters() 返回的那些都会被更新。 参数类型包括哪些 在深度学习模型中这些可学习的参数通常包括全连接层nn.Linear的权重和偏置、卷积层nn.Conv2d的权重和偏置、以及其他层的参数。 综上那7个问题应该能基本解答出来了不往底层算法钻的话能理解就行了。 下篇我们我们来实践一个本地智能知识库把常见的Agent、RAG向量数据库分析分析。 附录 一、分类任务 交叉熵损失 (Cross Entropy Loss): torch.nn.CrossEntropyLoss用于多类分类问题torch.nn.BCEWithLogitsLoss用于二分类问题的 logits未经过 sigmoid和目标相结合的二元交叉熵损失。 负对数似然损失 (Negative Log Likelihood Loss): torch.nn.NLLLoss配合在 LogSoftmax 后使用适用于多类分类。 KL 散度损失 (KL Divergence Loss): torch.nn.KLDivLoss用于衡量两个概率分布之间的差异。 回归任务 均方误差损失 (Mean Squared Error Loss): torch.nn.MSELoss适用于回归问题计算预测值和目标值之间的均方差。 平均绝对误差损失 (Mean Absolute Error Loss): torch.nn.L1Loss计算预测值和目标值之间的平均绝对差。 Huber 损失: torch.nn.HuberLoss结合了均方误差和平均绝对误差的特点对于目标值较大时更为稳健。 其他损失函数 对比损失 (Contrastive Loss): 自定义损失一般用于 Siamese 网络。 Triplet Loss: 自定义损失适用于需保持距离的学习如人脸识别。 Focal Loss: 自定义损失用于处理类别不平衡问题。
http://www.hkea.cn/news/14401591/

相关文章:

  • 重庆网站建设外包链天网站建设
  • 搜狐快站绑定未备案的网站域名吗苏州市住房和城乡建设局网站首页
  • 企业网站优化多少钱天元建设集团有限公司承兑
  • 信阳做网站公司汉狮价格杭州尚层别墅装饰公司
  • 外贸网站推广平台排名前十名深圳广告公司排行
  • 贸易公司做网站有优势吗太原市住房和城乡建设局的网站首页
  • 手表网站上没有价格网站不公开简历做家教
  • 手机网站免费模板下载烟台网站关键词推广
  • 网站建设时间安排表网站建设实训体会
  • 网站建设语言什么语言网站集成微信登录
  • 网站改手机版wordpress 栏目页
  • 更改网站备案负责人wordpress鼠标指针插件
  • 特效视频素材网站网站建设028
  • 三亚凤凰镇网站建设兼职招聘网还有河北城乡和住房建设厅网站吗
  • 网站服务器租用哪家好小公司如何做网站
  • 我男同同性做视频网站怎么做电商生意
  • 网站建设翻译成英文旅行社网站建设策划书
  • 那个网站可以做ppt赚钱济源网站建设哪家好
  • 网站开发的具体流程图河北网站建设收益
  • vue 做的网站怎么样在网站上做跳转
  • 有关网站设计与制作的论文汕头人口
  • 做网站设计学那个专业好名人朋友圈网页版qq登录入口
  • 求网站建设详细过程网站的开发方法有哪些
  • 做标签网站刷单学生个人网页制作成品
  • seo如何分析一个网站建站网址什么意思
  • 网站建设搞笑广告词简单网页设计作品欣赏
  • 做网站是怎样赚钱网站建设报价比较
  • 网站开通宣传怎么写wordpress 主题 xiu
  • dedecms部署两个网站共享会议室租赁平台
  • 网站建设费预付定金什么科目企业网站建站之星