当前位置: 首页 > news >正文

盐城企业做网站推广公司经营范围

盐城企业做网站,推广公司经营范围,如何做网络营销推广唯选一 诺,wordpress自动同步插件上篇文章#xff0c;我们理解了我们程序的神经网络设计#xff0c;这篇我们继续#xff0c;把训练迭代过程分析一下#xff0c;完成这两篇文章#xff0c;下面问题#xff0c;应该能回答了。 一张图片#xff0c;如何被计算机读懂#xff1f;pytorch 封装的网络#…上篇文章我们理解了我们程序的神经网络设计这篇我们继续把训练迭代过程分析一下完成这两篇文章下面问题应该能回答了。 一张图片如何被计算机读懂pytorch 封装的网络什么是卷积层为什么要多层层与层如何衔接如何设计什么是池化为什么要池化什么是全链接层它有什么作用神经网络模型的前向传播这个步骤的作用是什么什么梯度下降梯度下降的价值什么是激活函数为什么要用激活函数 一、上篇完成网络设计后神经网络如何训练自优化的 回到程序【如需解读请参阅从0到1AI我来了- 2解读程序-从AI手写数字识别开始】 for epoch in range(num_epochs): running_loss 0.0 correct 0 total 0 for images, labels in train_loader: optimizer.zero_grad() outputs model(images) loss criterion(outputs, labels) loss.backward() optimizer.step() running_loss loss.item() _, predicted torch.max(outputs.data, 1) total labels.size(0) correct (predicted labels).sum().item() avg_loss running_loss / len(train_loader) accuracy 100 * correct / total # 记录到 TensorBoard writer.add_scalar(Loss/train, avg_loss, epoch) writer.add_scalar(Accuracy/train, accuracy, epoch) # 记录到列表 loss_values.append(avg_loss) accuracy_values.append(accuracy) print(fEpoch [{epoch1}/{num_epochs}], Loss: {avg_loss:.4f}, Accuracy: {accuracy:.2f}%) writer.close() 这里做了10次训练每次迭代训练会经过 forward(前向传播--》计算损失 --》backward(反向传播) --》更新权重 forward 前篇提到了定义网络模型时有个函数forword。 forward通常是指一个模型的前向传播过程它的主要作用是计算输入数据通过网络时的输出即这里的输入数据图片到输出数字概率的过程。 outputs model(images)   程序中这句代码实际就是会调用SimpleCNN 的forward的方法输入是图片输出的是概率结果。 计算损失Loss criterion nn.CrossEntropyLoss() ... loss criterion(outputs, labels) torch.nn模块提供了多种常用的损失函数这些损失函数可以用于不同类型的机器学习任务。附录一有一些主要的损失函数这里是个多分类问题所以nn.CrossEntropyLoss 可以满足我们要求。 那CrossEntropyLoss 是如何计算损失的 CrossEntropyLoss 结合了 softmax 函数和负对数似然损失Negative Log Likelihood Loss 大白话就是模型会跑出一些结果比如[1.0,2.0,7.0]这里表示7.0的可能性最大CrossEntropyLoss 会先把这些分数转化为概率即把这些值变为0~1之间的值且和为1。[1.0,2.0,7.0] 转化为[0.1,0.2,0.7]。 backward 反向传播 loss.backward() 非常关键的一行代码简单理解就是为了追求更小的损失自动优化模型参数不断迭代。 原理尝试解读一下网上找了个图解释一下 损失函数L(w),随机指定权重偏置bias随机标量)比如图中的W0哪个点为了让损失更小找到波谷需要对w求导即寻找W0点的切线。 如果切线斜率为负如下图w越大Loss越小说明应该增加w的值也就是会自动根据学习率更新w的值。 如果切线斜率为正w越大Loss 越大说明梯度应该减少w的值。 更新权重 optimizer.step() 在计算出梯度后我们需要根据这些梯度更新模型的参数。这里使用的优化器optimizer将会在调用 optimizer.step() 时生成参数的更新。 optimizer.step()  会更新哪些参数 在调用 optimizer.step() 时所有在优化器中注册的参数即 model.parameters() 返回的那些都会被更新。 参数类型包括哪些 在深度学习模型中这些可学习的参数通常包括全连接层nn.Linear的权重和偏置、卷积层nn.Conv2d的权重和偏置、以及其他层的参数。 综上那7个问题应该能基本解答出来了不往底层算法钻的话能理解就行了。 下篇我们我们来实践一个本地智能知识库把常见的Agent、RAG向量数据库分析分析。 附录 一、分类任务 交叉熵损失 (Cross Entropy Loss): torch.nn.CrossEntropyLoss用于多类分类问题torch.nn.BCEWithLogitsLoss用于二分类问题的 logits未经过 sigmoid和目标相结合的二元交叉熵损失。 负对数似然损失 (Negative Log Likelihood Loss): torch.nn.NLLLoss配合在 LogSoftmax 后使用适用于多类分类。 KL 散度损失 (KL Divergence Loss): torch.nn.KLDivLoss用于衡量两个概率分布之间的差异。 回归任务 均方误差损失 (Mean Squared Error Loss): torch.nn.MSELoss适用于回归问题计算预测值和目标值之间的均方差。 平均绝对误差损失 (Mean Absolute Error Loss): torch.nn.L1Loss计算预测值和目标值之间的平均绝对差。 Huber 损失: torch.nn.HuberLoss结合了均方误差和平均绝对误差的特点对于目标值较大时更为稳健。 其他损失函数 对比损失 (Contrastive Loss): 自定义损失一般用于 Siamese 网络。 Triplet Loss: 自定义损失适用于需保持距离的学习如人脸识别。 Focal Loss: 自定义损失用于处理类别不平衡问题。
http://www.hkea.cn/news/14580533/

相关文章:

  • 无忧网站建设价格网络文化经营许可证在哪里办
  • 网站设置成黑白建设工程合同的内容有哪些
  • 泰安网站建设排行东莞网站建设功能
  • html网站的上传招商加盟代运营公司
  • 郑州加盟网站建设阿里云域名注册查询
  • 上海外贸soho网站建设百度地图网页版在线使用
  • 建设个人网站多少钱黄岛做网站哪家好
  • 如何做h5 网站google 谷歌
  • 网站源码生成网站建设详细流
  • 株洲企业网站建设免费企业网站制作
  • 开发一个企业网站需要多少钱中国移动在线营销服务中心
  • 备案网站资料上传教程青阳做网站
  • 中山市城市建设档案馆网站公司建站文案给网站公司看的
  • 云营销网站建设电话咨询大创网
  • 网站外包如何报价宜昌网站seo
  • 六盘水网站设计做go富集的网站
  • 网站开发岗位群合肥网站制作公司
  • 建一个网站的手机电脑绿茶直播
  • 外贸 网站 模板国外做电商网站有哪些
  • 古镇网站建设公司2020网络游戏排行榜
  • 江西省建设厅网站微信公众号人工服务电话
  • 网站建设费用首选网络广州seo推荐
  • 织梦装修设计网站模板青海高端网站建设价格
  • 做片头网站什么网站做的最好
  • 青海企业网站建设公司dokan wordpress
  • 学网站建设哪里好炫酷的国外网站
  • dw个人网站模板下载手机建站程序免费下载
  • 做电子商务网站的公司林州网站建设
  • flash 做网站教程四川省建筑施工企业安全员考试
  • 网站建设叁金手指花总8大前端Wordpress图片主题top