当前位置: 首页 > news >正文

福建设计招标网站企业网站建设课程设计

福建设计招标网站,企业网站建设课程设计,天津设计院排名,雅布设计师nn.XXX与F.XXX PyTorch中torch.nn**#xff08;以下简写为nn#xff09;中的模块和torch.nn.functional#xff08;以下简写为F#xff09;**中的模块都提供了常用的神经网络操作#xff0c;包括激活函数、损失函数、池化操作等。它们的主要区别如下#xff1a; nn中的…nn.XXX与F.XXX PyTorch中torch.nn**以下简写为nn中的模块和torch.nn.functional以下简写为F**中的模块都提供了常用的神经网络操作包括激活函数、损失函数、池化操作等。它们的主要区别如下 nn中的模块是以类形式存在的F中的模块是以函数形式存在的nn中的模块是nn.Module的子类包含可学习参数、可导在反向传播中可以计算梯度可以在模型中作为子模块使用F中的模块是纯函数没有与之相关联的可学习参数虽然也可以用于反向传播但是其梯度需要手动计算nn中的模块需要实例化后将张量作为实例的调用参数F中的模块直接传递张量作为参数nn中的模块可以管理和访问模块的内部参数和状态F中的函数是纯函数没有与之相关联的参数或状态因此无法直接管理和访问函数的内部状态 nn.Relu与F.relu() 以激活函数ReLu为例在使用激活函数时有以下两种方式可以使用 # 方法一 nn.ReLU() # 方法二 F.relu(input)这两种方法都是使用ReLu激活但使用的场景不一样。 nn.ReLU是一个类必须实例化后才能使用一般在定义网络层的时候使用 # nn.ReLU的常用方法 nn.Sequential(nn.Conv2d(in_channels, out_channels),nn.ReLU(inplaceTrue))F.relu()是函数调用一般使用在foreward()函数中 nn.ReLU只能处理Variable类型的张量而F.relu()可以处理Tensor和Variable类型的张量 nn.ReLU需要额外占用内存用来存储中间结果而F.relu()则是直接在原张量上进行操作不需要额外的内存占用 另外 当用print()打印输出神经网络时会输出nn.ReLU()层而F.relu()是没有输出的
http://www.hkea.cn/news/14449233/

相关文章:

  • 网页设计网站结构图怎么弄梵克雅宝中文官网
  • 如何做网站meta设置个性logo设计北京vi设计公司
  • 设计网站如何推广我要注册账号
  • 网站能为智慧城市建设作出什么贡献自己模板做网站
  • 网站基础内容lnmp wordpress gengxin
  • 专业做网站登录多少钱一个
  • 网站建设方案标书雪锐琴网站建设
  • 广西智能网站建设平台网络系统的主要设备有
  • 杭州企业网站搭建wordpress php 7 速度优化
  • 献县网站建设磁力宝
  • 铜陵做网站的公司制作网页比较方便的软件
  • 北京网站建设亿玛酷出名5上海网站建设制
  • 网站上做地图手机上显示数商云电子商务网站建设
  • 网站备案多个域名企业网站的主要类型有
  • 官方网站如何建立最好的app制作网站
  • 网站运营商查询WordPress前端分离
  • 网站不会更新文章老王传奇新开网站
  • 广州网站建设推广公司有哪些wordpress 段代码
  • 宁波p2p网站建设网站源码安装
  • 企业网站视频栏目建设方案广州做包包的网站
  • 网站建设灰色关键词怎样做电商网站好视频教学
  • 网站基础开发成本领域网站建设
  • 企业标准网上备案网站台式机做网站服务器
  • ps做网站连接营销策划方案纲要
  • 建设网站的目的饮食类网店都有哪些平台
  • 电商网站怎么做搜索搜索软件
  • 国际贸易英文网站微信公众号平台开发文档
  • 专业图库网站 西安泗阳网站建设公司
  • 如何线上推广自己产品公司优化网站的案例
  • 类似源码之家的网站wordpress页面属性模板怎么添加