当前位置: 首页 > news >正文

布吉做网站的公司本地网站建设电话

布吉做网站的公司,本地网站建设电话,一个人做网站用什么技术,seo排行榜nn.XXX与F.XXX PyTorch中torch.nn**#xff08;以下简写为nn#xff09;中的模块和torch.nn.functional#xff08;以下简写为F#xff09;**中的模块都提供了常用的神经网络操作#xff0c;包括激活函数、损失函数、池化操作等。它们的主要区别如下#xff1a; nn中的…nn.XXX与F.XXX PyTorch中torch.nn**以下简写为nn中的模块和torch.nn.functional以下简写为F**中的模块都提供了常用的神经网络操作包括激活函数、损失函数、池化操作等。它们的主要区别如下 nn中的模块是以类形式存在的F中的模块是以函数形式存在的nn中的模块是nn.Module的子类包含可学习参数、可导在反向传播中可以计算梯度可以在模型中作为子模块使用F中的模块是纯函数没有与之相关联的可学习参数虽然也可以用于反向传播但是其梯度需要手动计算nn中的模块需要实例化后将张量作为实例的调用参数F中的模块直接传递张量作为参数nn中的模块可以管理和访问模块的内部参数和状态F中的函数是纯函数没有与之相关联的参数或状态因此无法直接管理和访问函数的内部状态 nn.Relu与F.relu() 以激活函数ReLu为例在使用激活函数时有以下两种方式可以使用 # 方法一 nn.ReLU() # 方法二 F.relu(input)这两种方法都是使用ReLu激活但使用的场景不一样。 nn.ReLU是一个类必须实例化后才能使用一般在定义网络层的时候使用 # nn.ReLU的常用方法 nn.Sequential(nn.Conv2d(in_channels, out_channels),nn.ReLU(inplaceTrue))F.relu()是函数调用一般使用在foreward()函数中 nn.ReLU只能处理Variable类型的张量而F.relu()可以处理Tensor和Variable类型的张量 nn.ReLU需要额外占用内存用来存储中间结果而F.relu()则是直接在原张量上进行操作不需要额外的内存占用 另外 当用print()打印输出神经网络时会输出nn.ReLU()层而F.relu()是没有输出的
http://www.hkea.cn/news/14443668/

相关文章:

  • 做红酒闪购的网站有哪些小程序免费制作平台登录
  • 上合建设网站企业品牌网站建设k小蝌蚪
  • 设计网页公司哪里好seo大牛
  • 什么事网站建设wordpress密码忘记了
  • 在哪注册网站丽江市企业网站
  • 常州的网站建设北京学会网站建设
  • 众筹网站搭建软件工程学科评估排名
  • 长沙传媒公司招聘深圳网站优化软件
  • 做网站教程流程哈尔滨网站推广
  • 酒店做网站企业解决方案平台
  • 网站架构方案苏州做网站优化的
  • 兰州网站排名推广迅捷在线图片编辑
  • wordpress snape莱芜网站优化有哪些
  • ftp如何备份网站手机网站开发环境
  • 校园网站首页模板wordpress图片在哪
  • 大学网站建设招标方案美橙互联网站建设进不去
  • 长沙营销型网站中公教育培训机构官网
  • 网站建设佛山网址短链接在线生成免费
  • 丹阳市住房建设管理局网站徐州低价seo
  • 外贸自主建站平台有什么网站用名字做图片
  • 网站备案期间临时网页做外语网站的公司
  • 手机网站与微信结合湖南长沙公司注册
  • 天津网站经营性备案购物网站开发的管理可行性
  • 网站设计师证书中国建设报社门户网站
  • 查询网站到期时间一台vps两个wordpress网站
  • 安吉网站制作wordpress超链接插件
  • 担路网做网站多少钱网站建设要什么
  • wordpress主题emlog北京seo公司排名
  • 丽水网站建设报价专业网站定制报价
  • 学校网站建设栏目有哪些wordpress python采集器