当前位置: 首页 > news >正文

帮人做网站在徐州被敲诈五万南通seo网站排名优化

帮人做网站在徐州被敲诈五万,南通seo网站排名优化,wordpress 本地ajax,建设企业网站小微【#x1f34a;易编橙#xff1a;一个帮助编程小伙伴少走弯路的终身成长社群#x1f34a;】 大家好#xff0c;我是小森( #xfe61;ˆoˆ#xfe61; ) #xff01; 易编橙终身成长社群创始团队嘉宾#xff0c;橙似锦计划领衔成员、阿里云专家博主、腾讯云内容共创官… 【易编橙一个帮助编程小伙伴少走弯路的终身成长社群】 大家好我是小森( ˆoˆ ) 易编橙·终身成长社群创始团队嘉宾橙似锦计划领衔成员、阿里云专家博主、腾讯云内容共创官、CSDN人工智能领域优质创作者 。 池化层 (Pooling) 降低维度缩减模型大小提高计算速度. 即: 主要对卷积层学习到的特征图进行下采样SubSampling处理 。 通过下采样我们可以提取出特征图中最重要的特征同时忽略掉一些不重要的细节。上采样是指增加数据图像的尺寸通常用于图像的分割、超分辨率重建或生成模型中以便将特征图恢复到原始图像的尺寸或更大的尺寸。  池化层 池化包含最大池化和平均池化有一维池化二维池化三维池化在这里以二维池化为例 最大池化 最大池化就是求一个区域中的最大值来代替该区域。 torch.nn.MaxPool2d(kernel_size, strideNone, padding0, dilation1, return_indicesFalse, ceil_modeFalse) 假设输入的尺寸是(,,,)输出尺寸是(,,,)kernel_size是(,)可以写成下面形式  其中输入参数 kernel_sizestridepaddingdilation可以是 一个 int 代表长宽使用同样的参数两个int组成的元组第一个int用在H维度第二个int用在W维度 import torch import torch.nn as nn #长宽一致的池化,核尺寸为3x3池化步长为2 ml nnMaxPool2d(3, stride2) #长宽不一致的池化 m2 nn.MaxPool2d((3,2), stride(2,1)) input torch.randn(4,3,24,24) output1 m1( input) output2 m2( input) print( input.shape ,input.shape) print( output1.shape , output1.shape) print( output2.shape , output2.shape)输出 input.shape torch.size([432424]) output1.shape torch. size([431111]) output2.shape torch.size([431123])平均池化 平均池化就是用一个区域中的平均数来代替本区域 torch.nn.AvgPool2d(kernel_size, strideNone, padding0, ceil_modeFalse, count_include_padTrue, divisor_overrideNone) import torch import torch.nn as nn #长宽一致的池化,核尺寸为3x3池化步长为2 ml nn. AvgPool2d( 3, stride2) #长宽不一致的池化 m2 nn. AvgPool2d(( 3,2), stride(2,1) ) input torch.randn(4,3,24,24) output1 m1( input) output2 m2( input) print(input.shape ,input. shape) print(output1.shape , output1.shape) print( output2.shape , output2.shape)randn是生成形状为[batch_size, channels, height, width]  输出 input.shape torch.size([432424]) output1.shape torch.size([431111]) output2.shape torch.size([431123])BN层 BN即Batch Normalization是对每一个batch的数据进行归一化操作可以使得网络训练更稳定加速网络的收敛。 import torch import torch.nn as nn #批量归一化层具有可学习参数) m_learnable nn. BatchNorm2d(100) #批量归一化层(不具有可学习参数) m_non_learnable nn.BatchNorm2d(100,affineFalse) #随机生成输入数据 input torch.randn(20,100,35,45) #应用具有可学习参数的批量归一化层 output_learnable m_learnable(input) #应用不具有可学习参数的批量归一化层 output_non_learnable m_non_learnable(input) print( input.shape , input.shape) print( output_learnable.shape , output_learnable.shape) print( output_non_learnable.shape , output_non_learnable.shape)输出 input.shape torch.size([201003545]) output_learnable.shape torch.size( [20,100,35,45]) output_non_learnable.shape torch.size([20,100,35,45])常见的层就是上面提到的这些如果这些层结构被反复调用我们可以将其封装成一个个不同的模块。 案例复现LeNet LeNet结构使用PyTorch进行复现卷积核大小5x5最大池化层核大小2x2 import torch import torch.nn as nn from torchsummary import summary class LeNet( nn . Module):def _init_( self,num_classes10):super(Leet, self)._init__()self.conv1 nn.conv2d( in_channels3,out_channels6,kernel_size5)self.pool1 nn. MaxPool2d(kernel_size2)self.conv2 nn.Conv2d(in_channels6,out_channels16,kernel_size5)self.pool2 nn. MaxPool2d(kernel_size2)self.conv3 nn.conv2d(in_channels16,out_channels120, kernel_size5)self.fc1 nn.Linear(in_features120,out_features84)self.fc2 nn.Linear(in_features84,out_features10)def forward(self, x):#通过卷积层、ReLU和池化层x self.conv1(x)x self.pool1(x)x self.conv2(x)x self.pool2(x)x self.conv3(x)x x.view( -1120)x self.fc1(x)x self.fc2(x)return x #创建网络实例 num_classes 10 net LeNet( num_classes)#创建一个输入 batch_size 4 input_tensor torch.randn(batch_size,3,32,32) # 假设输入是32x32的RGB图像 #将输入Tensor传递给网络 output net(input_tensor) # #显示输出Tensor的形状 print(output.shape) summary(net,(3,32,32)) Sequential: 顺序容器 Sequential属于顺序容器。模块将按照在构造函数中传递的顺序从上到下进行运算。 使用OrderedDict可以进一步对传进来的层进行重命名。 #使用sequential来创建小模块当有输入进来会从上到下依次经过所有模块 model nn. Sequential( nn.conv2d(1,20,5),nn.ReLu() , nn.conv2d(20,64,5),nn.ReLU() ) #使用orderedDict可以对传进来的模块进行命名实现效果同上 from collections import orderedDict model nn. sequential ( orderedDict([( conv1 , nn.Conv2d( 1,20,5)),( relu1 , nn.ReLU( ) ),( conv2 , nn.conv2d(20,64,5)),( relu2 , nn.ReLU()) ]))除此之外还可以用 ModuleList和 ModuleDict 来存放子模块但是用的不多掌握了上面的内容就足够了。
http://www.hkea.cn/news/14445753/

相关文章:

  • 深圳做网站开发免费seo搜索优化
  • 网站制作的一般步骤做直播网站找哪个网站
  • 网站建设课程总结报告中国建设教育协会的官方网站
  • 手机网站例子营销型网站规划建设的七大要素
  • 网站开发时间进度表 开发费用一般的学校网站怎么做
  • 镇江地区做网站的公司站酷网素材图库海报设计
  • 深圳做网站可用乐云seo十年微信 公众号导入wordpress
  • 个人网站seo公司网站建设劳伦
  • 广州网站建设网站制作国外免费网站域名服务器
  • 百度索引量和网站排名大学生服装网站建设策划书
  • 网站loading什么意思网页制作简易代码
  • 做问卷调查有哪些网站分栏型网站
  • 网站封装成app可以做热更新关键词优化顾问
  • 帝国cms 仿站 wordpress昆明网站建设哪个公司好
  • 网络直播网站开发wordpress主题dux5.2
  • 滨海哪家专业做网站自己做网站可以吗
  • 长安微网站建设哈尔滨网络公司平台
  • 公司网站标题优化wordpress 应用
  • 网站建设排名优化公司深圳论坛网站建设
  • 网站建设公开课个体户忘了年报是否罚款
  • 网站建设主要哪些内容com域名的网站
  • 网站建设的安全应该注意什么新浦建设集团网站
  • 网站推广有哪些优势建站系统
  • 站优云seo优化绍兴网站建设报价
  • 网站建设分工明细表网站设计学习机构
  • 泰兴网站制作太原营销型网站建设制作
  • php开源建站系统珠海建网站的联系方式
  • 太原网站快速排名优化tv做后缀的动漫网站
  • 哪个行业必须做网站上海企业网站设计公司电话
  • 中国十大工业品采购平台北京seo排名外包