当前位置: 首页 > news >正文

网站seo推广优化一家做公司点评的网站

网站seo推广优化,一家做公司点评的网站,区块链开发平台有哪些,免费网站建设那个好论文链接#xff1a;https://arxiv.org/abs/1807.06521 论文题目#xff1a;CBAM: Convolutional Block Attention Module 会议#xff1a;ECCV2018 论文方法 利用特征的通道间关系生成了一个通道注意图。 由于特征映射的每个通道被认为是一个特征检测器#xff0c;通道…论文链接https://arxiv.org/abs/1807.06521 论文题目CBAM: Convolutional Block Attention Module 会议ECCV2018 论文方法 利用特征的通道间关系生成了一个通道注意图。 由于特征映射的每个通道被认为是一个特征检测器通道注意力集中在给定输入图像的“什么”是有意义的。 为了有效地计算通道注意力我们压缩了输入特征映射的空间维度。 对于空间信息的聚合目前普遍采用平均池化方法。 除了之前的工作我们认为最大池化收集了另一个关于不同对象特征的重要线索以推断更精细的通道明智的注意力。 因此作者同时使用平均池化和最大池化特征。 利用特征的空间间关系生成空间注意图。 与通道注意不同的是空间注意关注的“在哪里”是信息部分与通道注意是互补的。 为了计算空间注意力首先沿着通道轴应用平均池化和最大池化操作并将它们连接起来以生成有效的特征描述符。 沿着通道轴应用池操作可以有效地突出显示信息区域。 在连接的特征描述符上应用卷积层生成空间注意映射Ms(F)∈RH×W该映射编码强调或抑制的位置。 论文源代码 import torch import torch.nn.functional as F import torch.nn as nnclass ChannelAttention(nn.Module):def __init__(self, in_channels, ratio16):super(ChannelAttention, self).__init__()self.avg_pool nn.AdaptiveAvgPool2d(1)self.max_pool nn.AdaptiveMaxPool2d(1)self.fc nn.Sequential(nn.Conv2d(in_channels, in_channels // ratio, 1, biasFalse),nn.ReLU(inplaceTrue),nn.Conv2d(in_channels // ratio, in_channels, 1, biasFalse)) self.sigmoid nn.Sigmoid()def forward(self, x):avg_out self.fc(self.avg_pool(x))max_out self.fc(self.max_pool(x))out avg_out max_outout self.sigmoid(out)return out * xclass SpatialAttention(nn.Module):def __init__(self, kernel_size7):super(SpatialAttention, self).__init__()assert kernel_size in (3, 7), kernel size must be 3 or 7padding 3 if kernel_size 7 else 1self.conv1 nn.Conv2d(2, 1, kernel_size, paddingpadding, biasFalse)self.sigmoid nn.Sigmoid()def forward(self, x):avg_out torch.mean(x, dim1, keepdimTrue)max_out, _ torch.max(x, dim1, keepdimTrue)out torch.cat([avg_out, max_out], dim1)out self.sigmoid(self.conv1(out))return out * xclass CBAM(nn.Module):def __init__(self, in_channels, ratio16, kernel_size3):super(CBAM, self).__init__()self.channelattention ChannelAttention(in_channels, ratioratio)self.spatialattention SpatialAttention(kernel_sizekernel_size)def forward(self, x):x self.channelattention(x)x self.spatialattention(x)return x改进思路 1.通道注意力独立分支与批归一化 使用独立的FC层处理平均池化和最大池化增强表达能力。 在FC层之间加入批归一化加速训练收敛。 class ChannelAttention(nn.Module):def __init__(self, in_channels, ratio16):super().__init__()self.avg_pool nn.AdaptiveAvgPool2d(1)self.max_pool nn.AdaptiveMaxPool2d(1)# 独立的全连接层分支self.fc_avg nn.Sequential(nn.Conv2d(in_channels, in_channels//ratio, 1, biasFalse),nn.BatchNorm2d(in_channels//ratio), # 添加BNnn.ReLU(inplaceTrue),nn.Conv2d(in_channels//ratio, in_channels, 1, biasFalse),nn.BatchNorm2d(in_channels) # 输出层也可以考虑BN)self.fc_max nn.Sequential(nn.Conv2d(in_channels, in_channels//ratio, 1, biasFalse),nn.BatchNorm2d(in_channels//ratio),nn.ReLU(inplaceTrue),nn.Conv2d(in_channels//ratio, in_channels, 1, biasFalse),nn.BatchNorm2d(in_channels))self.sigmoid nn.Sigmoid()def forward(self, x):avg_out self.fc_avg(self.avg_pool(x))max_out self.fc_max(self.max_pool(x))out self.sigmoid(avg_out max_out)return x * out 2.空间注意力深度增强 使用多层卷积增加非线性。 引入残差连接提升梯度流动。 class SpatialAttention(nn.Module):def __init__(self, kernel_size7):super().__init__()padding kernel_size // 2self.conv nn.Sequential(nn.Conv2d(2, 32, kernel_size, paddingpadding, biasFalse),nn.BatchNorm2d(32),nn.ReLU(inplaceTrue),nn.Conv2d(32, 1, kernel_size, paddingpadding, biasFalse), # 深层卷积nn.BatchNorm2d(1))self.sigmoid nn.Sigmoid()def forward(self, x):avg_out torch.mean(x, dim1, keepdimTrue)max_out, _ torch.max(x, dim1, keepdimTrue)cat torch.cat([avg_out, max_out], dim1)out self.conv(cat) cat.mean(dim1, keepdimTrue) # 残差连接return x * self.sigmoid(out) 3.动态比例调整、参数初始化优化、并行注意力融合 import torch import torch.nn as nn import torch.nn.functional as F# -------------------------- # 改进3动态比例调整 # -------------------------- def get_ratio(in_channels, min_ratio16):动态计算压缩比例防止通道数过小时出现除零错误return max(in_channels // min_ratio, 4) # 保证最小分割比例为4# -------------------------- # 改进4参数初始化优化 # -------------------------- def init_weights(m):He初始化 零偏置初始化if isinstance(m, nn.Conv2d):nn.init.kaiming_normal_(m.weight, modefan_out, nonlinearityrelu)if m.bias is not None:nn.init.constant_(m.bias, 0)elif isinstance(m, nn.BatchNorm2d):nn.init.constant_(m.weight, 1)nn.init.constant_(m.bias, 0)# -------------------------- # 改进1/3通道注意力包含动态比例调整 # -------------------------- class ChannelAttention(nn.Module):def __init__(self, in_channels):super().__init__()ratio get_ratio(in_channels) # 动态计算ratioself.avg_pool nn.AdaptiveAvgPool2d(1)self.max_pool nn.AdaptiveMaxPool2d(1)self.fc nn.Sequential(nn.Conv2d(in_channels, ratio, 1, biasFalse),nn.BatchNorm2d(ratio),nn.ReLU(),nn.Conv2d(ratio, in_channels, 1, biasFalse),nn.BatchNorm2d(in_channels))self.sigmoid nn.Sigmoid()self.apply(init_weights) # 应用参数初始化def forward(self, x):avg_out self.fc(self.avg_pool(x))max_out self.fc(self.max_pool(x))weight self.sigmoid(avg_out max_out)return x * weight# -------------------------- # 改进1空间注意力 # -------------------------- class SpatialAttention(nn.Module):def __init__(self, kernel_size7):super().__init__()padding kernel_size // 2self.conv nn.Sequential(nn.Conv2d(2, 32, kernel_size, paddingpadding, biasFalse),nn.BatchNorm2d(32),nn.ReLU(),nn.Conv2d(32, 1, kernel_size, paddingpadding, biasFalse),nn.BatchNorm2d(1))self.sigmoid nn.Sigmoid()self.apply(init_weights) # 应用参数初始化def forward(self, x):avg_out torch.mean(x, dim1, keepdimTrue)max_out, _ torch.max(x, dim1, keepdimTrue)cat torch.cat([avg_out, max_out], dim1)weight self.sigmoid(self.conv(cat))return x * weight# -------------------------- # 改进5并行注意力融合 # -------------------------- class CBAM(nn.Module):def __init__(self, in_channels, kernel_size7):super().__init__()self.ca ChannelAttention(in_channels)self.sa SpatialAttention(kernel_size)self.apply(init_weights) # 整个模块应用初始化def forward(self, x):# 并行计算通道注意力和空间注意力ca_out self.ca(x) # 通道注意力分支sa_out self.sa(x) # 空间注意力分支# 残差连接融合 (原始特征 通道特征 空间特征)return x ca_out sa_out
http://www.hkea.cn/news/14336660/

相关文章:

  • 台州外贸网站网站建设与架构男友实验
  • 织梦网站源码好吗陕西建设集团韩城公司网站
  • 北京网站空间建设网站的网页设计
  • 广东手机网站开发多少常州谷歌推广
  • 领导交给你一个网站你该怎么做网络营销软件价格
  • 做机械设备销售的那个网站好家具设计理念
  • 连锁加盟网站制作快速微信网站建设
  • 城乡建设部网站ps做的网站首页
  • 自己的做网站自建网站平台有哪些功能
  • 免费源码资源站做一个微信小程序游戏需要多少钱
  • 怀安网站制作怎嘛做网站
  • 网站建设博采wordpress文章迁移
  • 个人如果做网站赚钱wordpress重写登录页面
  • 洛阳做网站的有网站建wap
  • 校园官方网站建设给公司建网站需要多少钱
  • 网页设计网站多少钱网站相对路径 .
  • 杨浦网站建设公司长沙做网站湖南微联讯点不错
  • nat123做网站 查封杭州学编程哪里的培训机构好
  • 响应式网站的几种尺寸wordpress单点sso
  • 一般产地证去哪个网站做郑州房产信息网查询系统
  • 万能引流软件衡阳做网站优化
  • 教育网站 网页赏析企业免费网站设计公司
  • 网站站内交换链接怎么做新手怎么搭建网站
  • 网站开发 产品经理wordpress 归档页面地址
  • 怎么做锅炉网站网站做优化有必要吗
  • 百度文库怎么做网站排名西安企业资本服务中心有限公司
  • 福清建设局网站中国经济网
  • 网站怎么做外链接地址西安搬家公司收费
  • 建设网站对公司起什么作用有那种网站么
  • 最新互联网项目平台网站婚庆租车