当前位置: 首页 > news >正文

这么开网站制作网站的方法有哪些

这么开网站,制作网站的方法有哪些,广州越秀发布,网络游戏电脑一、论文信息 标题: Fast Vision Transformers with HiLo AttentionGitHub链接: https://github.com/ziplab/LITv2论文链接: arXiv 二、创新点 HiLo注意力机制: 本文提出了一种新的自注意力机制——HiLo注意力#xff0c;旨在同时捕捉图像中的高频和低频特征。该机制通过将…一、论文信息 标题: Fast Vision Transformers with HiLo AttentionGitHub链接: https://github.com/ziplab/LITv2论文链接: arXiv 二、创新点 HiLo注意力机制: 本文提出了一种新的自注意力机制——HiLo注意力旨在同时捕捉图像中的高频和低频特征。该机制通过将自注意力分为两个分支分别处理高频Hi-Fi和低频Lo-Fi信息从而提高计算效率和模型性能[1][5][16]。 LITv2模型: 基于HiLo注意力机制LITv2模型在多个计算机视觉任务上表现优越尤其是在处理高分辨率图像时显著提升了速度和准确性[1][5][16]。 相对位置编码优化: 采用3×3的深度卷积层替代传统的固定相对位置编码进一步加快了密集预测任务的训练和推理速度[1][5][16]。 三、方法 整体架构: LITv2模型分为多个阶段生成金字塔特征图适用于密集预测任务。模型通过局部窗口自注意力捕捉细节同时使用全局自注意力处理低频信息确保性能与效率的平衡[1][5][16]。 特征处理: 输入图像被切分为固定大小的图像块patch每个patch通过线性变换映射到高维特征空间。HiLo注意力机制在每个Transformer模块中使用标准的残差连接和LayerNorm层以稳定训练并保持特征传递[1][5][16]。 四、效果 性能提升: LITv2在标准基准测试中表现优于大多数现有的视觉Transformer模型尤其在处理高分辨率图像时HiLo机制在CPU上比传统的局部窗口注意力机制快1.6倍比空间缩减注意力机制快1.4倍[1][5][16]。 计算效率: 通过将注意力机制分为高频和低频LITv2能够有效减少计算量同时保持或提升模型的准确性和速度[1][5][16]。 五、实验结果 基准测试: 论文中通过实际平台的速度评估展示了LITv2在GPU和CPU上的优越性能。实验结果表明HiLo注意力机制在多个视觉任务中均表现出色尤其是在图像分类和物体检测任务中[1][5][16]。 FLOPs与吞吐量: 研究表明HiLo机制在FLOPs、吞吐量和内存消耗方面均优于现有的注意力机制证明了其在实际应用中的有效性[1][5][16]。 六、总结 Fast Vision Transformers with HiLo Attention通过引入HiLo注意力机制成功地将高频和低频信息的处理分开显著提升了视觉Transformer的性能和效率。LITv2模型在多个计算机视觉任务中表现优异展示了其在实际应用中的潜力。该研究为未来的视觉模型设计提供了新的思路尤其是在处理高分辨率图像时的计算效率和准确性方面[1][5][16]。 七、代码 import os import torch import torch.nn as nn from timm.models.layers import DropPath, to_2tuple, trunc_normal_ import mathclass HiLo(nn.Module):HiLo AttentionLink: https://arxiv.org/abs/2205.13213def __init__(self, dim, num_heads8, qkv_biasFalse, qk_scaleNone, attn_drop0., proj_drop0., window_size2,alpha0.5):super().__init__()assert dim % num_heads 0, fdim {dim} should be divided by num_heads {num_heads}.head_dim int(dim / num_heads)self.dim dim# self-attention heads in Lo-Fiself.l_heads int(num_heads * alpha)# token dimension in Lo-Fiself.l_dim self.l_heads * head_dim# self-attention heads in Hi-Fiself.h_heads num_heads - self.l_heads# token dimension in Hi-Fiself.h_dim self.h_heads * head_dim# local window size. The s in our paper.self.ws window_sizeif self.ws 1:# ws 1 is equal to a standard multi-head self-attentionself.h_heads 0self.h_dim 0self.l_heads num_headsself.l_dim dimself.scale qk_scale or head_dim ** -0.5# Low frequence attention (Lo-Fi)if self.l_heads 0:if self.ws ! 1:self.sr nn.AvgPool2d(kernel_sizewindow_size, stridewindow_size)self.l_q nn.Linear(self.dim, self.l_dim, biasqkv_bias)self.l_kv nn.Linear(self.dim, self.l_dim * 2, biasqkv_bias)self.l_proj nn.Linear(self.l_dim, self.l_dim)# High frequence attention (Hi-Fi)if self.h_heads 0:self.h_qkv nn.Linear(self.dim, self.h_dim * 3, biasqkv_bias)self.h_proj nn.Linear(self.h_dim, self.h_dim)def hifi(self, x):B, H, W, C x.shapeh_group, w_group H // self.ws, W // self.wstotal_groups h_group * w_groupx x.reshape(B, h_group, self.ws, w_group, self.ws, C).transpose(2, 3)qkv self.h_qkv(x).reshape(B, total_groups, -1, 3, self.h_heads, self.h_dim // self.h_heads).permute(3, 0, 1,4, 2, 5)q, k, v qkv[0], qkv[1], qkv[2] # B, hw, n_head, ws*ws, head_dimattn (q k.transpose(-2, -1)) * self.scale # B, hw, n_head, ws*ws, ws*wsattn attn.softmax(dim-1)attn (attn v).transpose(2, 3).reshape(B, h_group, w_group, self.ws, self.ws, self.h_dim)x attn.transpose(2, 3).reshape(B, h_group * self.ws, w_group * self.ws, self.h_dim)x self.h_proj(x)return xdef lofi(self, x):B, H, W, C x.shapeq self.l_q(x).reshape(B, H * W, self.l_heads, self.l_dim // self.l_heads).permute(0, 2, 1, 3)if self.ws 1:x_ x.permute(0, 3, 1, 2)x_ self.sr(x_).reshape(B, C, -1).permute(0, 2, 1)kv self.l_kv(x_).reshape(B, -1, 2, self.l_heads, self.l_dim // self.l_heads).permute(2, 0, 3, 1, 4)else:kv self.l_kv(x).reshape(B, -1, 2, self.l_heads, self.l_dim // self.l_heads).permute(2, 0, 3, 1, 4)k, v kv[0], kv[1]attn (q k.transpose(-2, -1)) * self.scaleattn attn.softmax(dim-1)x (attn v).transpose(1, 2).reshape(B, H, W, self.l_dim)x self.l_proj(x)return xdef forward(self, x):B, N, C x.shapeH W int(N ** 0.5)x x.reshape(B, H, W, C)if self.h_heads 0:x self.lofi(x)return x.reshape(B, N, C)if self.l_heads 0:x self.hifi(x)return x.reshape(B, N, C)hifi_out self.hifi(x)lofi_out self.lofi(x)x torch.cat((hifi_out, lofi_out), dim-1)x x.reshape(B, N, C)return xdef flops(self, N):H int(N ** 0.5)# when the height and width cannot be divided by ws, we pad the feature map in the same way as Swin Transformer for object detection/segmentationHp Wp self.ws * math.ceil(H / self.ws)Np Hp * Wp# For Hi-Fi# qkvhifi_flops Np * self.dim * self.h_dim * 3nW Np / self.ws / self.wswindow_len self.ws * self.ws# q k and attn vwindow_flops window_len * window_len * self.h_dim * 2hifi_flops nW * window_flops# projectionhifi_flops Np * self.h_dim * self.h_dim# for Lo-Fi# qlofi_flops Np * self.dim * self.l_dim# H int(Np ** 0.5)kv_len (Hp // self.ws) ** 2# k, vlofi_flops kv_len * self.dim * self.l_dim * 2# q k and attn vlofi_flops Np * self.l_dim * kv_len * 2# projectionlofi_flops Np * self.l_dim * self.l_dimreturn hifi_flops lofi_flopsif __name__ __main__:dim256# 如果GPU可用将模块移动到 GPUdevice torch.device(cuda if torch.cuda.is_available() else cpu)# 输入张量 (batch_size, height, width,channels)x torch.randn(1,40*40,dim).to(device)# 初始化 HWD 模块block HiLo(dim)print(block)block block.to(device)# 前向传播output block(x)print(输入:, x.shape)print(输出:, output.shape)输出结果:
http://www.hkea.cn/news/14423027/

相关文章:

  • wordpress小说网站怎么免费永久创建网站无广告
  • 楚雄市城乡建设局网站网站备案需要拍照
  • 云服务器网站建设郴州有什么好玩的地方
  • 深圳市建设工程造价站官网开网站做销售
  • 坂田杨美企业网站建设横琴网站建设
  • 为网站开发uwp应用wordpress标签样式表
  • 什么设计网站好医疗机械网站怎么做
  • 浙江广厦建设职业技术学院网站网站开发建
  • 城乡建设网站xp怎么做网站
  • 腾讯广告建站工具哪个网站做马代路线好
  • 页面设计模板简约百度推广关键词优化
  • 凯里专注网站建设报价做网站图片多大
  • 自己如何做外贸公司网站做网站是自己公司做好还是外包好
  • 如何用博客网站做cpa品牌营销策划案例ppt
  • 做网站好的书各大网站rss订阅源地址
  • 智能建站网站做网站建设很赚钱吗
  • 网站建设方案维护潍坊百度搜索优化
  • 慈溪网站制作哪家最便宜专业的上海网站建设公司哪家好
  • 哈尔滨专业做网站公司wordpress 微信登录插件下载
  • 网站建设管理员工工资多少网站的做
  • 手机网站 微信链接宁波网站制作价格
  • 网站内容栏由什么构成微信做单网站有哪些
  • 万网网站流量深圳怎么制作公司网页
  • 个人网站域名名字wordpress 高亮代码
  • 易读网站建设晋江哪里可以学建设网站
  • 有哪个网站是成都中科大旗做的商城网站开发报价方案
  • 新乡哪里有做网站的沈阳网站建设选网龙
  • 个人 网站备案 幕布手机壳图案设计网站
  • 工伤做实的那个网站网站建设定制网站建设公司
  • 网站直播是未开票收入怎么做推广方法英文