当前位置: 首页 > news >正文

个旧建设局信息公开门户网站外国人做网站

个旧建设局信息公开门户网站,外国人做网站,建筑类企业网站模板,科技创新小发明文章目录 一、关于 xFormers二、安装 xFormers三、基准测试#xff08;可选#xff09;测试安装 四、使用 xFormers1、Transformers 关键概念2、Repo 地图注意力机制Feed forward mechanismsPositional embeddingResidual pathsInitializations 3、主要特征4、安装故障排除 一… 文章目录 一、关于 xFormers二、安装 xFormers三、基准测试可选测试安装 四、使用 xFormers1、Transformers 关键概念2、Repo 地图注意力机制Feed forward mechanismsPositional embeddingResidual pathsInitializations 3、主要特征4、安装故障排除 一、关于 xFormers xFormers是一个基于PyTorch的库托管灵活的 Transformers 部件。 它们是可互操作和优化的构建块可以选择性地组合以创建一些最先进的模型。 github : https://github.com/facebookresearch/xformers官网https://facebookresearch.github.io/xformers/ xFormers 是 Customizable building blocks独立/可定制的构建块无需样板代码即可使用。这些组件与领域无关xFormers 被视觉、NLP 等领域的研究人员使用。研究第一xFormers 包含前沿组件这些组件在 PyTorch 等主流库中尚不可用。构建时考虑到效率由于迭代速度很重要因此组件尽可能快且内存高效。 xFormers 包含自己的 CUDA 内核但会在相关时分派到其他库。 二、安装 xFormers 推荐linux使用 conda 安装最新的稳定版需要使用conda 安装 PyTorch 2.3.0 conda install xformers -c xformers推荐linux 和 win使用 pip 安装最新稳定版本需要PyTorch 2.3.0 # cuda 11.8 version pip3 install -U xformers --index-url https://download.pytorch.org/whl/cu118 # cuda 12.1 version pip3 install -U xformers --index-url https://download.pytorch.org/whl/cu121开发二进制文件 # Use either conda or pip, same requirements as for the stable version above conda install xformers -c xformers/label/dev pip install --pre -U xformers从源安装例如如果您想与 PyTorch 的其他版本一起使用包括夜间版本 # (Optional) Makes the build much faster pip install ninja # Set TORCH_CUDA_ARCH_LIST if running and building on different GPU types pip install -v -U githttps://github.com/facebookresearch/xformers.gitmain#eggxformers # (this can take dozens of minutes)三、基准测试 内存高效的 MHA 设置F16 上的 A100测量前向后向传递的总时间 请注意这是精确的注意力而不是近似值只需调用xformers.ops.memory_efficient_attention 更多基准测试 xFormers 提供了许多组件并且BENCHMARKS.md中提供了更多基准测试。 可选测试安装 此命令将提供有关 xFormers 安装的信息以及构建/可用的内核 python -m xformers.info四、使用 xFormers 1、Transformers 关键概念 让我们从 Transformer 架构的经典概述开始来自 Lin 等人的“A Survey of Transformers”的插图 您将在此图中找到关键的 repository 边界Transformer 通常由注意力机制、用于编码某些位置信息的嵌入、前馈块和残差路径通常称为前层或后层的集合组成。规范。这些边界并不适用于所有模型但我们在实践中发现如果进行一些调整它可以捕获大部分最先进的技术。 因此模型不是在整体文件中实现的而整体文件的处理和修改通常很复杂。上图中出现的大多数概念都对应于抽象级别并且当给定子块存在变体时应该始终可以选择其中的任何一个。您可以关注给定的封装级别并根据需要对其进行修改。 2、Repo 地图 ├── ops # Functional operators└ ... ├── components # Parts zoo, any of which can be used directly │ ├── attention │ │ └ ... # all the supported attentions │ ├── feedforward # │ │ └ ... # all the supported feedforwards │ ├── positional_embedding # │ │ └ ... # all the supported positional embeddings │ ├── activations.py # │ └── multi_head_dispatch.py # (optional) multihead wrap | ├── benchmarks │ └ ... # A lot of benchmarks that you can use to test some parts └── triton└ ... # (optional) all the triton parts, requires triton CUDA gpu注意力机制 Scaled dot product Attention is all you need, Vaswani et al., 2017 Sparse whenever a sparse enough mask is passed BlockSparse courtesy of Triton Linformer Linformer, self-attention with linear complexity, Wang et al., 2020 Nystrom Nyströmformer: A Nyström-Based Algorithm for Approximating Self-Attention, Xiong et al., 2021 Local. Notably used in (and many others) Longformer: The Long-Document Transformer, Beltagy et al., 2020BigBird, Transformer for longer sequences, Zaheer et al., 2020 Favor/Performer Rethinking Attention with Performers, Choromanski et al., 2020 Orthoformer Keeping Your Eye on the Ball: Trajectory Attention in Video Transformers, Patrick et al., 2021 Random See BigBird, Longformers,… Global See BigBird, Longformers,… FourierMix FNet: Mixing Tokens with Fourier Transforms, Lee-Thorp et al. CompositionalAttention Compositional Attention: Disentangling search and retrieval, S. Mittal et al. 2D Pooling Metaformer is actually what you need for vision, Yu et al. Visual Attention Visual Attention Network_, Guo et al … add a new one see Contribution.md Feed forward mechanisms MLPFusedMixture of ExpertsConv2DFeedforward Positional embedding SineVocabularyRotarySimplicial Residual paths PrePostDeepNorm Initializations 这是完全可选的并且仅在通过 xFormers 生成完整模型时才会发生而不是在单独挑选零件时发生。 基本上公开了两种初始化机制但用户可以在事后根据他/她认为合适的情况自由初始化权重。 部件可以公开一个init_weights()方法该方法定义合理的默认值xFormers 支持特定的 init 方案该方案可以优先于 init_weights() 如果使用第二个代码路径通过模型工厂构造模型我们会检查所有权重是否已初始化如果不是这种情况则可能会出错如果您设置了xformers.factory.weight_init.__assert_if_not_initialized True 支持的初始化方案有 Small initTimm defaultsViT defaultsMoco v3 defaults 指定 init 方案的一种方法是将字段 config.weight_init 设置为匹配的枚举值。这可以很容易地扩展请随时提交 PR 3、主要特征 许多注意力机制可互换优化的构建块超越 PyTorch 原语 内存高效的精确注意力 - 速度提高 10 倍注意力稀疏块稀疏注意力融合softmax融合线性层融合层范数融合丢失激活x偏差融合SwiGLU 基准测试和测试工具 微观基准变压器块基准LRA具有 SLURM 支持 程序化和扫描友好的层和模型构建 与分层 Transformer 兼容例如 Swin 或 Metaformer 可破解 不使用整体 CUDA 内核、可组合构建块使用Triton进行一些优化的部分显式的、Pythonic 的和用户可访问的对 SquaredReLU 的本机支持在 ReLU、LeakyReLU、GeLU 之上、可扩展激活 4、安装故障排除 NVCC 和当前 CUDA 运行时匹配。根据您的设置您也许可以使用 来更改 CUDA 运行时module unload cuda; module load cuda/xx.x也可能nvcc您使用的 GCC 版本与当前 NVCC 功能匹配env变量TORCH_CUDA_ARCH_LIST设置为您想要支持的体系结构。建议的设置构建缓慢但全面是export TORCH_CUDA_ARCH_LIST6.0;6.1;6.2;7.0;7.2;7.5;8.0;8.6如果从源 OOM 构建则可以减少 ninja 的并行性MAX_JOBS例如MAX_JOBS2如果您UnsatisfiableError在使用 conda 安装时遇到问题请确保您的 conda 环境中安装了 PyTorch并且您的设置PyTorch 版本、cuda 版本、python 版本、操作系统与xFormers 的现有二进制文件匹配 2024-05-14二
http://www.hkea.cn/news/14496356/

相关文章:

  • 南京站建设企业网站开发中文摘要
  • 陕西建站公司wordpress个人收款
  • 天水市建设局网站吊篮管理通知网站排名监控工具
  • 商城网站离不开支付系统苏州营销型网站建设
  • 山东天成水利建设 网站做会计要关注什么网站
  • wordpress全站腾讯云cdn网站参考页面设计
  • 怎么做网站的软文推广网站建设分金手指排名二七
  • python怎么开发网站wordpress 攻击
  • 建设监理杂志网站视频直播开发平台
  • 网站中英文切换代码网站搜索引擎
  • 网站设计需要什么软件支付宝小程序代理
  • 淮安网站建设价位个人网页设计理念
  • 中山手机网站设计网址推广
  • 东光网站制作做网站费用 会计分录
  • 摄影网站策划书做网站的合同
  • 中国婚恋网站排名网络营销方式举例
  • 在家做私房菜的网站郑州做网站哪家专业
  • 建设安全员协会网站抖音怎么挂小程序赚钱
  • 网站推荐2021辽宁省精神文明建设工作三大创建活动网站
  • 中国建设招标网 官方网站下载贵阳招聘网站建设
  • 销售网站模板十大酒店管理系统
  • 网站建设百度推广在线生成电子印章
  • 温州 网站开发管理系统平台
  • 淘宝网站基础建设 托管家具网站asp
  • 江苏赛孚建设工程有限公司网站手机软件开发
  • 网站商城支付接口怎么创造游戏软件
  • 高端网站建设公司服务好吗网站开发合同及报价
  • wordpress登陆口win7优化大师好不好
  • 电影网站建设需求分析应用软件是什么
  • 顺义区快速建站做搜索引擎的网站有哪些