当前位置: 首页 > news >正文

vr全景网站怎么做建网站如何添加会员模式

vr全景网站怎么做,建网站如何添加会员模式,千库网登录入口,昆山网站建设培训目录​​​​​​​ 一、引言 二、单机多卡推理之device_map 2.1 概述 2.2 自动配置#xff0c;如device_mapauto 2.3 手动配置#xff0c;如device_mapcuda:1 三、总结 一、引言 这里的Transformers指的是huggingface开发的大模型库#x… 目录​​​​​​​ 一、引言  二、单机多卡推理之device_map 2.1 概述 2.2 自动配置如device_mapauto 2.3 手动配置如device_mapcuda:1 三、总结 一、引言  这里的Transformers指的是huggingface开发的大模型库为huggingface上数以万计的预训练大模型提供预测、训练等服务。 Transformers 提供了数以千计的预训练模型支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。 Transformers 提供了便于快速下载和使用的API让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。同时每个定义的 Python 模块均完全独立方便修改和快速研究实验。 Transformers 支持三个最热门的深度学习库 Jax, PyTorch 以及 TensorFlow — 并与之无缝整合。你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍如何使用device_map进行单机多卡推理。 二、单机多卡推理之device_map 2.1 概述 device_map是一个在使用Hugging Face的transformers库特别是处理大型模型和多GPU环境时非常重要的参数。它用于指定模型的各个部件应加载到哪个具体的计算设备上以实现资源的有效分配和利用。这个参数在进行模型并行或分布式训练时特别有用。 2.2 自动配置如device_mapauto 使用device_mapauto时Hugging Face的transformers库会尝试自动分配模型的各个部件到可用的GPU设备上以实现最佳的并行计算和资源利用。这个选项特别适用于拥有多个GPU的环境它会根据每个GPU的内存大小和其他运行中的进程智能地分配模型的层尽量做到负载均衡。 安装transformers和accelerate两个python包 pip install transformers -i https://mirrors.cloud.tencent.com/pypi/simple pip install accelerate -i https://mirrors.cloud.tencent.com/pypi/simple 采用CUDA_VISIBLE_DEVICES1,2,3指定推理代码可见的GPU设备。 CUDA_VISIBLE_DEVICES1,2,3 python trans_glm4.py 在采用AutoModelForCausalLM.from_pretrained模型加载时加入device_mapauto模型会自动分配至CUDA_VISIBLE_DEVICES指定的GPU显卡编号从0开始 model AutoModelForCausalLM.from_pretrained(model_dir,device_mapauto,trust_remote_codeTrue,torch_dtypetorch.float16)除了device_mapauto还包括balanced、balanced_low_0、sequential等参数 “auto” 和 “balanced” 将会在所有的GPU上平衡切分模型。主要是有可能发现更高效的分配策略。“balanced” 参数的功能则保持稳定。“balanced_low_0” 会在除了第一个GPU上的其它GPU上平衡划分模型并且在第一个 GPU 上占据较少资源。这个选项符合需要在第一个 GPU 上进行额外操作的需求例如需要在第一个 GPU 执行 generate 函数“sequential” 按照GPU的顺序分配模型分片从 GPU 0 开始直到最后的 GPU那么最后的 GPU 往往不会被占满和 “balanced_low_0” 的区别就是第一个还是最后一个以及非均衡填充 2.3 手动配置如device_mapcuda:1 假设想要模型的某些部分在第一张显卡另一部分在第二张显卡需要知道模型的层名或者按照模型的组件大小进行合理分配。不过具体层名需要根据实际模型来确定这里提供一个概念性的示例 device_map {transformer.h.0: cuda:0, # 第一部分放在GPU 0transformer.h.1: cuda:1, # 第二部分放在GPU 1# ... 根据模型结构继续分配 } model AutoModelForCausalLM.from_pretrained(model_dir, device_mapdevice_map)三、总结 本文简要介绍了device_mapauto等使用方法多数情况下与CUDA_VISIBLE_DEVICES1,2,3一起使用可以简单高效的进行多卡分布式推理及训练计算至于多机多卡场景多用torchrun和deepspeed等后面文章会专门进行系统讲解。 如果您还有时间可以看看我的其他文章 《AI—工程篇》 AI智能体研发之路-工程篇一Docker助力AI智能体开发提效 AI智能体研发之路-工程篇二Dify智能体开发平台一键部署 AI智能体研发之路-工程篇三大模型推理服务框架Ollama一键部署 AI智能体研发之路-工程篇四大模型推理服务框架Xinference一键部署 AI智能体研发之路-工程篇五大模型推理服务框架LocalAI一键部署 《AI—模型篇》 AI智能体研发之路-模型篇一大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用 AI智能体研发之路-模型篇二DeepSeek-V2-Chat 训练与推理实战 AI智能体研发之路-模型篇三中文大模型开、闭源之争 AI智能体研发之路-模型篇四一文入门pytorch开发 AI智能体研发之路-模型篇五pytorch vs tensorflow框架DNN网络结构源码级对比 AI智能体研发之路-模型篇六【机器学习】基于tensorflow实现你的第一个DNN网络 AI智能体研发之路-模型篇七【机器学习】基于YOLOv10实现你的第一个视觉AI大模型 AI智能体研发之路-模型篇八【机器学习】Qwen1.5-14B-Chat大模型训练与推理实战 AI智能体研发之路-模型篇九【机器学习】GLM4-9B-Chat大模型/GLM-4V-9B多模态大模型概述、原理及推理实战 《AI—Transformers应用》 【AI大模型】Transformers大模型库一Tokenizer 【AI大模型】Transformers大模型库二AutoModelForCausalLM 【AI大模型】Transformers大模型库三特殊标记special tokens 【AI大模型】Transformers大模型库四AutoTokenizer 【AI大模型】Transformers大模型库五AutoModel、Model Head及查看模型结构
http://www.hkea.cn/news/14486855/

相关文章:

  • 响应式网站和自适应一次性筷子网站建设
  • 陕西华伟建设有限公司网站wordpress 插件 定时
  • 建设网站宽度最好是多少钱广州口碑好的网站建设设计
  • 网站收录查询平台抖音代运营退款成功案例
  • 小说网站建设方案书ppt学广告设计要学什么软件
  • 邯郸做网站服务商公司网站建设有哪些公司可以做
  • 商城网站方案wordpress会员多语言
  • 上海网站建设最好的公司北京手机软件开发公司
  • 学术会议网站建设自己做的网站怎么上网
  • 网站的原理知名市场调研公司
  • 四川省住房和城乡建设厅网站电话网站如何做京东联盟
  • 杭州职称评审系统网站深圳教育科技网站建设
  • php 网站建设 教学用jsp做的汽车网站
  • 聊城企业网站建设魔兽做宏网站
  • 站群cms网站系统10个著名摄影网站
  • 用dw做网站怎么上传到网站上室内设计学校专业
  • 品牌查询网站二手的家具哪个网站做的好
  • 阿里云企业建站教程四川自助网站
  • 手机网站开发算什么费用建立个人网站的方法
  • 网站谁做的营销类网站建设
  • 如何配置 网站二级域名菏泽城乡建设局官网
  • 南京网站设计开发公司网站后台如何上传视频
  • 哈尔滨网站建设资海诚聘网站开发
  • 做个人网站怎么赚钱免费做网站
  • 发卡网站怎么做外链代发2分一条
  • 个人做外贸的网站有哪些网页制作模板源代码免费
  • 南宁企业建站系统上海58同城官网
  • 网站开发怎么兼容浏览器陆家网站建设
  • wordpress建站专家wordpress小清新模板
  • 如何做网站内链建立网站涉及到哪些企业