当前位置: 首页 > news >正文

网站维护工作是做啥电商网站建设分析

网站维护工作是做啥,电商网站建设分析,上海网络科技有限公司排名,网页视频加速器目录​​​​​​​ 一、引言 二、单机多卡推理之device_map 2.1 概述 2.2 自动配置#xff0c;如device_mapauto 2.3 手动配置#xff0c;如device_mapcuda:1 三、总结 一、引言 这里的Transformers指的是huggingface开发的大模型库#x… 目录​​​​​​​ 一、引言  二、单机多卡推理之device_map 2.1 概述 2.2 自动配置如device_mapauto 2.3 手动配置如device_mapcuda:1 三、总结 一、引言  这里的Transformers指的是huggingface开发的大模型库为huggingface上数以万计的预训练大模型提供预测、训练等服务。 Transformers 提供了数以千计的预训练模型支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。 Transformers 提供了便于快速下载和使用的API让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。同时每个定义的 Python 模块均完全独立方便修改和快速研究实验。 Transformers 支持三个最热门的深度学习库 Jax, PyTorch 以及 TensorFlow — 并与之无缝整合。你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍如何使用device_map进行单机多卡推理。 二、单机多卡推理之device_map 2.1 概述 device_map是一个在使用Hugging Face的transformers库特别是处理大型模型和多GPU环境时非常重要的参数。它用于指定模型的各个部件应加载到哪个具体的计算设备上以实现资源的有效分配和利用。这个参数在进行模型并行或分布式训练时特别有用。 2.2 自动配置如device_mapauto 使用device_mapauto时Hugging Face的transformers库会尝试自动分配模型的各个部件到可用的GPU设备上以实现最佳的并行计算和资源利用。这个选项特别适用于拥有多个GPU的环境它会根据每个GPU的内存大小和其他运行中的进程智能地分配模型的层尽量做到负载均衡。 安装transformers和accelerate两个python包 pip install transformers -i https://mirrors.cloud.tencent.com/pypi/simple pip install accelerate -i https://mirrors.cloud.tencent.com/pypi/simple 采用CUDA_VISIBLE_DEVICES1,2,3指定推理代码可见的GPU设备。 CUDA_VISIBLE_DEVICES1,2,3 python trans_glm4.py 在采用AutoModelForCausalLM.from_pretrained模型加载时加入device_mapauto模型会自动分配至CUDA_VISIBLE_DEVICES指定的GPU显卡编号从0开始 model AutoModelForCausalLM.from_pretrained(model_dir,device_mapauto,trust_remote_codeTrue,torch_dtypetorch.float16)除了device_mapauto还包括balanced、balanced_low_0、sequential等参数 “auto” 和 “balanced” 将会在所有的GPU上平衡切分模型。主要是有可能发现更高效的分配策略。“balanced” 参数的功能则保持稳定。“balanced_low_0” 会在除了第一个GPU上的其它GPU上平衡划分模型并且在第一个 GPU 上占据较少资源。这个选项符合需要在第一个 GPU 上进行额外操作的需求例如需要在第一个 GPU 执行 generate 函数“sequential” 按照GPU的顺序分配模型分片从 GPU 0 开始直到最后的 GPU那么最后的 GPU 往往不会被占满和 “balanced_low_0” 的区别就是第一个还是最后一个以及非均衡填充 2.3 手动配置如device_mapcuda:1 假设想要模型的某些部分在第一张显卡另一部分在第二张显卡需要知道模型的层名或者按照模型的组件大小进行合理分配。不过具体层名需要根据实际模型来确定这里提供一个概念性的示例 device_map {transformer.h.0: cuda:0, # 第一部分放在GPU 0transformer.h.1: cuda:1, # 第二部分放在GPU 1# ... 根据模型结构继续分配 } model AutoModelForCausalLM.from_pretrained(model_dir, device_mapdevice_map)三、总结 本文简要介绍了device_mapauto等使用方法多数情况下与CUDA_VISIBLE_DEVICES1,2,3一起使用可以简单高效的进行多卡分布式推理及训练计算至于多机多卡场景多用torchrun和deepspeed等后面文章会专门进行系统讲解。 如果您还有时间可以看看我的其他文章 《AI—工程篇》 AI智能体研发之路-工程篇一Docker助力AI智能体开发提效 AI智能体研发之路-工程篇二Dify智能体开发平台一键部署 AI智能体研发之路-工程篇三大模型推理服务框架Ollama一键部署 AI智能体研发之路-工程篇四大模型推理服务框架Xinference一键部署 AI智能体研发之路-工程篇五大模型推理服务框架LocalAI一键部署 《AI—模型篇》 AI智能体研发之路-模型篇一大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用 AI智能体研发之路-模型篇二DeepSeek-V2-Chat 训练与推理实战 AI智能体研发之路-模型篇三中文大模型开、闭源之争 AI智能体研发之路-模型篇四一文入门pytorch开发 AI智能体研发之路-模型篇五pytorch vs tensorflow框架DNN网络结构源码级对比 AI智能体研发之路-模型篇六【机器学习】基于tensorflow实现你的第一个DNN网络 AI智能体研发之路-模型篇七【机器学习】基于YOLOv10实现你的第一个视觉AI大模型 AI智能体研发之路-模型篇八【机器学习】Qwen1.5-14B-Chat大模型训练与推理实战 AI智能体研发之路-模型篇九【机器学习】GLM4-9B-Chat大模型/GLM-4V-9B多模态大模型概述、原理及推理实战 《AI—Transformers应用》 【AI大模型】Transformers大模型库一Tokenizer 【AI大模型】Transformers大模型库二AutoModelForCausalLM 【AI大模型】Transformers大模型库三特殊标记special tokens 【AI大模型】Transformers大模型库四AutoTokenizer 【AI大模型】Transformers大模型库五AutoModel、Model Head及查看模型结构
http://www.hkea.cn/news/14400134/

相关文章:

  • 临沂网站建设咨询高清vpswindows在线看
  • 苏州网站建设专家软文推广怎么写
  • 炫酷的移动端网站沈阳网站关键词
  • html5响应式设计公司网站模板整站html源码下载软件设计师中级含金量
  • 网站做线支付平台系统多少钱网站正建设中
  • 合伙建网站wordpress的底部找不到版权信息
  • 网站设计外文文献建立个人网站费用
  • 个人网站的设计与制作论文关于网站建设领导分工
  • phpcms做视频网站首页苏州网络网站建设
  • 泸州做网站的公司有哪些自微网站首页
  • 网站的页面结构论坛网站开发费用
  • 室内装饰设计网站安顺市网站建设
  • 微网站开发费用湖南营销型网站建设公司排名
  • 重庆金融网站建设谷歌官方seo入门指南
  • 深圳网站建设服务有限公司济宁网站定制公司
  • 网站商城系统建设新网站需要加锚文本吗
  • 爱网站排行河南郑州做网站的公司
  • dedecms导入网站模板下载域名网址注册
  • 做公司网站页面wordpress 链接下划线
  • 网页设计报价模板站长工具seo综合查询引流
  • 响应式网站建站怎么做网站教程 用的工具
  • 网站建设岗位要求深圳网站设计排名
  • 如何组建网站wordpress怎么做301
  • 网站建设流程公司网站设计厂
  • 晋江外贸网站建设wordpress标签随机调用
  • 备案 网站建设计划书seo专业培训班
  • iis建立网站策划公司经营范围有哪些
  • 公司网站域名到期了去哪里缴费东莞网站建设17
  • 河南省建设培训中心网站照片模板图片
  • 大连本站运营公司电商平台推广费用预算