当前位置: 首页 > news >正文

海外网站建站广州网站优化服务

海外网站建站,广州网站优化服务,网络服务器忙请稍后重试3008,网站建设费用估计我们提出的 LayerSkip 是一种端到端的解决方案#xff0c;可加快大型语言模型#xff08;LLM#xff09;的推理速度。 首先#xff0c;在训练过程中#xff0c;我们采用了层间丢弃技术(layer dropout)#xff0c;早期层间丢弃率较低#xff0c;后期层间丢弃率较高。 其次…我们提出的 LayerSkip 是一种端到端的解决方案可加快大型语言模型LLM的推理速度。 首先在训练过程中我们采用了层间丢弃技术(layer dropout)早期层间丢弃率较低后期层间丢弃率较高。 其次在推理过程中我们证明这种训练方法提高了早期退出的准确性而无需在模型中添加任何辅助层或模块。 第三我们提出了一种新颖的自推测解码方案即在早期层退出并通过模型的其余层进行验证和校正。 与其他推测式解码方法相比我们提出的自推测式解码方法占用的内存更少并能从草稿和验证阶段的共享计算和激活中获益。 我们在不同大小的 Llama 模型上进行了不同类型的训练实验从头开始预训练、持续预训练、在特定数据域上进行微调以及在特定任务上进行微调。 我们实施了推理解决方案结果表明CNN/DM 文档的摘要速度提高了 2.16 倍编码速度提高了 1.82 倍TOPv2 语义解析任务的速度提高了 2.0 倍。 我们在 https://github.com/facebookresearch/LayerSkip 开源了我们的代码。 快速上手 $ git clone gitgithub.com:facebookresearch/LayerSkip.git $ cd LayerSkip创建环境 $ conda create --name layer_skip python3.10 $ conda activate layer_skip$ pip install -r requirements.txt访问模型 为了观察加速情况您需要访问使用 LayerSkip 配方训练过的 LLM。 我们在 HuggingFace 上提供了 6 个检查点它们是使用 LayerSkip 配方持续预训练的不同 Llama 模型 facebook/layerskip-llama2-7Bfacebook/layerskip-llama2-13Bfacebook/layerskip-codellama-7Bfacebook/layerskip-codellama-34Bfacebook/layerskip-llama3-8Bfacebook/layerskip-llama3.2-1B 代码 import torch from transformers import AutoModelForCausalLM, AutoTokenizer from copy import deepcopycheckpoint facebook/layerskip-llama3.2-1B early_exit 4 device cuda if torch.cuda.is_available() else cpu prompt typing import List\ndef bucket_sort(A: List):model AutoModelForCausalLM.from_pretrained(checkpoint, device_mapauto, use_safetensorsTrue, torch_dtypetorch.bfloat16) tokenizer AutoTokenizer.from_pretrained(checkpoint)generation_config model.generation_configweights_memo {id(w): w for w in model.parameters()} assistant_model deepcopy(model, memoweights_memo) # Clone main model with shared weights assistant_model.model.layers assistant_model.model.layers[:early_exit] # Apply early exit del assistant_model.model.layers[early_exit:]inputs tokenizer(prompt, return_tensorspt).to(device)outputs model.generate(**inputs, generation_configgeneration_config, assistant_modelassistant_model, max_new_tokens512) print(tokenizer.batch_decode(outputs, skip_special_tokensTrue)[0]) 或者Torchrun $ torchrun generate.py --model facebook/layerskip-llama2-7B \--sample True \--max_steps 512LayerSkip的项目地址 GitHub仓库https://github.com/facebookresearch/LayerSkipHuggingFace模型库https://huggingface.co/collections/facebook/layerskip-666b25c50c8ae90e1965727aarXiv技术论文https://arxiv.org/pdf/2404.16710 感谢大家花时间阅读我的文章你们的支持是我不断前进的动力。期望未来能为大家带来更多有价值的内容请多多关注我的动态
http://www.hkea.cn/news/14268605/

相关文章:

  • 苏州自助建站软件oa网站模板
  • 上海网站建设专业公司排名网站建设陕西
  • 搬家公司网站建设价格做前端网站用什么软件写代码
  • 达建网站wordpress 釆集插件
  • 网站开发赚钱吗招工做哪个网站
  • 星座 网站 建设wordpress seo 百度
  • 做货运网站找哪家好网站为什么做301
  • asp网站建设 win7五金网站模板
  • wdcp 网站备份公司网站域名解析谁来做
  • 免费软件制作网站模板广州建设六马路小学网站
  • 百度收录网站多久企业邮箱 网站建设
  • wordpress 小说多站学会网站建设目的
  • 宁河网站建设WordPress禁用邮件注册
  • 冰燃建站软件开发需要具备什么条件
  • 网站运营效果分析怎么做网站建设有哪些方面
  • 网站不让百度收录极验验证 wordpress
  • wordpress模板网站导航长沙做网站设计公司
  • 网站版式有哪几种网站建设哪个最好
  • 成都公司注册哪家好海城seo网站排名优化推广
  • 网站建设思维导图模板企业服务网站
  • 二手交易网站建设内容策划肇庆软件建网站公司
  • 西宁做网站的工作室装修公司哪家好一些呢
  • 顾问式 网站外贸营销型网站2018
  • 购物网站建设教程叶县网站建设
  • 帮别人做网站哪里可以接单从化专业做网站
  • 做音乐网站开源网站建设实习心得
  • 天站网站建设龙岩网站建设
  • 宁波网站排名优化seo创建公司主页
  • 南昌市网站备案免费网站大全app
  • 网站地图深度做多少合适网站建站公司