当前位置: 首页 > news >正文

盘龙网站建设wordpress空间购买

盘龙网站建设,wordpress空间购买,做网页难吗,网上做任务佣金高的网站前言 在此之前#xff0c;我司论文审稿项目组已经通过我司处理的paper-review数据集#xff0c;分别微调了RWKV、llama2、gpt3.5 16K、llama2 13b、Mistral 7b instruct、gemma 7b 七月论文审稿GPT第1版#xff1a;通过3万多篇paper和10多万的review数据微调RWKV七月论文审…前言 在此之前我司论文审稿项目组已经通过我司处理的paper-review数据集分别微调了RWKV、llama2、gpt3.5 16K、llama2 13b、Mistral 7b instruct、gemma 7b 七月论文审稿GPT第1版通过3万多篇paper和10多万的review数据微调RWKV七月论文审稿GPT第2版用一万多条paper-review数据集微调LLaMA2 7B最终反超GPT4七月论文审稿GPT第2.5和第3版分别微调GPT3.5、Llama2 13B以扩大对GPT4的优势七月论文审稿GPT第3.2版和第3.5版通过paper-review数据集分别微调Mistral、gemma 虽然其中gemma 7b已经把对GPT4-1106的胜率达到了78%但效果提升是永无止境的故继续折腾在本文要介绍的第4版我们则微调mixtral 8x7b(关于mixtral 87的介绍详见此文从Mistral 7B到MoE模型Mixtral 8x7B的全面解析从原理分析到代码解读)且首次把对GPT4-1106的胜率达到了80% 第一部分 通过llama factory微调mixtral 8x7b 1.1 模型训练 Mixtral-8x7b地址魔搭社区 GitHub: hiyouga/LLaMA-Factory: Unify Efficient Fine-tuning of 100 LLMs (github.com) 1.1.1 环境配置 git clone https://github.com/hiyouga/LLaMA-Factory.git conda create -n llama_factory python3.10 conda activate llama_factory cd /root/path/LLaMA-Factory pip install -r requirements.txt 有些得单独版本对齐本人使用的是cuda11.8 pip install torch2.1.2 torchvision0.16.2 torchaudio2.1.2 --index-url https://download.pytorch.org/whl/cu118 pip install bitsandbytes0.41.3 # 下载对应版本 https://github.com/Dao-AILab/flash-attention/releases pip install flash_attn-2.5.2cu118torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl 1.1.2 训练代码 python src/train_bash.py \--stage sft \--do_train True \--model_name_or_path /root/weights/Mixtral-8x7B-Instruct-v0.1 \--finetuning_type lora \--quantization_bit 4 \--template mistral \--flash_attn True \--dataset_dir data \--dataset paper_review_data \--cutoff_len 12288 \--learning_rate 5e-05 \--num_train_epochs 3.0 \--max_samples 1000000 \--per_device_train_batch_size 16 \--gradient_accumulation_steps 1 \--lr_scheduler_type cosine \--max_grad_norm 0.3 \--logging_steps 10 \--warmup_steps 0 \--lora_rank 128 \--save_steps 1000 \--lora_dropout 0.05 \--lora_target q_proj,o_proj,k_proj,v_proj,down_proj,gate_proj,up_proj \--output_dir saves/Mixtral-8x7B-Chat/lora/train_2024-03-23 \--fp16 True \--plot_loss True 1.2 模型推理 1.2.1 部署API接口 这里使用lora执行src/api_demo.py时会出现一个问题 NotImplementedError: Cannot copy out of meta tensor; no data! · Issue #2940 · hiyouga/LLaMA-Factory (github.com) 解决方案训练时使用了--quantization_bit 4 和 --flash_attn True这里也要使用统一的才行。 CUDA_VISIBLE_DEVICES0 API_PORT8000 python src/api_demo.py \--model_name_or_path /root/weights/Mixtral-8x7B-Instruct-v0.1 \--adapter_name_or_path /root/path/saves/Mixtral-8x7B-Chat/lora/train_train_2024-03-23 \--template mistral \--finetuning_type lora \--quantization_bit 4 \--flash_attn True 推理所需显存为34318MiB 1.2.2 调用API接口 更多见七月的《大模型商用项目之审稿GPT微调实战》 第二部分 通过xtuner微调mixtral 8x7b // 待更
http://www.hkea.cn/news/14318128/

相关文章:

  • 一比一高仿手表网站整容医院网络建设公司
  • 对中国建设银行网站的评价网站统计插件
  • 网站快速排名工具做个电商平台需要哪些步骤
  • 内销常用网站嘉兴 网站建设
  • 上海网站制作科技公司营销型网站制作msgg
  • 装饰网站开发背景国内的c2c网站有哪些
  • 一家只做卫生巾的网站线上推广费用
  • 浙江住房和城乡建设厅网站揭阳住房和城乡建设厅网站
  • 建站网站那个好站外推广渠道有哪些
  • 政务服务网站建设技术因素wordpress galleria
  • 好看网站的浏览器Md5(Wordpress)解密
  • 网站主机教程wordpress5.1更新
  • 关于百度网站是多少中国菲律宾南海开战
  • 网站用哪种语言如何利用淘宝建设网站挣钱
  • 免费 成品模板网站品牌网站设计方案
  • 网站改了title 删除百度就的收录wordpress可视化函数
  • 提供网站制作公司哪家专业北京工商注册网上核名
  • 企业门户网站建设管理制度网站层次索引模板
  • 网站建设中的需求报告功能大型网站建设地址
  • 公司做网站找谁怎样通过手机建网站
  • 好的文化网站模板下载HTML建网站
  • 有人做彩票网站吗天津关键词优化平台
  • 好用的cms网站网站运营难做嘛
  • 做淘客网站去哪里购买空间什么样的网站流量容易做
  • 科研院所网站建设网络工程的定义
  • 房地产网站开发毕业设计邯郸高端网站建设
  • 鞍山网站制作小程序淘宝不能开网站建设店铺吗
  • 网站建设seo需求文档顺德网站开发招聘
  • 海尔商城网站建设维护免费php网站系统
  • 网站建设的总结与改进西安做网站的公司有