当前位置: 首页 > news >正文

做咖啡网站高德地图怎么看邮编

做咖啡网站,高德地图怎么看邮编,做泌尿科网站价格,网络营销作业策划方案前言 使用XTuner 微调个人小助手认知 一、下载模型 #安装魔搭依赖包 pip install modelscope新建download.py内容如下 其中Shanghai_AI_Laboratory/internlm2-chat-1_8b是魔搭对应的模型ID cache_dir/home/aistudio/data/model’为指定下载到本地的目录 from modelscope im…前言 使用XTuner 微调个人小助手认知 一、下载模型 #安装魔搭依赖包 pip install modelscope新建download.py内容如下 其中Shanghai_AI_Laboratory/internlm2-chat-1_8b是魔搭对应的模型ID cache_dir/home/aistudio/data/model’为指定下载到本地的目录 from modelscope import snapshot_download model_dir snapshot_download(Shanghai_AI_Laboratory/internlm2-chat-1_8b,cache_dir/home/aistudio/data/model)二、安装 XTuner 1.创建环境 #新建一个code文件夹 mkdir -p /home/aistudio/data/code #切换到该目录下 cd /home/aistudio/data/code #从 Github 上下载源码 git clone -b v0.1.21 https://github.com/InternLM/XTuner #进入源码目录 cd XTuner # 执行安装 pip install -e .[deepspeed]2.结果验证 xtuner version三. 快速开始 这里我们用 internlm2-chat-1_8b 模型通过 QLoRA 的方式来微调一个自己的小助手认知作为案例来进行演示 1.准备数据 #新建datas文件夹 mkdir -p datas #创建json文件 touch datas/assistant.json2.数据生成 1.新建一个xtuner_generate_assistant.py内容如下 2.修改neme由“伍鲜同志”改为“阿豪” 3.修改数据写入路径为刚刚创建的json文件 import json# 设置用户的名字 name 阿豪 # 设置需要重复添加的数据次数 n 8000# 初始化数据 data [{conversation: [{input: 请介绍一下你自己, output: 我是{}的小助手内在是上海AI实验室书生·浦语的1.8B大模型哦.format(name)}]},{conversation: [{input: 你在实战营做什么, output: 我在这里帮助{}完成XTuner微调个人小助手的任务.format(name)}]} ]# 通过循环将初始化的对话数据重复添加到data列表中 for i in range(n):data.append(data[0])data.append(data[1])# 将data列表中的数据写入到datas/assistant.json文件中 with open(datas/assistant.json, w, encodingutf-8) as f:# 使用json.dump方法将数据以JSON格式写入文件# ensure_asciiFalse 确保中文字符正常显示# indent4 使得文件内容格式化便于阅读json.dump(data, f, ensure_asciiFalse, indent4) 3.初始化数据 #执行 python xtuner_generate_assistant.py 4.获取训练脚本 xtuner copy-cfg internlm2_chat_1_8b_qlora_alpaca_e3 .修改内容如下 # Copyright (c) OpenMMLab. All rights reserved. import torch from datasets import load_dataset from mmengine.dataset import DefaultSampler from mmengine.hooks import (CheckpointHook, DistSamplerSeedHook, IterTimerHook,LoggerHook, ParamSchedulerHook) from mmengine.optim import AmpOptimWrapper, CosineAnnealingLR, LinearLR from peft import LoraConfig from torch.optim import AdamW from transformers import (AutoModelForCausalLM, AutoTokenizer,BitsAndBytesConfig)from xtuner.dataset import process_hf_dataset from xtuner.dataset.collate_fns import default_collate_fn from xtuner.dataset.map_fns import alpaca_map_fn, template_map_fn_factory from xtuner.engine.hooks import (DatasetInfoHook, EvaluateChatHook,VarlenAttnArgsToMessageHubHook) from xtuner.engine.runner import TrainLoop from xtuner.model import SupervisedFinetune from xtuner.parallel.sequence import SequenceParallelSampler from xtuner.utils import PROMPT_TEMPLATE, SYSTEM_TEMPLATE####################################################################### # PART 1 Settings # ####################################################################### # Model pretrained_model_name_or_path /mnt/workspace/model/Shanghai_AI_Laboratory/internlm2-chat-1_8b use_varlen_attn False# Data alpaca_en_path /mnt/workspace/code/datas/assistant.json prompt_template PROMPT_TEMPLATE.internlm2_chat max_length 2048 pack_to_max_length True# parallel sequence_parallel_size 1# Scheduler Optimizer batch_size 1 # per_device accumulative_counts 16 accumulative_counts * sequence_parallel_size dataloader_num_workers 0 max_epochs 3 optim_type AdamW lr 2e-4 betas (0.9, 0.999) weight_decay 0 max_norm 1 # grad clip warmup_ratio 0.03# Save save_steps 500 save_total_limit 2 # Maximum checkpoints to keep (-1 means unlimited)# Evaluate the generation performance during the training evaluation_freq 500 SYSTEM SYSTEM_TEMPLATE.alpaca evaluation_inputs [请介绍一下你自己, Please introduce yourself ]####################################################################### # PART 2 Model Tokenizer # ####################################################################### tokenizer dict(typeAutoTokenizer.from_pretrained,pretrained_model_name_or_pathpretrained_model_name_or_path,trust_remote_codeTrue,padding_sideright)model dict(typeSupervisedFinetune,use_varlen_attnuse_varlen_attn,llmdict(typeAutoModelForCausalLM.from_pretrained,pretrained_model_name_or_pathpretrained_model_name_or_path,trust_remote_codeTrue,torch_dtypetorch.float16,quantization_configdict(typeBitsAndBytesConfig,load_in_4bitTrue,load_in_8bitFalse,llm_int8_threshold6.0,llm_int8_has_fp16_weightFalse,bnb_4bit_compute_dtypetorch.float16,bnb_4bit_use_double_quantTrue,bnb_4bit_quant_typenf4)),loradict(typeLoraConfig,r64,lora_alpha16,lora_dropout0.1,biasnone,task_typeCAUSAL_LM))####################################################################### # PART 3 Dataset Dataloader # ####################################################################### alpaca_en dict(typeprocess_hf_dataset,datasetdict(typeload_dataset, pathjson, data_filesdict(trainalpaca_en_path)),tokenizertokenizer,max_lengthmax_length,dataset_map_fnNone,template_map_fndict(typetemplate_map_fn_factory, templateprompt_template),remove_unused_columnsTrue,shuffle_before_packTrue,pack_to_max_lengthpack_to_max_length,use_varlen_attnuse_varlen_attn)sampler SequenceParallelSampler \if sequence_parallel_size 1 else DefaultSampler train_dataloader dict(batch_sizebatch_size,num_workersdataloader_num_workers,datasetalpaca_en,samplerdict(typesampler, shuffleTrue),collate_fndict(typedefault_collate_fn, use_varlen_attnuse_varlen_attn))####################################################################### # PART 4 Scheduler Optimizer # ####################################################################### # optimizer optim_wrapper dict(typeAmpOptimWrapper,optimizerdict(typeoptim_type, lrlr, betasbetas, weight_decayweight_decay),clip_graddict(max_normmax_norm, error_if_nonfiniteFalse),accumulative_countsaccumulative_counts,loss_scaledynamic,dtypefloat16)# learning policy # More information: https://github.com/open-mmlab/mmengine/blob/main/docs/en/tutorials/param_scheduler.md # noqa: E501 param_scheduler [dict(typeLinearLR,start_factor1e-5,by_epochTrue,begin0,endwarmup_ratio * max_epochs,convert_to_iter_basedTrue),dict(typeCosineAnnealingLR,eta_min0.0,by_epochTrue,beginwarmup_ratio * max_epochs,endmax_epochs,convert_to_iter_basedTrue) ]# train, val, test setting train_cfg dict(typeTrainLoop, max_epochsmax_epochs)####################################################################### # PART 5 Runtime # ####################################################################### # Log the dialogue periodically during the training process, optional custom_hooks [dict(typeDatasetInfoHook, tokenizertokenizer),dict(typeEvaluateChatHook,tokenizertokenizer,every_n_itersevaluation_freq,evaluation_inputsevaluation_inputs,systemSYSTEM,prompt_templateprompt_template) ]if use_varlen_attn:custom_hooks [dict(typeVarlenAttnArgsToMessageHubHook)]# configure default hooks default_hooks dict(# record the time of every iteration.timerdict(typeIterTimerHook),# print log every 10 iterations.loggerdict(typeLoggerHook, log_metric_by_epochFalse, interval10),# enable the parameter scheduler.param_schedulerdict(typeParamSchedulerHook),# save checkpoint per save_steps.checkpointdict(typeCheckpointHook,by_epochFalse,intervalsave_steps,max_keep_ckptssave_total_limit),# set sampler seed in distributed evrionment.sampler_seeddict(typeDistSamplerSeedHook), )# configure environment env_cfg dict(# whether to enable cudnn benchmarkcudnn_benchmarkFalse,# set multi process parametersmp_cfgdict(mp_start_methodfork, opencv_num_threads0),# set distributed parametersdist_cfgdict(backendnccl), )# set visualizer visualizer None# set log level log_level INFO# load from which checkpoint load_from None# whether to resume training from the loaded checkpoint resume False# Defaults to use random seed and disable deterministic randomness dict(seedNone, deterministicFalse)# set log processor log_processor dict(by_epochFalse) 5.开启训练 xtuner train ./internlm2_chat_1_8b_qlora_alpaca_e3_copy.py微调前 6. 模型格式转换 pth_filels -t ./work_dirs/internlm2_chat_1_8b_qlora_alpaca_e3_copy/*.pth | head -n 1 export MKL_SERVICE_FORCE_INTEL1 export MKL_THREADING_LAYERGNU xtuner convert pth_to_hf ./internlm2_chat_1_8b_qlora_alpaca_e3_copy.py ${pth_file} ./hf7.模型合并 export MKL_SERVICE_FORCE_INTEL1 export MKL_THREADING_LAYERGNU xtuner convert merge /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b ./hf ./merged --max-shard-size 2GB8.测试效果 python -m streamlit run xtuner_streamlit_demo.py
http://www.hkea.cn/news/14328767/

相关文章:

  • tool站长工具项目代理
  • 柳州企业网站制作哪家好电子商务网站建设项目范围
  • 买衣服网站排名自助建站最大
  • 专教做蛋糕的网站手机上的编程软件
  • 关键字查询我的网站怎么做宿迁房产网租房信息
  • 建设宠物网站的可行性芭蕉视频app无限次数
  • 临沂网站建设联系方式国内h5网站欣赏
  • 服务器不稳定 如何让百度重新收录网站开发个dapp要多少钱
  • 江苏国龙翔建设网站网页设计评价
  • 做mla网站企业手机网站建设策划
  • 微信公众号做微网站吗做网站小程序多少钱
  • asp建设网站需要了解什么建网站衡水哪家强?
  • 网站网站到底怎么做服装外贸公司大量订单外发
  • 公司设计一个网站揭阳企业建站系统模板
  • 濮阳团购网站建设安卓android下载安装
  • 个人做网站花多少钱企业网站模板中文
  • 做情趣网站违法吗域名哪里注册
  • 看案例网站做平面设计需要学什么软件
  • 木马网站怎么做网站建设教程asp
  • 网站开发项目文档南山做网站公司
  • 网站开发费用算无形资产么哈尔滨网站设计多少钱
  • 响应式网站建设系统好业宝微商城
  • 达川网站制作南宁模板建站
  • 专业网站建设策划西安搬家公司收费标准
  • 深圳市网站制作网站建设解决方案
  • 做地推的网站桂林建设银行招聘网站
  • 做电影网站 资源去哪里找怎么设置自己的网站
  • 程序员做任务的网站空间设计公司网站
  • 丹阳网站建设公司阿里云wordpress数据库
  • 网站建设流程行业现状如何代做网站