当前位置: 首页 > news >正文

网站内容规范网络运营是什么专业

网站内容规范,网络运营是什么专业,公司装修设计工程,wordpress目的本项目参考网上各类教程整理而成#xff0c;为个人学习记录。 项目github源码地址#xff1a;Lora微调大模型 项目中微调模型为#xff1a;qwen/Qwen1.5-4B-Chat。 去年新发布的Qwen/Qwen2.5-3B-Instruct同样也适用。 微调步骤 step0: 环境准备 conda create --name fin…本项目参考网上各类教程整理而成为个人学习记录。 项目github源码地址Lora微调大模型 项目中微调模型为qwen/Qwen1.5-4B-Chat。 去年新发布的Qwen/Qwen2.5-3B-Instruct同样也适用。 微调步骤 step0: 环境准备 conda create --name fine-tuning python3.10 conda activate fine-tuning pip3 install -r requirements.txtstep1: 下载模型 本次微调使用Qwen/Qwen1.5-4B-Chat通过modelscope下载。维护好train.py中的model_id即可train.py运行时候会自动下载。 其他下载方式 # 下载到~/.cache目录。 modelscope download --model qwen/Qwen1.5-4B-Chat step2: 准备微调语料 微调语料见./dataset/huanhuan.json文件可根据需求调整语料。 step3: 训练模型 相应源码见github。 python3 train.py说明 为提升模型的微调效果可根据需求调整train.py中训练参数num_train_epochs(迭代次数) training_args TrainingArguments(output_dircheckpoint_dir,per_device_train_batch_size4,gradient_accumulation_steps4,logging_steps10,num_train_epochs20,save_steps100,learning_rate1e-4,save_on_each_nodeTrue,gradient_checkpointingTrue,)step4: 调用训练后的模型 相关代码参考train.py中的infer函数 step5: 合并模型及调用合并后的模型进行问答 分别对应merge.py中的merge函数根chat函数。 python3 merge.py注意因为是对话式文本生成模型所以建议使用如下的推理方式应包含eos_token_idpad_token_idattention_mask这些参数否则容易出现回答后带上一些乱七八糟的东西。 prompt 你好 messages [{role: user, content: prompt}] text tokenizer.apply_chat_template(messages) model_inputs tokenizer([text], return_tensorspt) generated_ids model.generate(model_inputs.input_ids,max_length50,max_new_tokens512,eos_token_idtokenizer.encode(|eot_id|)[0],pad_token_idtokenizer.pad_token_id,attention_maskmodel_inputs.attention_mask, ) generated_ids [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids) ]response tokenizer.batch_decode(generated_ids, skip_special_tokensTrue)[0]同理这里踩了个坑使用如下的推理方式回答也是乱起八糟。 prompt 你好 inputs tokenizer(prompt, return_tensorspt) # 生成文本 output_sequences model.generate(inputs[input_ids],max_length50,temperature0.7,num_return_sequences1 ) # 解码生成的文本 generated_text tokenizer.decode(output_sequences[0], skip_special_tokensTrue) print(generated_text)step6: ollama集成 集成到ollama中需要两个步骤。 step6.1 转化为gguf文件 项目同目录下下载llama.cpp并安装 cd .. git clone https://github.com/ggerganov/llama.cpp cd llama.cpp pip3 install -r requirements.txt make转化为gguf文件 python convert_hf_to_gguf.py ../fine-tuning-by-Lora/models/output/qwen/Qwen1.5-4B-Chat --outtype f16 --outfile ../fine-tuning-by-Lora/models/step6.2 打包模型文件 model文件夹中编辑Modelfile文件 # Modelfile文件内容 FROM Qwen1.5-4B-Chat-F16.ggufTEMPLATE {{ if .System }}|start_header_id|system|end_header_id|{{ .System }}|eot_id|{{ end }}{{ if .Prompt }}|start_header_id|user|end_header_id|{{ .Prompt }}|eot_id|{{ end }}|start_header_id|assistant|end_header_id|{{ .Response }}|eot_id| PARAMETER stop |start_header_id| PARAMETER stop |end_header_id| PARAMETER stop |eot_id| PARAMETER stop |reserved_special_token 打包 ollama create Qwen1.5-4B-Chat-F16 -f Modelfilestep6.3 运行 ollama run Qwen1.5-4B-Chat-F16:latest说明如果Modelfile中的TEMPLATE跟PARAMETER参数没写模型推理结果也可能胡说八道。 打包到ollama之后可以直接把模型接入到dify。 踩坑过程 经验1 一般在微调的时候需要关注模型的loss情况自己训练20轮的话损失函数的值能看到在收敛但还是还没完全收敛。 如果模型微调后效果不好可以关注训练时损失函数下降情况。一般到5060轮左右loss会下降到0.01左右的水平相应的梯度grad_norm跟学习率learning_rate也会减少。 {loss: 3.2201, grad_norm: 4.969257831573486, learning_rate: 9.5e-05, epoch: 5.0} {loss: 1.5577, grad_norm: 1.9476478099822998, learning_rate: 9e-05, epoch: 10.0} {loss: 0.7901, grad_norm: 2.8456532955169678, learning_rate: 8.5e-05, epoch: 15.0} {loss: 0.1381, grad_norm: 0.3789016008377075, learning_rate: 8e-05, epoch: 20.0} {loss: 0.0045, grad_norm: 0.06659594923257828, learning_rate: 7.5e-05, epoch: 25.0} {loss: 0.0014, grad_norm: 0.034729525446891785, learning_rate: 7e-05, epoch: 30.0} {loss: 0.0007, grad_norm: 0.020955145359039307, learning_rate: 6.5e-05, epoch: 35.0} {loss: 0.0005, grad_norm: 0.01589277759194374, learning_rate: 6e-05, epoch: 40.0} {loss: 0.0003, grad_norm: 0.013618703931570053, learning_rate: 5.5e-05, epoch: 45.0} {loss: 0.0003, grad_norm: 0.01169560570269823, learning_rate: 5e-05, epoch: 50.0} {loss: 0.0002, grad_norm: 0.010867319069802761, learning_rate: 4.5e-05, epoch: 55.0} {loss: 0.0002, grad_norm: 0.010721373371779919, learning_rate: 4e-05, epoch: 60.0} {loss: 0.0002, grad_norm: 0.010178590193390846, learning_rate: 3.5e-05, epoch: 65.0} {loss: 0.0002, grad_norm: 0.009332481771707535, learning_rate: 3e-05, epoch: 70.0} {loss: 0.0002, grad_norm: 0.009383821859955788, learning_rate: 2.5e-05, epoch: 75.0} {loss: 0.0002, grad_norm: 0.008890513330698013, learning_rate: 2e-05, epoch: 80.0} {loss: 0.0002, grad_norm: 0.008669395931065083, learning_rate: 1.5e-05, epoch: 85.0} {loss: 0.0002, grad_norm: 0.00943685695528984, learning_rate: 1e-05, epoch: 90.0} {loss: 0.0002, grad_norm: 0.0088260592892766, learning_rate: 5e-06, epoch: 95.0} {loss: 0.0002, grad_norm: 0.008713439106941223, learning_rate: 0.0, epoch: 100.0} {train_runtime: 3008.4296, train_samples_per_second: 0.532, train_steps_per_second: 0.033, train_loss: 0.2857893861143384, epoch: 100.0}报错1 训练时报错NotImplementedError: Cannot copy out of meta tensor; no data! Please use torch.nn.Module.to_empty() instead of torch.nn.Module.to() when moving module from meta to a different device. 训练时在调用transformers/trainer.py的时候会报该错。 源码如下 model model.to(device)尝试了如下方式: #修改方式 #origin: new_valueold_value.to(cpu),下面两种写法任选其一 new_valuetorch.tensor(old_value,devicecpu) new_valuetorch.empty_like(old_value,devicecpu) 不好使 最后好使的方式是关掉电脑中高内存的应用给程序提供足够的资源。 报错2 推理时候报错RuntimeError: Placeholder storage has not been allocated on MPS device! 解决方案关掉电脑高内存应用强制设置 device “cpu”。 报错3 合并模型出现报错自己尝试时候只出现过一次报错为模型某一层的key值在某个模块中没找到 解决方案重新微调模型可能是模型微调出现了中断or其他原因导致模型结构出现异常 参考文档 Mac M2之LLaMA3-8B微调llama3-fine-tuning
http://www.hkea.cn/news/14579233/

相关文章:

  • 做旅游广告在哪个网站做效果好dede网站白屏
  • 网站开发合同注意网站制作需要学什么
  • 加关键词的网站wordpress 下单
  • 免费的微网站哪个好php导航网站
  • 权威的网站建设公司app开发公司排行榜
  • 宁志网站两学一做如何识别网站建设
  • 门户网站怎么做seo基于wordpress的sns
  • 注册网站显示lp或设备超限怎么办wordpress主题制作 工具
  • 网站开发时最短的网站
  • 政务公开网站建设的亮点和建议产品全网营销推广
  • 山西手机版建站系统开发百度网站诚信认证
  • 深圳建设交易中心网站首页制作网站计划书
  • 网站开发与维护总结网页无法上传wordpress
  • 怎样在工商网站做遗失石家庄市里的网站公司
  • 企业网站建设全包.vip域名的网站排名
  • 有什么网站做投标设计绵阳建设股份有限公司
  • 学做衣服的网站有哪些战酷设计网站官网入口
  • 网站建设圣诞素材广州做网站哪个平台好
  • 湖北专业网站建设市面价广东平台网站建设制作
  • 软件下载网站开发 论文做网站需要什么东西
  • 晋城网站建设公司排名住房建设局子网站
  • 中国空间站成为全人类太空之家中国大型建筑公司有哪些
  • 甘肃省城市建设档案馆网站建设一个直播网站要多少钱
  • 大连哪家科技公司做网站好网站里的轮廓图 怎么做的
  • 进了网站的后台系统 怎么改公司的网站珠海招聘网最新招聘信息
  • 网站设计制作新报价图片河源网站页面优化ppt
  • 企业免费网站建设西宁摄网站制作
  • 东莞市公司网站建设怎么样网站后台地址破解
  • 网站备案的原则厦门网站建设cnmxcm
  • 常州微信网站建设服务seo网站优化培训