当前位置: 首页 > news >正文

unity网站后台怎么做编程猫官网

unity网站后台怎么做,编程猫官网,网站开发风险分析,个人网页制作免费下载微调大语言模型是常见的需求#xff0c;由于模型参数量大#xff0c;即使用 Lora/Qlora 进行微调也需要 GPU 显卡#xff0c;Mac M系是苹果自己的 GPU#xff0c;目前主流的框架还在建立在 CUDA 的显卡架构#xff0c;也就是主要的卡还是来自英伟达。如果要用 Mac 来做训练…微调大语言模型是常见的需求由于模型参数量大即使用 Lora/Qlora 进行微调也需要 GPU 显卡Mac M系是苹果自己的 GPU目前主流的框架还在建立在 CUDA 的显卡架构也就是主要的卡还是来自英伟达。如果要用 Mac 来做训练和推理需要用MLXMLX 类似于 Pytorch对苹果芯片做了支持从而使得苹果电脑也可以进行深度学习。本文将介绍如何用 MLX 训练 Phi3 大语言模型 安装 MLX pip install mlx-lm模型下载推理 这里需要访问 HuggingFace 下载可以使用国内镜像 国内镜像 https://hf-mirror.com/export HF_ENDPOINThttps://hf-mirror.compython -m mlx_lm.generate --model microsoft/Phi-3-mini-4k-instruct --max-token 2048 --prompt |user|\nCan you introduce yourself|end|\n|assistant|HF 模型转换为 MLX 模型 mlx 的命令都有一些默认值-h 中没有具体说明 只能去源码里看。 例如转换完成的模型会保存到 mlx_model 目录下。 python -m mlx_lm.convert --hf-path microsoft/Phi-3-mini-4k-instruct通过 MLX 进行调优 首先准备数据MLX 使用 jsonl 数据格式进行训练从 github 下载数据集并存放到 data 目录下一共三个文件test、train 和 valid文件下载好之后我们就可以开始训练了。 https://github.com/microsoft/Phi-3CookBook/tree/main/code/04.Finetuning/mlx/data 消耗资源比较多M2 风扇又开始转了。 python -m mlx_lm.lora --model microsoft/Phi-3-mini-4k-instruct --train --data ./data --iters 1000 模型推理 运行未训练的模型和训练好的模型并对推理的结果进行比较。 python -m mlx_lm.generate --model microsoft/Phi-3-mini-4k-instruct --adapter-path ./adapters --max-token 2048 --prompt Why do chameleons change colors? --eos-token |end| 原始模型 python -m mlx_lm.generate --model microsoft/Phi-3-mini-4k-instruct --max-token 2048 --prompt Why do chameleons change colors? --eos-token |end| 合并模型 将训练好的 Lora adapter 合并到原始模型中。 python -m mlx_lm.fuse --model microsoft/Phi-3-mini-4k-instruct 生成 GGUF 通过 llama.cpp 生成 GGUF量化参数支持 ‘f32’, ‘f16’, ‘bf16’, ‘q8_0’根据需要自行修改。Phi3 模型默认没有 tokenizer.model需要从 HF 下载 https://huggingface.co/microsoft/Phi-3-mini-4k-instruct/tree/main 将 tokenizer.model 复制到 /lora_fused_model/ 目录下完成后运行生成GGUF 的转换命令。 git clone https://github.com/ggerganov/llama.cpp.gitcd llama.cpppip install -r requirements.txtpython convert-hf-to-gguf.py ../lora_fused_model --outfile ../phi-3-mini-ft.gguf --outtype q8_0创建 Ollma 模型 首先创建 Ollama 的模型文件 ModelFile和上一步生成的 gguf 文件放到同一个目录下 FROM ./phi-3-mini-ft.gguf PARAMETER stop |end| 创建模型 ollama create phi3ft -f Modelfile Ollama 启动模型并进行推理 ollama run phi3ft总结 MLX 模型推理非常简单数据准备好就可以训练和推理本次使用的是 phi3 模型中文支持的不好以后可以试试 Qwen2 怎么样。
http://www.hkea.cn/news/14432689/

相关文章:

  • 网站域名详解长沙微信网站建设
  • 贵阳好的网站建设公司谁家网站做的好
  • 网站建设的基础服务器聊城网站建设服务好
  • 网站运营公司排名商城网站建设那家好
  • 定制网站开发接私活免费企业名录数据
  • wordpress 手机编辑器河南优化网站
  • 做门户网站建设多少钱wordpress修改博客
  • jsp怎样做网站网站怎么做速排
  • 娄底市建设局网站公司招聘网
  • 网站标签title怎么开发手机app软件
  • 上海建设网站是多少wap免费
  • 网页设计书籍推荐网站优化怎么做的
  • 购物网站配色怎么设计seo推广培训
  • 建设银行网站打不开别的网站可以购物网站为什么做移动端
  • 网站 按钮 素材唐山建设工程造价信息网站
  • 同安网站建设linux做网站优势
  • 单位制作网站备案天津建设网工程信息网
  • 北京移动端网站简单去除wordpress主题版权
  • 网站开发如何无感更新WordPress的固态链接
  • 网站空间续费查询服装网站模板免费下载
  • 端口扫描站长工具高唐网站建设服务商
  • 有没有专门做中考卷子的网站亚洲建行网站打不开
  • 连云制作企业网站wordpress主题框架开发
  • 深圳微信网站惠州哪家做网站比较好
  • wordpress自动生成网站地图网站收录就是没排名
  • 网站建设设计咨询电商网站建设心得
  • 哪些网站是单页应用东莞创意网站设计效果图
  • 网站代优化旧宫做网站的公司
  • 黑色风格网站主页面莱芜雪野湖酒店
  • 个人网站开发计划书用手机建立自己的网站