当前位置: 首页 > news >正文

seo网站推广优化费用小程序平台商城

seo网站推广优化费用,小程序平台商城,微网站建设网络,安阳+网站建设LLAMA2在不同系统上运行的结果 LLAMA2 在windows 上运行的结果 LLAMA2 在Mac上运行的结果 安装Llama2的不同方法 方法一#xff1a; 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 通过conda 创建或者venv. 下面是通过conda 创建…LLAMA2在不同系统上运行的结果 LLAMA2 在windows 上运行的结果 LLAMA2 在Mac上运行的结果 安装Llama2的不同方法 方法一 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 通过conda 创建或者venv. 下面是通过conda 创建的。 conda create --name llama_test python3.9 conda activate llama_test 安装python依赖的包 pip3 install -r requirements.txt 编译llama.cpp mac LLAMA_METAL1 make windows , 用powershell 运行 make 下载llama2模型 直接在huggingface里下载量化了的 gguf格式的llama2模型。 https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGUF/tree/main 我下载的是llama-2-7b-chat.Q4_0.gguf 拷贝llama-2-7b-chat.Q4_0.gguf 到llama.cpp目录里的models目录里 运行模型 如果是windows要用powershell ./main -m ./models/llama-2-7b-chat.Q4_0.gguf --color --ctx_size 2048 -n -1 -ins -b 256 --top_k 10000 --temp 0.2 --repeat_penalty 1.1 -t 8 方法二 Meta已将llama2开源任何人都可以通过在meta ai上申请并接受许可证、提供电子邮件地址来获取模型。 Meta 将在电子邮件中发送下载链接。 下载llama2  获取download.sh文件将其存储在mac上打开mac终端执行 chmod x ./download.sh 赋予权限。运行 ./download.sh 开始下载过程复制电子邮件中的下载链接粘贴到终端仅下载13B-chat 安装系统依赖的东西 必须安装 Xcode 才能编译 C 项目。 如果您没有请执行以下操作 xcode-select --install 接下来安装用于构建 C 项目的依赖项。 brew install pkgconfig cmake最后我们安装 Torch。 如果您没有安装python3请通过以下方式安装 brew install python3.11 像这样创建一个虚拟环境 /opt/homebrew/bin/python3.11 -m venv venv 激活 venv。 source venv/bin/activate 安装 PyTorch: pip install --pre torch torchvision --extra-index-url https://download.pytorch.org/whl/nightly/cpu 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 安装python依赖包 pip3 install -r requirements.txt 编译 LLAMA_METAL1 make 如果你有两个arch (x86_64, arm64), 可以用下面指定arm64 arch -arm64 make 将下载的 13B 移至 models 文件夹下的 llama.cpp 项目。 将模型转换为ggml格式 13B和70B是不一样的。 Convert-pth-to-ggml.py 已弃用请使用 Convert.py 代替 13B-chat python3 convert.py --outfile ./models/llama-2-13b-chat/ggml-model-f16.bin --outtype f16 ./models/llama-2-13b-chat Quantize 模型: In order to run these huge LLMs in our small laptops we will need to reconstruct and quantize the model with the following commands, here we will convert the model’s weights from float16 to int4 requiring less memory to be executed and only losing a little bit of quality in the process. 13B-chat: ./quantize ./models/llama-2-13b-chat/ggml-model-f16.bin ./models/llama-2-13b-chat/ggml-model-q4_0.bin q4_0 运行模型 ./main -m ./models/llama-2-13b-chat/ggml-model-q4_0.bin -t 4 -c 2048 -n 2048 --color -i -r ### Question: -p ### Question: 您可以使用 -ngl 1 命令行参数启用 GPU 推理。 任何大于 0 的值都会将计算负载转移到 GPU。 例如 ./main -m ./models/llama-2-13b-chat/ggml-model-q4_0.bin -t 4 -c 2048 -n 2048 --color -i -ngl 1 -r ### Question: -p ### Question: 在我的 Mac 上测试时它比纯 cpu 快大约 25%。 其它 ggml格式的llama2 如果你下载的是ggml格式的 要运行下面命令转换格式 python convert-llama-ggml-to-gguf.py --eps 1e-5 -i ./models/llama-2-13b-chat.ggmlv3.q4_0.bin -o ./models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin (llama) C:\Users\Harry\PycharmProjects\llama.cpppython convert-llama-ggml-to-gguf.py --eps 1e-5 -i ./models/llama-2-13b-chat.ggmlv3.q4_0.bin -o ./models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin * Using config: Namespace(inputWindowsPath(models/llama-2-13b-chat.ggmlv3.q4_0.bin), outputWindowsPath(models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin), nameNone, descNone, gqa1, eps1e-5, context_length2048, model_metadata_dirNone, vocab_dirNone, vocabtypespm) WARNING Be aware that this conversion script is best-effort. Use a native GGUF model if possible. WARNING - Note: If converting LLaMA2, specifying --eps 1e-5 is required. 70B models also need --gqa 8. * Scanning GGML input file * File format: GGJTv3 with ftype MOSTLY_Q4_0 * GGML model hyperparameters: Hyperparameters: n_vocab32000, n_embd5120, n_mult256, n_head40, n_layer40, n_rot128, n_ff13824, ftypeMOSTLY_Q4_0 WARNING Special tokens may not be converted correctly. Use --model-metadata-dir if possible WARNING * Preparing to save GGUF file This gguf file is for Little Endian only * Adding model parameters and KV items * Adding 32000 vocab item(s) * Adding 363 tensor(s)gguf: write headergguf: write metadatagguf: write tensors * Successful completion. Output saved to: models\llama-2-13b-chat.ggmlv3.q4_0.gguf.bin 参考资料 GitHub - facebookresearch/llama: Inference code for LLaMA models A comprehensive guide to running Llama 2 locally – Replicate
http://www.hkea.cn/news/14577455/

相关文章:

  • dedecms网站邮件程序怎麽做网站
  • 网站什么开发正版厦门网站设计公司
  • 武进网站建设效果宁波seo推广优化
  • 联想用来网站开发笔记本wordpress产品单页
  • 公司做网站费用入什么科目如何做网站反链
  • nas做网站需要备案吗天津商城网站设计公司
  • 国外做家装的网站有哪些兰州网站建设流程
  • 福田网站建设结业论文常德网站建设网站优化
  • 赤峰做企业网站公司深圳高端写字楼
  • 松江做网站百度官方下载安装
  • 用wex5 网站开发网站建公司简介
  • 建设购物网站的意义多作者wordpress插件
  • 百度生成在线网站地图去水印小程序搭建
  • php网站开发试卷沭阳奥体小区做网站
  • 网站建设的数据储存在哪里中国网站建设公司百强
  • 电子商务智能建站深圳大胜上海
  • 给彩票网站做代理违法吗wordpress表单支付
  • 自己做的网站给人攻击了怎么办软件开发涵盖网站开发吗
  • 学完网站建设再可以学什么莱芜热点
  • 什么语言开发网站考研门户网站的建设
  • 网站策划刚学完网站开发
  • 一件代发48个货源网站湖南响应式网站公司
  • 仙桃有哪些做网站的公司百度下载安装2022最新版
  • wordpress主题超限做网站分为竞价和优化
  • 宁波专业做网站软件开发流程解读
  • 安徽东皖建设集团有限公司网站专业的镇江网站建设
  • wap网站实例wordpress代码高亮知乎
  • 浙江网站建设费用有没有专门搞网站上线的公司
  • 新加坡域名注册网站建设网站需要哪些内容
  • 网站修改联系方式网站宣传册怎么做的