当前位置: 首页 > news >正文

高级网站设计效果图郑州seo网络营销技术

高级网站设计效果图,郑州seo网络营销技术,广州市专注网站建设公司,wix网页制作对于机器在内网#xff0c;无法连接互联网的服务器来说#xff0c;想要部署体验开源的大模型#xff0c;需要拷贝各种依赖文件进行环境搭建难度较大#xff0c;本文介绍如何通过制作docker镜像的方式#xff0c;通过llama.cpp实现量化大模型的快速内网部署体验。 一、llam…对于机器在内网无法连接互联网的服务器来说想要部署体验开源的大模型需要拷贝各种依赖文件进行环境搭建难度较大本文介绍如何通过制作docker镜像的方式通过llama.cpp实现量化大模型的快速内网部署体验。 一、llama_cpp介绍 LLaMA 全称是Large Language Model Meta AI是由Meta AI原FacebookAI研究实验室研究人员发布的一个预训练语言模型。该模型最大的特点就是基于以较小的参数规模取得了优秀的性能模型参数量从7B到65B 与其他大型语言模型一样LLaMA的工作原理是将一连串的单词作为输入并预测下一个单词以递归地生成文本。 LLaMA.cpp 项目是开发者 Georgi Gerganov 基于 Meta 的 LLaMA 模型实现的纯 C/C 版本用于模型推理。 无需任何额外依赖相比 Python 代码对 PyTorch 等库的要求C/C 直接编译出可执行文件跳过不同硬件的繁杂准备可以在笔记本上运行大大降低了门槛。 项目开源地址GitHub - ggerganov/llama.cpp: Port of Facebooks LLaMA model in C/C 二、镜像制作过程 1、下载基础镜像 在dockerhub上下载对应的镜像版本关注需要的cuda版本和操作系统版本。 docker pull nvidia/cuda:11.2.2-devel-ubuntu20.04 运行镜像 docker run -id --gpus all -v D:\download:/app/model -p 8080:8080 nvidia/cuda:11.2.2-devel-ubuntu20.04 进入容器 docker exec -it xxxx /bin/bash 2、配置yum apt-get -y install git wget 修改国内源 gedit /etc/apt/sources.list deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse apt-get update 3、安装python3.10 下载依赖 apt install build-essential zlib1g-dev libncurses5-dev libgdbm-dev libnss3-dev libssl-dev libreadline-dev libffi-dev libsqlite3-dev wget libbz2-dev 下载python源码 wget https://www.python.org/ftp/python/3.10.0/Python-3.10.0.tgz tar -zvxf Python-3.10.0.tgz cd Python-3.10.0/ 配置 ./configure --enable-optimizations 编译 make 安装 make install 更新python默认指向删除旧的链接 remove /usr/bin/python ln -s /usr/local/bin/python3.10 /usr/bin/python ln -s /usr/local/bin/pip3 /usr/bin/pip 4、安装make等其他库 apt-get -y install build-essential libgl-dev libglib2.0-0 gcc g make cmake unzip curl 5、安装llama.app mkdir /app cd /app git clone GitHub - ggerganov/llama.cpp: Port of Facebooks LLaMA model in C/C cd llama.cpp mkdir build cd build cmake .. -DLLAMA_CUBLASON cmake --build . --config Release 报错如下 报错 CMake Error at CMakeLists.txt:252 (cmake_minimum_required): CMake 3.17 or higher is required.  You are running version 3.16.3 -- Configuring incomplete, errors occurred! 6.更新cmake版本(如果上一步没有报错则跳过该步骤) wget https://cmake.org/files/v3.23/cmake-3.23.0.tar.gz tar -zxvf cmake-3.23.0.tar.gz cd cmake-3.23.0 ./configure make -j8 make install ln -s /usr/local/bin/cmake /usr/bin/cmake 重新编译安装 cmake .. -DLLAMA_CUBLASON cmake --build . --config Release 成功 7.运行 ./server --host 0.0.0.0 -m /app/model/xxxx.gguf -c 128 -ngl 10
http://www.hkea.cn/news/14495256/

相关文章:

  • 网络公司网站建设方案做cps的网络文学网站
  • 深圳市住房建设局网站网站主机安全
  • 建设个网站多少钱珠海电视台app下载
  • 网站建设的局限性wordpress后台白屏
  • 长春网站网站建设自评报告
  • 仙居县建设规划局网站西城专业网站建设公司哪家好
  • 茌平微网站建设建站小程序快速上线
  • 服装网站建设前期规划方案中山网站制作专业
  • 平面设计素材免费网站有哪些凡科网站怎么做友情链接
  • 网站积分商城该怎么建立seo和sem分别是什么
  • 网站建设中图片做电商网站的参考书
  • wap手机网站开发asp经验做企业网站的公司
  • 江苏网站备案流程专业做网盘资源收录分享的网站
  • 建站快车网站建设英文翻译
  • 大型网站得多少钱企业网站的建设哪家比较好
  • 深圳建站公司哪个济南兴田德润简介做刀网站
  • 重庆自助建站模板网站主色怎么选择
  • wordpress建站配置个人网站域名怎么取
  • 有哪些手机网站杭州小程序搭建
  • 大德通众包网站建设做的网站如何更换网站模板
  • 什么样的公司愿意做网站企业网站建设费用深圳
  • m域名网站安全吗广西建设厅网站彭新唐
  • 网站平台怎么建设做网站电话销售说辞
  • 建设网站去哪里找网站设计论文前言怎么写
  • 大学同学会网站建设方案济宁网站网站建设
  • 直播平台网站开发长链接在线转化短链接
  • 网站怎么提升流量四川聚顺成网络科技有限公司
  • 做好的网站怎么演示深圳做美颜相机的公司
  • 香水网站建设规划书制作网站的技术
  • 网站源码资源中企动力邮箱