当前位置: 首页 > news >正文

网站开发需要用到哪些技术租服务器去哪里租

网站开发需要用到哪些技术,租服务器去哪里租,用pw后缀的网站,天津搜索引擎推广系统非常好用的大语言模型推理框架 bigdl-llm#xff0c;现改名为 ipex-llm bigdl-llmgithub地址环境安装依赖下载测试模型加载和优化预训练模型使用优化后的模型构建一个聊天应用 bigdl-llm IPEX-LLM is a PyTorch library for running LLM on Intel CPU and GPU (e.g., local P… 非常好用的大语言模型推理框架 bigdl-llm现改名为 ipex-llm bigdl-llmgithub地址环境安装依赖下载测试模型加载和优化预训练模型使用优化后的模型构建一个聊天应用 bigdl-llm IPEX-LLM is a PyTorch library for running LLM on Intel CPU and GPU (e.g., local PC with iGPU, discrete GPU such as Arc, Flex and Max) with very low latency1. It is built on top of Intel Extension for PyTorch (IPEX), as well as the excellent work of llama.cpp, bitsandbytes, vLLM, qlora, AutoGPTQ, AutoAWQ, etc.It provides seamless integration with llama.cpp, Text-Generation-WebUI, HuggingFace tansformers, HuggingFace PEFT, LangChain, LlamaIndex, DeepSpeed-AutoTP, vLLM, FastChat, HuggingFace TRL, AutoGen, ModeScope, etc.50 models have been optimized/verified on ipex-llm (including LLaMA2, Mistral, Mixtral, Gemma, LLaVA, Whisper, ChatGLM, Baichuan, Qwen, RWKV, and more); see the complete list here. github地址 https://github.com/intel-analytics/ipex-llm环境 ubuntu 22.04LTSpython 3.11 安装依赖 pip install --pre --upgrade bigdl-llm[all] -i https://mirrors.aliyun.com/pypi/simple/下载测试模型 按照这篇文章进行配置即可飞速下载大模型无需 VPN 即可急速下载 huggingface 上的 LLM 模型 下载指令 huggingface-cli download --resume-download databricks/dolly-v2-3b --local-dir databricks/dolly-v2-3b加载和优化预训练模型 加载和优化模型 from bigdl.llm.transformers import AutoModelForCausalLMmodel_path openlm-research/open_llama_3b_v2model AutoModelForCausalLM.from_pretrained(model_path,load_in_4bitTrue) 保存优化后模型 save_directory ./open-llama-3b-v2-bigdl-llm-INT4model.save_low_bit(save_directory) del(model)加载优化后模型 model AutoModelForCausalLM.load_low_bit(save_directory) 使用优化后的模型构建一个聊天应用 from bigdl.llm.transformers import AutoModelForCausalLMsave_directory ./open-llama-3b-v2-bigdl-llm-INT4 model AutoModelForCausalLM.load_low_bit(save_directory)import torchwith torch.inference_mode():prompt Q: What is CPU?\nA:# tokenize the input prompt from string to token idsinput_ids tokenizer.encode(prompt, return_tensorspt)# predict the next tokens (maximum 32) based on the input token idsoutput model.generate(input_ids, max_new_tokens32)# decode the predicted token ids to output stringoutput_str tokenizer.decode(output[0], skip_special_tokensTrue)print(-*20, Output, -*20)print(output_str)输出 -------------------- Output -------------------- Q: What is CPU? A: CPU stands for Central Processing Unit. It is the brain of the computer. Q: What is RAM? A: RAM stands for Random Access Memory. 其他相关api可查看这里https://github.com/intel-analytics/bigdl-llm-tutorial/blob/main/Chinese_Version/ch_3_AppDev_Basic/3_BasicApp.ipynb
http://www.hkea.cn/news/14529720/

相关文章:

  • 广州市公司网站建设品牌江苏强荣建设有限公司网站
  • 做网站时给网页增加提醒潍坊百度seo公司
  • 给网站加织梦后台小广告治理
  • 网站建设嘉兴wordpress更换主题帖子封面不显示
  • 做网站上哪买空间平湖建设局网站
  • 深圳微商城网站设计制作wordpress添加注册页面模板
  • 织梦做的网站怎么发布杭州公司建网站
  • 揭阳网站制作机构可编辑wordpress主题
  • 大兴网站制作青海建设厅网站尚少岩
  • 赣州网站建设怎样晋江论坛网友交流留言区
  • 三星网站建设内容爱情动做网站推荐
  • 手机网站APP网络推广商城网站社群运营
  • 详情页设计模板网站门户网站都有哪些内容
  • 做旅游网站的yi鲜花网页设计模板
  • 地域名网址ip查询团购网站如何优化
  • 网站建设方案书域名备案菏泽网站建设
  • 网站 wap 插件婚恋网站女孩子都是做美容
  • 寿光网站建设推广大连金州代做网站公众号
  • 外国永久网站广州建筑集团网站
  • 南昌网站定制phpcms做视频网站
  • dedecms游戏门户网站源码卓手机建网站
  • 整人关不掉的网站怎么做虚拟机怎么做多个网站
  • 图片链接生成网站宜城网站建设哪家好
  • 中国水利教育培训网站选择网站建设公司好
  • 网站建设和执纪监督怎么联系地推公司
  • 邢台移动网站建设价格郴州建设工程建设信息网站
  • 中山市网站开发外包公司全国前十装饰公司排名
  • 郑州汉狮专业做网站公司dede导入wordpress
  • 龙岗建网站公司齐鲁人才网招聘网
  • 技术网站摄影网页设计方案