当前位置: 首页 > news >正文

有了源码怎么做网站公司黄页是什么意思

有了源码怎么做网站,公司黄页是什么意思,网上网站开发,网站设计尺寸Atom-7B与Llama2间的关系#xff1a;Atom-7B是基于Llama2进行中文预训练的开源大模型。为什么叫原子呢#xff1f;因为原子生万物#xff0c;Llama中文社区希望原子大模型未来可以成为构建AI世界的基础单位。目前社区发布了6个模型#xff0c;如下所示#xff1a; FlagAl…Atom-7B与Llama2间的关系Atom-7B是基于Llama2进行中文预训练的开源大模型。为什么叫原子呢因为原子生万物Llama中文社区希望原子大模型未来可以成为构建AI世界的基础单位。目前社区发布了6个模型如下所示 FlagAlpha/Atom-7B FlagAlpha/Llama2-Chinese-7b-Chat FlagAlpha/Llama2-Chinese-7b-Chat-LoRA FlagAlpha/Llama2-Chinese-13b-Chat FlagAlpha/Llama2-Chinese-13b-Chat-LoRA FlagAlpha/Llama2-Chinese-13b-Chat-4bit一.Llama2-Chinese项目介绍 1.Llama相关论文 LLaMA: Open and Efficient Foundation Language Models Llama 2: Open Foundation and Fine-Tuned Chat Models Code Llama: Open Foundation Models for Code 2.Llama2的评测结果 二.Atom-7B加载和推理 模型调用代码示例如下所示 from transformers import AutoTokenizer, AutoModelForCausalLM from pathlib import Path import torchpretrained_model_name_or_path rL:/20230903_Llama2/Atom-7B model AutoModelForCausalLM.from_pretrained(Path(f{pretrained_model_name_or_path}), device_mapauto, torch_dtypetorch.float16, load_in_8bitTrue) #加载模型 model model.eval() #切换到eval模式 tokenizer AutoTokenizer.from_pretrained(Path(f{pretrained_model_name_or_path}), use_fastFalse) #加载tokenizer tokenizer.pad_token tokenizer.eos_token #为了防止生成的文本出现[PAD]这里将[PAD]重置为[EOS] input_ids tokenizer([sHuman: 介绍一下中国\n/ssAssistant: ], return_tensorspt, add_special_tokensFalse).input_ids.to(cuda) #将输入的文本转换为token generate_input {input_ids: input_ids, #输入的tokenmax_new_tokens: 512, #最大生成的token数量do_sample: True, #是否采样top_k: 50, #采样的top_ktop_p: 0.95, #采样的top_ptemperature: 0.3, #采样的temperaturerepetition_penalty: 1.3, #重复惩罚eos_token_id: tokenizer.eos_token_id, #结束tokenbos_token_id: tokenizer.bos_token_id, #开始tokenpad_token_id: tokenizer.pad_token_id #pad token } generate_ids model.generate(**generate_input) #生成token text tokenizer.decode(generate_ids[0]) #将token转换为文本 print(text) #输出生成的文本三.相关知识点 1.Fire库 解析Fire是一个Google开发的库用于自动生成Python命令行接口CLI。它可以帮助开发人员快速将Python对象和函数暴露为命令行工具。使用Fire可以自动创建命令行参数参数类型和默认值等。 2.Llama1和Llama2区别 解析 (1)Llama2采用Llama1的大部分预训练设置和模型架构它们使用标准的Transformer架构应用RMSNorm进行预归一化使用SwiGLU激活函数和旋转位置编码。与Llama1相比主要的架构差异包括增加的上下文长度和分组查询注意力GQA。 (2)Llama2总共公布了7B、13B和70B三种参数大小的模型。相比于LLaMALlama2的训练数据达到了2万亿token上下文长度也由之前的2048升级到4096可以理解和生成更长的文本。Llama2Chat模型基于100万人类标记数据微调得到在英文对话上达到了接近ChatGPT的效果。 四.相关问题 1.CUDA Setup failed despite GPU being available 解析如下是网上介绍的解决方案还有的建议源码编译但是这2种方案都没有走通。 (1)安装路径 bitsandbytes路径(0.39.1)D:\Python38\Lib\site-packages\bitsandbytesCUDA路径(v12.1)C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1\bin 将CUDA路径(v12.1)下的文件拷贝到bitsandbytes路径(0.39.1)目录下 cudart64_12.dll cublas64_12.dll cublasLt64_12.dll cusparse64_12.dll nvJitLink_120_0.dll实践经验建议方式[8]为pip3 install https://github.com/jllllll/bitsandbytes-windows-webui/blob/main/bitsandbytes-0.39.0-py3-none-any.whl。有图有证据如下所示 (2)修改文件 D:\Python38\Lib\site-packages\bitsandbytes\cuda_setup\main.py 将if not torch.cuda.is_available(): return libsbitsandbytes_cpu.so, None, None, None, None替换为if torch.cuda.is_available(): return libbitsandbytes_cuda116.dll, None, None, None, None将2个地方的self.lib ct.cdll.LoadLibrary(binary_path)替换为self.lib ct.cdll.LoadLibrary(str(binary_path)) (3)添加libbitsandbytes_cuda116.dll和libbitsandbytes_cpu.dll 存放路径为D:\Python38\Lib\site-packages\bitsandbytes下载地址参考[0]。 2.RuntimeError: cuDNN error: CUDNN_STATUS_NOT_INITIALIZED 解析下载链接为[7]下载之前需要NVIDIA社区账号登录。 (1)解压cudnn-windows-x86_64-8.9.4.25_cuda12-archive.zip (2)拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1 参考文献 [0]https://github.com/DeXtmL/bitsandbytes-win-prebuilt/tree/main [1]https://github.com/facebookresearch/llama [2]https://github.com/facebookresearch/llama-recipes/ [3]https://huggingface.co/meta-llama/Llama-2-7b-hf/tree/main [4]https://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI [5]https://huggingface.co/meta-llama/Llama-2-70b-chat-hf [6]https://huggingface.co/blog/llama2 [7]https://developer.nvidia.com/rdp/cudnn-download [8]https://github.com/jllllll/bitsandbytes-windows-webui [9]https://github.com/langchain-ai/langchain [10]https://github.com/AtomEcho/AtomBulb [11]https://github.com/huggingface/peft [12]全参数微调时报没有target_modules变量https://github.com/FlagAlpha/Llama2-Chinese/issues/169 [13]https://huggingface.co/FlagAlpha [14]https://llama.family/
http://www.hkea.cn/news/14340764/

相关文章:

  • 上海网站设计团队wordpress更改作者
  • 正能量软件不良网站下载制作游戏网站公司
  • 做儿童网站如何撰写一个网站规划建设方案
  • 海尔建设此网站的目的郑青松找谁做的网站
  • 芜湖做的好的招聘网站wordpress 评论 姓名
  • 做电商网站一般需要什么流程帝国手机网站怎么做
  • 浙江耀华建设集团网站建立个人网站要钱吗
  • 制作精美网站建设服务周到wordpress实现mp4播放器
  • wordpress 顶部工具栏苏州优化平台
  • 怎么做视频解析的网站建筑模板规格
  • 奉贤北京网站建设丹阳网站推广
  • iis网站权限怎么设置手机怎么创建链接网址
  • 寿光建设集团网站怎么做图片网站
  • 营销型网站建设细节wordpress图片显示
  • 开发网站监控平台北京市建设质量监督网站
  • 网站建设与管理主要学什么8x2558xcom直接观看
  • 做网站引用别人的图片长沙网站建
  • 如何免费注册网站平台分销网站系统
  • 什么网站可以做认证销售培训课程一般有哪些
  • 做网站哪个好单位网站建设情况调查情况
  • 网站建设的目的和目标科技公司网站设计
  • 网站域名如何实名认证鞭打wordpress
  • 设计公司 网站淘宝客是如何做网站与淘宝对接的
  • 游戏网站模板小程序设计案例
  • 宁波网站建设wordpress 搭建vultr
  • 网站推广的渠道有中国免费网站服务器2020
  • 导航网站怎么做的黄浦区网站建设
  • 绵阳网站建设网站建设dw网页制作教程经验
  • 网站如何做付费wordpress 手机菜单栏插件
  • 黄骅住房和城乡建设局网站衡水安徽学校网站建设