哪个网站开发好,漳州市建设局网站,山东定制版网站建设公司,久久建筑网资料下载#x1f497;#x1f497;#x1f497;欢迎来到我的博客#xff0c;你将找到有关如何使用技术解决问题的文章#xff0c;也会找到某个技术的学习路线。无论你是何种职业#xff0c;我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章#xff0c;也欢… 欢迎来到我的博客你将找到有关如何使用技术解决问题的文章也会找到某个技术的学习路线。无论你是何种职业我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章也欢迎在文章下方留下你的评论和反馈。我期待着与你分享知识、互相学习和建立一个积极的社区。谢谢你的光临让我们一起踏上这个知识之旅 文章目录 1. 部署 InternLM2-Chat-1.8B 模型进行智能对话2. 部署实战营优秀作品 八戒-Chat-1.8B 模型3. 使用 Lagent 运行 InternLM2-Chat-7B 模型4. 实践部署 浦语·灵笔2 模型总结 1. 部署 InternLM2-Chat-1.8B 模型进行智能对话
首先打开 Intern Studio 界面点击 创建开发机 配置开发机系统。 之后进入点击终端输入环境配置命令
studio-conda -o internlm-base -t demo
# 与 studio-conda 等效的配置方案
# conda create -n demo python3.10 -y
# conda activate demo
# conda install pytorch2.0.1 torchvision0.15.2 torchaudio2.0.2 pytorch-cuda11.7 -c pytorch -c nvidia配置完成后进入到新创建的 conda 环境之中
conda activate demo输入以下命令完成环境包的安装
pip install huggingface-hub0.17.3
pip install transformers4.34
pip install psutil5.9.8
pip install accelerate0.24.1
pip install streamlit1.32.2
pip install matplotlib3.8.3
pip install modelscope1.9.5
pip install sentencepiece0.1.99下载 InternLM2-Chat-1.8B 模型 按路径创建文件夹并进入到对应文件目录中
mkdir -p /root/demo
touch /root/demo/cli_demo.py
touch /root/demo/download_mini.py
cd /root/demo通过左侧文件夹栏目双击进入 demo 文件夹。
双击打开 /root/demo/download_mini.py 文件复制以下代码
import os
from modelscope.hub.snapshot_download import snapshot_download# 创建保存模型目录
os.system(mkdir /root/models)# save_dir是模型保存到本地的目录
save_dir/root/modelssnapshot_download(Shanghai_AI_Laboratory/internlm2-chat-1_8b, cache_dirsave_dir, revisionv1.1.0)
执行命令下载模型参数文件
python /root/demo/download_mini.py运行 cli_demo 双击打开 /root/demo/cli_demo.py 文件复制以下代码
import torch
from transformers import AutoTokenizer, AutoModelForCausalLMmodel_name_or_path /root/models/Shanghai_AI_Laboratory/internlm2-chat-1_8btokenizer AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_codeTrue, device_mapcuda:0)
model AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_codeTrue, torch_dtypetorch.bfloat16, device_mapcuda:0)
model model.eval()system_prompt You are an AI assistant whose name is InternLM (书生·浦语).
- InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.
- InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文.
messages [(system_prompt, )]print(Welcome to InternLM chatbot, type exit to exit.)while True:input_text input(\nUser )input_text input_text.replace( , )if input_text exit:breaklength 0for response, _ in model.stream_chat(tokenizer, input_text, messages):if response is not None:print(response[length:], flushTrue, end)length len(response)
输入命令执行 Demo 程序
conda activate demo
python /root/demo/cli_demo.py等待模型加载完成之后就可以输入内容进行创作了
2. 部署实战营优秀作品 八戒-Chat-1.8B 模型
简单介绍 八戒-Chat-1.8B、Chat-嬛嬛-1.8B、Mini-Horo-巧耳实战营优秀作品 八戒-Chat-1.8B、Chat-嬛嬛-1.8B、Mini-Horo-巧耳 均是在第一期实战营中运用 InternLM2-Chat-1.8B 模型进行微调训练的优秀成果。其中八戒-Chat-1.8B 是利用《西游记》剧本中所有关于猪八戒的台词和语句以及 LLM API 生成的相关数据结果进行全量微调得到的猪八戒聊天模型。作为 Roleplay-with-XiYou 子项目之一八戒-Chat-1.8B 能够以较低的训练成本达到不错的角色模仿能力同时低部署条件能够为后续工作降低算力门槛。 当然同学们也可以参考其他优秀的实战营项目具体模型链接如下 八戒-Chat-1.8Bhttps://www.modelscope.cn/models/JimmyMa99/BaJie-Chat-mini/summary Chat-嬛嬛-1.8Bhttps://openxlab.org.cn/models/detail/BYCJS/huanhuan-chat-internlm2-1_8b Mini-Horo-巧耳https://openxlab.org.cn/models/detail/SaaRaaS/Horowag_Mini 配置基础环境 运行环境命令
conda activate demo使用 git 命令来获得仓库内的 Demo 文件
cd /root/
git clone https://gitee.com/InternLM/Tutorial -b camp2
# git clone https://github.com/InternLM/Tutorial -b camp2
cd /root/Tutorial下载运行 Chat-八戒 Demo 在 Web IDE 中执行 bajie_download.py
python /root/Tutorial/helloworld/bajie_download.py待程序下载完成后输入运行命令
streamlit run /root/Tutorial/helloworld/bajie_chat.py --server.address 127.0.0.1 --server.port 6006待程序运行的同时对端口环境配置本地 PowerShell 。使用快捷键组合 Windows RWindows 即开始菜单键打开指令界面并输入命令按下回车键。Mac 用户打开终端即可
打开 PowerShell 后先查询端口再根据端口键入命令 例如图中端口示例为 38374
# 从本地使用 ssh 连接 studio 端口
# 将下方端口号 38374 替换成自己的端口号
ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p 38374再复制下方的密码输入到 password 中直接回车 打开 http://127.0.0.1:6006 后等待加载完成即可进行对话。
3. 使用 Lagent 运行 InternLM2-Chat-7B 模型 Lagent 是一个轻量级、开源的基于大语言模型的智能体agent框架支持用户快速地将一个大语言模型转变为多种类型的智能体并提供了一些典型工具为大语言模型赋能。 Lagent 的特性总结如下
流式输出提供 stream_chat 接口作流式输出本地就能演示酷炫的流式 Demo。 接口统一设计全面升级提升拓展性包括Model : 不论是 OpenAI API, Transformers 还是推理加速框架 LMDeploy 一网打尽模型切换可以游刃有余Action: 简单的继承和装饰即可打造自己个人的工具集不论 InternLM 还是 GPT 均可适配Agent与 Model 的输入接口保持一致模型到智能体的蜕变只需一步便捷各种 agent 的探索实现文档全面升级API 文档全覆盖。
配置基础环境开启 30% A100 权限后才可开启此章节 打开 Intern Studio 界面调节配置必须在开发机关闭的条件下进行 重新开启开发机输入命令开启 conda 环境
conda activate demo打开文件子路径
cd /root/demo使用 git 命令下载 Lagent 相关的代码库
git clone https://gitee.com/internlm/lagent.git
# git clone https://github.com/internlm/lagent.git
cd /root/demo/lagent
git checkout 581d9fb8987a5d9b72bb9ebd37a95efd47d479ac
pip install -e . # 源码安装使用 Lagent 运行 InternLM2-Chat-7B 模型为内核的智能体 Intern Studio 在 share 文件中预留了实践章节所需要的所有基础模型包括 InternLM2-Chat-7b 、InternLM2-Chat-1.8b 等等。我们可以在后期任务中使用 share 文档中包含的资源但是在本章节为了能让大家了解各类平台使用方法还是推荐同学们按照提示步骤进行实验。
打开 lagent 路径
cd /root/demo/lagent在 terminal 中输入指令构造软链接快捷访问方式
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b打开 lagent 路径下 examples/internlm2_agent_web_demo_hf.py 文件并修改对应位置 (71行左右) 代码
# 其他代码...
value/root/models/internlm2-chat-7b
# 其他代码...输入运行命令 - 点开 6006 链接后大约需要 5 分钟完成模型加载
streamlit run /root/demo/lagent/examples/internlm2_agent_web_demo_hf.py --server.address 127.0.0.1 --server.port 6006待程序运行的同时对本地端口环境配置本地 PowerShell 。使用快捷键组合 Windows RWindows 即开始菜单键打开指令界面并输入命令按下回车键。Mac 用户打开终端即可 打开 PowerShell 后先查询端口再根据端口键入命令 例如图中端口示例为 38374
# 从本地使用 ssh 连接 studio 端口
# 将下方端口号 38374 替换成自己的端口号
ssh -CNg -L 6006:127.0.0.1:6006 rootssh.intern-ai.org.cn -p 38374后面依次是输入密码之后就可以直接访问了
4. 实践部署 浦语·灵笔2 模型
初步介绍 XComposer2 相关知识 浦语·灵笔2 是基于 书生·浦语2 大语言模型研发的突破性的图文多模态大模型具有非凡的图文写作和图像理解能力在多种应用场景表现出色总结起来其具有
自由指令输入的图文写作能力 浦语·灵笔2 可以理解自由形式的图文指令输入包括大纲、文章细节要求、参考图片等为用户打造图文并貌的专属文章。生成的文章文采斐然图文相得益彰提供沉浸式的阅读体验。准确的图文问题解答能力浦语·灵笔2 具有海量图文知识可以准确的回复各种图文问答难题在识别、感知、细节描述、视觉推理等能力上表现惊人。杰出的综合能力 浦语·灵笔2-7B 基于 书生·浦语2-7B 模型在13项多模态评测中大幅领先同量级多模态模型在其中6项评测中超过 GPT-4V 和 Gemini Pro。
配置基础环境开启 50% A100 权限后才可开启此章节
选用 50% A100 进行开发
进入开发机启动 conda 环境
conda activate demo
# 补充环境包
pip install timm0.4.12 sentencepiece0.1.99 markdown22.4.10 xlsxwriter3.1.2 gradio4.13.0 modelscope1.9.5下载 InternLM-XComposer 仓库 相关的代码资源
cd /root/demo
git clone https://gitee.com/internlm/InternLM-XComposer.git
# git clone https://github.com/internlm/InternLM-XComposer.git
cd /root/demo/InternLM-XComposer
git checkout f31220eddca2cf6246ee2ddf8e375a40457ff626在 terminal 中输入指令构造软链接快捷访问方式
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-7b /root/models/internlm-xcomposer2-7b
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-vl-7b /root/models/internlm-xcomposer2-vl-7b图文写作实战开启 50% A100 权限后才可开启此章节 继续输入指令用于启动 InternLM-XComposer
cd /root/demo/InternLM-XComposer
python /root/demo/InternLM-XComposer/examples/gradio_demo_composition.py \
--code_path /root/models/internlm-xcomposer2-7b \
--private \
--num_gpus 1 \
--port 6006待程序运行的同时参考章节 3.3 部分对端口环境配置本地 PowerShell 。步骤雷同
图片理解实战开启 50% A100 权限后才可开启此章节 根据附录 6.4 的方法关闭并重新启动一个新的 terminal继续输入指令启动 InternLM-XComposer2-vl
conda activate democd /root/demo/InternLM-XComposer
python /root/demo/InternLM-XComposer/examples/gradio_demo_chat.py \
--code_path /root/models/internlm-xcomposer2-vl-7b \
--private \
--num_gpus 1 \
--port 6006打开 http://127.0.0.1:6006 (上传图片后) 键入内容示例如下 请分析一下图中内容即可
总结 原文地址如下https://github.com/InternLM/Tutorial/blob/camp2/helloworld/hello_world.md 挑战与创造都是很痛苦的但是很充实。