网站备案医疗保健审批号是什么,新站seo快速排名 排名,国内永久免费的crm,wordpress 简繁体 插件最近DeepSeek爆火#xff0c;试用DeepSeek的企业和个人越来越多。最常见的应用场景就是知识库和知识问答。所以本人也试用了一下#xff0c;在笔记本电脑上部署DeepSeek并使用开源工具搭建一套知识库#xff0c;实现完全在本地环境下使用本地文档搭建个人知识库。操作过程共…最近DeepSeek爆火试用DeepSeek的企业和个人越来越多。最常见的应用场景就是知识库和知识问答。所以本人也试用了一下在笔记本电脑上部署DeepSeek并使用开源工具搭建一套知识库实现完全在本地环境下使用本地文档搭建个人知识库。操作过程共享出来供大家参考。
部署环境
笔记本电脑具体配置如下 处理器Intel(R) Core(TM) i7-10510U CPU 1.80GHz 2.30 GHz 内存16G 硬盘500G 显卡集成显卡 操作系统Windows 11 软件清单
构建本地知识库除了DeepSeek还需要安装知识库软件。网上推荐比较多的是RagFlow软件开源功能也很强大可以使用本地文档构建外挂知识库。另外同时也安装了Cherry Studio可以作为操作DeepSeek的交互工具。
软件功能版本依赖工具DeepSeekLLM模型主要用于自然语言理解和推理deepseek-r1:7bOllamaCherry Studio一款强大的多模型 AI 助手可用于DeepSeek的人机交互最新版就好BGE通用向量模型用于知识库中文档检索bge-m3:latestRAGFlow知识库构建工具最新版就好 Docker Git
安装DeepSeek
从官网下载并安装Ollama过程略。可参考 https://ollama.com/ 安装完毕后执行命令
ollama run deepseek-r1:7b
安装成功后就可以在命令行里操作deepseek了。 操作很简单。至此deepseek就安装完毕。
安装Cherry Studio
如果不习惯使用命令行希望使用客户端与本地安装的deepseek交互可以安装一个对话界面软件我试用了Chatbox和Cherry Studio都不错可以更直观地调整模型的参数和提示词同时也支持将对话内容完全存档在本地本文以Cherry Studio为例。
前往https://cherry-ai.com/根据你的操作系统支持 Windows、Mac 和 Linux下载对应的安装包。默认下一步安装完毕就好。
启动Cherry Studio添加嵌入模型。 在模型服务中选择Ollama 点击“管理”进行模型选择从模型列表中选择与你本地部署的 DeepSeek-R1 模型版本对应的选项如果没有直接匹配项选择支持自定义模型配置的入口。
在“API地址”中将 API 地址设置为http://localhost:11434 这是 Ollama 服务的默认接口地址确保 Cherry Studio 能连接到本地运行的 DeepSeek-R1 模型。 保存后就可以创建助手与本地deepseek进行对话了。 安装RAGFlow
RAGFlow使用Docker部署运行因此需要先在电脑上部署Docker环境。同时本文采用从GitHub仓库直接拉取镜像部署的方式因此也需要提前安装Git。 可访问官方 GitHub 仓库的 README 页面拉取镜像并按照文档中的指引安装部署https://github.com/infiniflow/ragflow/blob/main/README_zh.md 如果遇到问题可访问网络上部署 RAGFlow 的踩坑帖子如https://blog.csdn.net/gr1785/article/details/145543754?spm1001.2014.3001.5502 如果电脑没装Docker可以参考Windows | Docker Docs 自行安装本文使用WSL。 安装完毕后要记得启动“Docker Desktop”否则后面执行docker命令时会报错。 如果电脑没装Git可以从Git - Downloading Package下载安装文件进行安装。
安装完毕后进入命令行将RAGFlow工程Clone到本地文件夹下。
$ git clone https://github.com/infiniflow/ragflow.git 进入 docker 文件夹
$ cd ragflow/docker
利用提前编译好的 Docker 镜像启动服务器
运行以下命令会自动下载 RAGFlow slim Docker 镜像 v0.16.0-slim。
$ docker compose -f docker-compose.yml up -d 如需下载不同于 v0.16.0-slim 的 Docker 镜像请在运行 docker compose 启动服务之前先更新 docker/.env 文件内的 RAGFLOW_IMAGE 变量。比如你可以通过设置 RAGFLOW_IMAGEinfiniflow/ragflow:v0.16.0 来下载 RAGFlow 镜像的 v0.16.0 完整发行版。 如果遇到 Docker 镜像拉不下来的问题可以在 docker/.env 文件内根据变量 RAGFLOW_IMAGE 的注释提示选择华为云的相应镜像。 华为云镜像名swr.cn-north-4.myhuaweicloud.com/infiniflow/ragflow 运行成功后打开浏览器登录localhost进入RAGFlow页面。注册账号后就可以登录使用了。
设置知识库
使用RAGFlow设置知识库首先要在“模型提供商”中添加模型。必须要添加的有两个模型一个是LLM模型使用DeepSeek另一个是嵌入模型使用bge-m3。
在“待添加的模型”列表中选择“Ollama”添加LLM. “最大token数”可以通过如下命令获取后填入。
ollama show deepseek-r1:7b
“基础Url”需要注意如果填写“http://localhost:11434”会遇到“[Errno 111] Connection refused”的异常。原因是Docker中的程序访问不到本机的11434端口可以参考
[Question]: Fail to access model(deepseek-r1:8b).**ERROR**: [Errno 111] Connection refused因此此处要注意“基础Url”处填写 http://host.docker.internal:11434 添加嵌入模型前首先使用Ollama 安装bge-m3
ollama pull bge-m3
然后配置嵌入模型。 模型添加成功后进入“系统模型设置”选择添加的模型。 然后就可以创建知识库了。
在知识库设置中修改语言、权限、嵌入模型。 在“数据集”中上传所需的文档。 上传成功后选择文档进行“解析”。 上传了几个PDF文档解析的效果还不错。解析分段如果有不准确的地方可以人工修正。 数据集准备就绪后就可以“新建助理”然后问问题了。 相比于互联网模型个人知识库会从结合本地文档训练的数据集进行分析更加符合个人专业诉求。
总结
DeepSeek确实很香搭配开源工具不花一分钱就搭建了一个定制化的知识库。从回答的逻辑和文档解析的效果看都很不错。当然本案例个人尝鲜可以作企业商用还不行抛开企业定制化和运维需求之外主要问题有两个
1. 个人笔记本的配置部署7b小模型已经是极限了使用Cherry Studio做问答速度还可以。但使用RAGFlow做的个人知识库做问答确实慢的要死。正式使用或企业商用还是需要试用商用推荐配置。
2. 数据集质量极大影响知识库问答效果因此高价值的原始数据以及对原始数据的解析整理十分重要。现在工具能力相当不错了但数据工程将是企业数据库构建的主要挑战。