玩具 网站模板,开发公司生产管理部运营模式,宁波网站开发公司怎么样,专业的佛山网站设计私有化部署 DeepSeek Dify#xff0c;构建你的专属私人 AI 助手
概述
DeepSeek 是一款开创性的开源大语言模型#xff0c;凭借其先进的算法架构和反思链能力#xff0c;为 AI 对话交互带来了革新性的体验。通过私有化部署#xff0c;你可以充分掌控数据安全和使用安全。…私有化部署 DeepSeek Dify构建你的专属私人 AI 助手
概述
DeepSeek 是一款开创性的开源大语言模型凭借其先进的算法架构和反思链能力为 AI 对话交互带来了革新性的体验。通过私有化部署你可以充分掌控数据安全和使用安全。你还可以灵活调整部署方案并实现便捷的自定义系统。
Dify 作为同样开源的 AI 应用开发平台提供完整的私有化部署方案。通过将本地部署的 DeepSeek 服务无缝集成到 Dify 平台企业可以在确保数据隐私的前提下在本地服务器环境内构建功能强大的 AI 应用。
以下是私有化部署方案的优势
性能卓越提供媲美商业模型的对话交互体验环境隔离完全离线运行杜绝数据外泄风险数据可控完全掌控数据资产符合合规要求
前置准备
硬件环境
CPU 2 Core显存/RAM ≥ 16 GiB推荐
软件环境
DockerDocker ComposeOllamaDify 社区版
开始部署
1. 安装 Ollama
Ollama 是一款跨平台的大模型管理客户端MacOS、Windows、Linux旨在无缝部署大型语言模型 (LLM)例如 DeepSeek、Llama、Mistral 等。Ollama 提供大模型一键部署所有使用数据均会保存在本地机器内提供全方面的数据隐私和安全性。
访问 Ollama 官网根据提示下载并安装 Ollama 客户端。安装完成后在终端内运行 ollama -v 命令将输出版本号。
➜ ~ ollama -v
ollama version is 0.5.5根据实际的环境配置选择合适的 DeepSeek 尺寸模型进行部署。初次安装推荐安装 7B 尺寸模型。 运行命令 ollama run deepseek-r1:7b 安装 DeepSeek R1 模型。 2. 安装 Dify 社区版
访问 Dify GitHub 项目地址运行以下命令完成拉取代码仓库和安装流程。
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up -d # 如果版本是 Docker Compose V1使用以下命令docker-compose up -d运行命令后你应该会看到所有容器的状态和端口映射。详细说明请参考 Docker Compose 部署。
Dify 社区版默认使用 80 端口点击链接 http://your_server_ip 即可访问你的私有化 Dify 平台。
3. 将 DeepSeek 接入至 Dify
点击 Dify 平台右上角头像 → 设置 → 模型供应商选择 Ollama轻点“添加模型”。 模型供应商内的 DeepSeek 对应在线 API 服务本地部署的 DeepSeek 模型对应 Ollama 客户端。请确保 DeepSeek 模型已成功部署由 Ollama 客户端部署详细部署说明请参考上文。 选择 LLM 模型类型。
Model Name填写具体部署的模型型号。上文部署的模型型号为 deepseek-r1 7b因此填写 deepseek-r1:7bBase URL填写 Ollama 客户端的运行地址通常为 http://your_server_ip:11434。如遇连接问题请阅读中常见问题。其它选项保持默认值。根据 DeepSeek 模型说明最大生成长度为 32,768 Tokens。 搭建 AI 应用
DeepSeek AI Chatbot简单应用
轻点 Dify 平台首页左侧的创建空白应用选择聊天助手类型应用并进行简单的命名。 在右上角的应用类型选择 Ollama 框架内的 deepseek-r1:7b 模型。 在预览对话框中输入内容验证 AI 应用是否能够正常运行。生成答复后意味着 AI 应用的搭建已完成。 轻点应用右上方的发布按钮获取 AI 应用链接并分享给他人或嵌入至其它网站内。
DeepSeek AI Chatflow / Workflow进阶应用 Chatflow / Workflow 应用可以帮助你搭建功能更加复杂的 AI 应用例如具备文件识别、图像识别、语音识别等能力。详细说明请参考工作流文档。 轻点 Dify 平台首页左侧的创建空白应用选择Chatflow 或 “Workflow” 类型应用并进行简单的命名。 添加 LLM 节点选择 Ollama 框架内的 deepseek-r1:7b 模型并在系统提示词内添加 {{#sys.query#}} 变量以连接起始节点。如遇 API 异常可以通过负载均衡功能或异常处理节点进行处理。 添加结束节点完成配置。你可以在预览框中输入内容以进行测试。生成答复后意味着 AI 应用的搭建已完成。 常见问题
1. Docker 部署时的连接错误
当使用 Docker 部署 Dify 和 Ollama 时可能遇到以下错误
httpconnectionpool(host127.0.0.1, port11434): max retries exceeded with url:/cpi/chat
(Caused by NewConnectionError(urllib3.connection.HTTPConnection object at 0x7f8562812c20:
fail to establish a new connection:[Errno 111] Connection refused))
httpconnectionpool(hostlocalhost, port11434): max retries exceeded with url:/cpi/chat
(Caused by NewConnectionError(urllib3.connection.HTTPConnection object at 0x7f8562812c20:
fail to establish a new connection:[Errno 111] Connection refused))错误原因此错误发生是因为 Ollama 服务在 Docker 容器中无法访问。localhost 通常指向容器本身而不是主机或其他容器。要解决此问题需要将 Ollama 服务暴露到网络中。
macOS 环境配置方法
如果 Ollama 作为 macOS 应用运行需要使用 launchctl 设置环境变量 通过调用 launchctl setenv 设置环境变量 launchctl setenv OLLAMA_HOST 0.0.0.0重启 Ollama 应用程序。 如果以上步骤无效可以使用以下方法 问题是在 docker 内部你应该连接到 host.docker.internal才能访问 docker 的主机所以将 localhost 替换为 host.docker.internal 服务就可以生效了 http://host.docker.internal:11434Linux 环境配置方法
如果 Ollama 作为 systemd 服务运行应该使用 systemctl 设置环境变量 通过调用 systemctl edit ollama.service 编辑 systemd 服务。这将打开一个编辑器。 对于每个环境变量在 [Service] 部分下添加一行 Environment [Service]
EnvironmentOLLAMA_HOST0.0.0.0保存并退出。 重载 systemd 并重启 Ollama systemctl daemon-reload
systemctl restart ollamaWindows 环境配置方法
在 Windows 上Ollama 继承了你的用户和系统环境变量。 首先通过任务栏点击 Ollama 退出程序 从控制面板编辑系统环境变量 为你的用户账户编辑或新建变量比如 OLLAMA_HOST、OLLAMA_MODELS 等。 点击 OK / 应用保存 在一个新的终端窗口运行 ollama
2. 如何修改 Ollama 服务地址和端口号
Ollama 默认绑定 127.0.0.1 端口 11434你可以通过 OLLAMA_HOST 环境变量更改绑定地址。 作者langgeniushttps://github.com/langgenius/dify-docs/blob/main/zh_CN/learn-more/use-cases/private-ai-deepseek-dify.md