南京网站seo优化公司,米可网络科技有限公司,网站做邮箱,深圳市专业的做网站1、背景#xff1a; 2025年1月#xff0c;DeepSeek 正式发布 DeepSeek-R1 推理大模型。DeepSeek-R1 因其成本价格低廉#xff0c;性能卓越#xff0c;在 AI 行业引起了广泛关注。DeepSeek 提供了多种使用方式#xff0c;满足不同用户的需求和场景。本地部署在数据安全、性…1、背景 2025年1月DeepSeek 正式发布 DeepSeek-R1 推理大模型。DeepSeek-R1 因其成本价格低廉性能卓越在 AI 行业引起了广泛关注。DeepSeek 提供了多种使用方式满足不同用户的需求和场景。本地部署在数据安全、性能、定制化、成本、离线可用性和技术自主性方面具有显著优势。 本文详细讲解 基于 OllamaDockerOpenWebUI 的本地windows部署流程 2、环境需求
1.1 硬件需求
DeepSeek R1 本地部署的硬件需求如下 1.2 软件依赖 DeepSeek R1 本地部署的软件依赖包括操作系统、容器化工具、编程语言、深度学习框架、数据库、消息队列、Web 服务器、GPU 加速工具、版本控制、包管理工具、监控与日志工具以及安全工具。 本教程采用 Windows server 2016 64位操作版本、Python 3.8 版本、PyTorch 1.7 版本。 3、Ollama 下载与安装
1.1 Ollama 的下载: Ollama 是一个开源的本地模型运行工具可以方便地下载和运行各种开源模型如 Llama、Qwen、DeepSeek 等。Ollama 提供高效、灵活的大模型部署和管理解决方案可以简化模型的部署流程。支持macOS、Linux、Windows 操作系统。 ollama官网地址https://ollama.com/ ollama下载地址https://ollama.com/download 本教程选择 Ollama Windows 版本下载。 1.2 Ollama 的安装: 下载完成后直接点击 OllamaSetup.exe 进行安装。 安装完成后cmd 打开命令行窗口输入 “ollama -v” 测试显示 ollama 的版本为 “0.5.7”表明安装成功。 1.3 Ollama 的运行: Ollama 没有用户界面在后台运行。 打开浏览器输入 “http://localhost:11434/”显示 “Ollama is running”。 4、deepseek-r1 模型安装
1.1 Ollma 安装 deepseek-r1 模型 从 ollama 官网 查找 deepseek-r1 模型。 点击进入 deepseek-r1 模型可以选择不同版本的模型1.5b/7b/14b/32b/70b/671b。 deepseek-r1 提供多个版本参数量越大模型的性能越强大但也需要更多的存储和计算资源。 1.5b 模型参数为15亿/1.1GB7b 模型参数约为 70亿/4.7GB14b 模型参数约为 140亿/9GB。 deepseek-r1 不同版本模型的执行命令不同 1.5b 的命令为 ollama run deepseek-r1:1.5b 7b 的命令为 ollama run deepseek-r1:7b 14b 的命令为 ollama run deepseek-r1:14b 本教程选择选择 7b 模型在CMD命令行窗口运行安装命令 “ollama run deepseek-r1:7b”程序会自动下载和安装运行。 安装完成后显示 “success”表明安装成功。 注默认地址是 “C:\Users%username%.ollama\models”。 如果要修改模型的保存地址可以新建一个文件夹如 “C:\Model” 然后在系统环境变量添加系统变量 “变量名OLLAMA_MODELS变量值C:\Model”。 1.2 使用 deepseek-r1 模型: 在命令行窗口运行命令 “ollama run deepseek-r1:7b”就可以在提示行输入与 deepseek-r1 进行聊天。 输入 “/?”可以获得帮助。 注通过本地命令行窗口可以使用 deepseek-r1但这让人回到了 DOS 年代交互体验很差。接下来我们按照 Docker 和 Open WebUI 用户界面可以更便捷地使用 deepseek-r1。