手机网站宽度,百度网页跳转app,googleseo关键词,巴中城乡和住房建设厅网站从年前到现在#xff0c;DeepSeek这款语言AI模型#xff0c;一经发布直接在全球爆火#xff0c;在热搜上更是牢牢占据一席之地。无论是技术大神#xff0c;还是紧跟潮流的技术小白#xff0c;都被它强大的自然语言处理能力所吸引。作为国产操作系统的用户#xff0c;千万…从年前到现在DeepSeek这款语言AI模型一经发布直接在全球爆火在热搜上更是牢牢占据一席之地。无论是技术大神还是紧跟潮流的技术小白都被它强大的自然语言处理能力所吸引。作为国产操作系统的用户千万不要错过这波专属福利一份超详细的在国产操作系统上本地部署并运行DeepSeek-R1开源模型的安装指南。
一、下载并安装ollama
在互联网上搜索下载ollama-linux-amd64.tgz本地服务压缩包然后执行“sudo tar -C /usr -xzf ollama-linux-amd64.tgz”命令进行解压缩。 图1 压缩包
二、启动ollama服务
执行“ollama serve”命令启动ollama服务。 图2 启动服务
三、下载并安装运行DeepSeek-R1模型
打开一个新的终端窗口执行“ollama --version”命令启动ollama服务查看是否已启动成功。然后执行“ollama run deepseek-r1:7b”命令下载并安装运行DeepSeek-R1 7b模型。 图3 安装deepseek-r17b
注意本次演示以7b模型为例若您的电脑性能更高可下载安装DeepSeek-R1更高规格的模型其它版本模型命令如下。
ollama run deepseek-r1:1.5b硬盘1.1GB内存4GB
ollama run deepseek-r1:7b硬盘4.7GB内存16GB
ollama run deepseek-r1:8b硬盘4.9GB内存16GB
ollama run deepseek-r1:14b硬盘9GB内存16GB
ollama run deepseek-r1:32b硬盘20GB内存较大
ollama run deepseek-r1:70b硬盘43GB内存较大
ollama run deepseek-r1:671b硬盘404GB内存超大
至此已完成DeepSeek-R1模型的部署接下来我们来问它一个问题测试一下。 图4 问题测试
可以看到国产操作系统本地部署的DeepSeek-R1 7b模型在较短时间内即可给出它的分析过程及最终答案。通过以上的步骤我们成功在国产操作系统上完成了DeepSeek-R1开源模型的本地部署与运行。希望大家在尝试的过程中不断挖掘这两者结合的潜力在各自的领域中实现更多创新。