阿里云网站模板送域名,深圳展览公司排行,镇江互联网公司,wordpress聚合平台模板使用Ollama和Open WebUI快速玩转大模型#xff1a;简单快捷的尝试各种llm大模型#xff0c;比如DeepSeek r1#xff0c;非常简单方便#xff0c;参见#xff1a;使用Ollama和Open WebUI快速玩转大模型#xff1a;简单快捷的尝试各种llm大模型#xff0c;比如DeepSeek r1…使用Ollama和Open WebUI快速玩转大模型简单快捷的尝试各种llm大模型比如DeepSeek r1非常简单方便参见使用Ollama和Open WebUI快速玩转大模型简单快捷的尝试各种llm大模型比如DeepSeek r1 -CSDN博客
但是在使用过程中发现模型都存在C盘很快空间就不够了所以想把模型都放到闲置的E盘去。
time2025-01-31T00:58:21.18508:00 levelINFO sourcegpu.go:392 msgno compatible GPUs were discovered time2025-01-31T00:58:21.18608:00 levelINFO sourcetypes.go:131 msginference compute id0 librarycpu variantavx compute driver0.0 name total63.9 GiB available44.4 GiB 设置ollama_models目录位置 改了之后怎么还是报错呢 大约是需要重新启动系统才行。
\\Users\\Admin\\.ollama\\models\\blobs\\sha256-fd7b6731c33c57f61767612f56517460ec2d1e2e5a3f0163e0eb3d8d8cb5df20-partial: There is not enough space on the disk., retrying in 32s time2025-01-31T01:06:50.05808:00 levelINFO sourcedownload.go:291 msgfd7b6731c33c part 10 attempt 1 failed: write C:\\Users\\Admin\\.ollama\\models\\blobs\\sha256-fd7b6731c33c57f61767612f56517460ec2d1e2e5a3f0163e0eb3d8d8cb5df20-partial: There is not enough space on the disk., retrying in 2s 因为不方便重启系统所以采用手工设置变量的方式。大约使用了如下方法
set OLLAMA_MODELSE:\ai\models
后来还用了setx
setx OLLAMA_MODELS E:\ai\models
不过感觉变量设置有时候灵有时候不灵。反正设置之后就用set看一下一直到调好为止。 一通乱调在windows没有重启的情况下启动ollama发现变量已经生效
C:\Users\Adminset
可以看到环境变量OLLAMA_MODELS已经设置正确
OLLAMA_MODELSE:\ai\ollama
好吧这里就看出来了设置错了我是想设置到这里的OLLAMA_MODELSE:\ai\models 这时候关闭Ollama和Open WebUI然后重新打开发现模型已经使用了新的环境变量
E:\ai\ollamaollama.exe serve
2025/01/31 11:20:10 routes.go:1187: INFO server config envmap[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://127.0.0.1:11434 OLLAMA_INTEL_GPU:false OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:E:\\ai\\ollama OLLAMA_MULTIUSER_CACHE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://* vscode-webview://*] OLLAMA_SCHED_SPREAD:false ROCR_VISIBLE_DEVICES:]
里面有这句OLLAMA_MODELS:E:\\ai\\ollama
证明已经生效。 下载几个大模型比如
qwen2.5-coder:3b
phi4
EntropyYue/chatglm3
deepseek-r1:8b
等等没有再报空间不足的错误问题解决。