网站备份信息,mv网站建设,广西建设厅办事大厅网站,进行网站建设最近到祸一台HUAWEI Kunpeng 920 5250#xff0c;先看看配置。之前是部署的讯飞大模型#xff0c;发现资源利用率太低了。把5台减少到3台#xff0c;就出了他
硬件配置信息
基本硬件信息
按照惯例先来看看配置。一共3块盘#xff0c;500G的系统盘#xff0c; 2块3T固态…最近到祸一台HUAWEI Kunpeng 920 5250先看看配置。之前是部署的讯飞大模型发现资源利用率太低了。把5台减少到3台就出了他
硬件配置信息
基本硬件信息
按照惯例先来看看配置。一共3块盘500G的系统盘 2块3T固态后面把固态硬盘也组合成了逻辑卷
内存是1.5T的比我电脑硬盘都大
[rootlocalhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 446.6G 0 disk
├─sda1 8:1 0 600M 0 part /boot/efi
├─sda2 8:2 0 1G 0 part /boot
└─sda3 8:3 0 445G 0 part ├─openeuler-root 253:0 0 70G 0 lvm /├─openeuler-swap 253:1 0 4G 0 lvm [SWAP]└─openeuler-home 253:2 0 371G 0 lvm /home
nvme1n1 259:0 0 2.9T 0 disk
└─nvme1n1p1 259:4 0 2.9T 0 part └─vg_data01-lv_data01 253:3 0 5.8T 0 lvm /data
nvme0n1 259:1 0 2.9T 0 disk
└─nvme0n1p1 259:3 0 2.9T 0 part └─vg_data01-lv_data01 253:3 0 5.8T 0 lvm /data[rootlocalhost ~]# df -Th | awk $2 !~ /overlay/ $2 !~ /tmpfs/
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/mapper/openeuler-root ext4 69G 45G 21G 69% /
/dev/sda2 ext4 974M 72M 835M 8% /boot
/dev/sda1 vfat 599M 5.8M 594M 1% /boot/efi
/dev/mapper/openeuler-home ext4 365G 4.6G 342G 2% /home
/dev/mapper/vg_data01-lv_data01 ext4 5.8T 4.3T 1.3T 78% /data[rootlocalhost ~]# cat /etc/os-release
NAMEopenEuler
VERSION22.03 LTS
IDopenEuler
VERSION_ID22.03
PRETTY_NAMEopenEuler 22.03 LTS
ANSI_COLOR0;31[rootlocalhost ~]# uname -a
Linux localhost.localdomain 5.10.0-60.18.0.50.oe2203.aarch64 #1 SMP Wed Mar 30 02:43:08 UTC 2022 aarch64 aarch64 aarch64 GNU/Linux
[rootlocalhost ~]# lscpu
架构 aarch64CPU 运行模式 64-bit字节序 Little Endian
CPU: 192在线 CPU 列表 0-191
厂商 ID HiSiliconBIOS Vendor ID: HiSilicon型号名称 Kunpeng-920BIOS Model name: HUAWEI Kunpeng 920 5250型号 0每个核的线程数 1每个座的核数 48座 4步进 0x1Frequency boost: disabledCPU 最大 MHz 2600.0000CPU 最小 MHz 200.0000BogoMIPS 200.00标记 fp asimd evtstrm aes pmull sha1 sha2 crc32 atomics fphp asimdhp cpuid asimdrdm jscvt fcma dcpop asimddp asimdfhm ssbs
Caches (sum of all): L1d: 12 MiB (192 instances)L1i: 12 MiB (192 instances)L2: 96 MiB (192 instances)L3: 192 MiB (8 instances)
NUMA: NUMA 节点 8NUMA 节点0 CPU 0-23NUMA 节点1 CPU 24-47NUMA 节点2 CPU 48-71NUMA 节点3 CPU 72-95NUMA 节点4 CPU 96-119NUMA 节点5 CPU 120-143NUMA 节点6 CPU 144-167NUMA 节点7 CPU 168-191
Vulnerabilities: Itlb multihit: Not affectedL1tf: Not affectedMds: Not affectedMeltdown: Not affectedSpec store bypass: Mitigation; Speculative Store Bypass disabled via prctlSpectre v1: Mitigation; __user pointer sanitizationSpectre v2: Not affectedSrbds: Not affectedTsx async abort: Not affected
[rootlocalhost ~]# free -htotal used free shared buff/cache available
Mem: 1.5Ti 12Gi 26Gi 20Mi 1.4Ti 1.5Ti
Swap: 4.0Gi 12Mi 4.0GiNPU/GPU信息
由于没有部署任何AI、模型所以空载着
[rootlocalhost ~]# npu-smi info
------------------------------------------------------------------------------------------------
| npu-smi 24.1.rc1 Version: 24.1.rc1 |
----------------------------------------------------------------------------------------------
| NPU Name | Health | Power(W) Temp(C) Hugepages-Usage(page)|
| Chip | Bus-Id | AICore(%) Memory-Usage(MB) HBM-Usage(MB) || 0 910B3 | OK | 89.7 35 0 / 0 |
| 0 | 0000:C1:00.0 | 0 0 / 0 3159 / 65536 || 1 910B3 | OK | 88.6 38 0 / 0 |
| 0 | 0000:C2:00.0 | 0 0 / 0 3159 / 65536 || 2 910B3 | OK | 91.8 36 0 / 0 |
| 0 | 0000:81:00.0 | 0 0 / 0 3159 / 65536 || 3 910B3 | OK | 87.2 36 0 / 0 |
| 0 | 0000:82:00.0 | 0 0 / 0 3159 / 65536 || 4 910B3 | OK | 88.8 41 0 / 0 |
| 0 | 0000:01:00.0 | 0 0 / 0 3159 / 65536 || 5 910B3 | OK | 95.7 44 0 / 0 |
| 0 | 0000:02:00.0 | 0 0 / 0 3159 / 65536 || 6 910B3 | OK | 93.5 39 0 / 0 |
| 0 | 0000:41:00.0 | 0 0 / 0 3160 / 65536 || 7 910B3 | OK | 89.2 40 0 / 0 |
| 0 | 0000:42:00.0 | 0 0 / 0 3160 / 65536 |----------------------------------------------------------------------------------------------
| NPU Chip | Process id | Process name | Process memory(MB) || No running processes found in NPU 0 || No running processes found in NPU 1 || No running processes found in NPU 2 |开始部署DeepSeek
ollama方法
根据网上资料看只要用ollama部署就行后面发现这个行不通。因为ollama只适配了英伟达的GPU像华为的根本就行不通啊
ollama的安装脚本也是去下载英伟达的驱动结果就是下载失败就算下载成功了也不能安装上去
https://zhuanlan.zhihu.com/p/22081569918
0
最后折腾了很久
使用 nohup ollama run
部署一个1.5B的试试发现可以运行了。但是总觉得不对境。回答问题太慢了用时3分钟。CPU使用率也是狂飙。NPU是一点没有使上劲啊
ollama run deepseek-r1:1.5b容器部署方法
最后决定下载权重容器部署。结果这里就有遇到了坑点
需要用到git lfs 工具 和 华为的镜像。因为这是ARM服务器所有git lfs命令也很难找欧拉的yum源还没有提供最后翻来覆去在github最新的V3.6.1找到了。使用二进制命令接安装脚本既可以实现。这样就能通过git install git push 去拉取近1TB的权重了
https://github.com/git-lfs/git-lfs/releases 再说说这个华为的镜像吧不得不吐槽。华为这是把镜像当宝贝供着吗下载还需要申请权限不是一般人还申请不下来。还好我们这里条件都满足
晚上提交的申请第二天早上就通过了 最后参照了好几个教程不是启动失败就吃出现权限拒绝服了
华为服务器社区https://www.hiascend.com/software/modelzoo/models/detail/68457b8a51324310aad9a0f55c3e56e3
天翼云社区 https://www.ctyun.cn/document/10027724/10944583 部署R1模型提示不兼容…
天翼云社区 https://www.ctyun.cn/document/10027724/10944583 [外链图片转存中…(img-LlsPC4Gm-1739689559814)]
部署R1模型提示不兼容…