在aarch64架构的机器上本地部署DeepSeek R1模型 - l1t1/note GitHub Wiki
在aarch64架构的机器上本地部署DeepSeek R1模型的详细指南
本文档详细记录了在aarch64架构的机器上本地部署DeepSeek R1模型的过程,包括遇到的问题和解决方案。
1. 环境准备
1.1 系统要求
- 操作系统:麒麟V10
- 架构:aarch64
- 内存:建议8GB以上
- 存储:建议8GB以上SSD 1.2 网络配置
如需通过代理访问互联网,请先设置环境变量:
export https_proxy=http://代理服务器域名或IP地址:端口
2. Ollama安装
2.1 官方安装方式
curl -fsSL https://ollama.com/install.sh | sh
安装成功后,相关文件将存放在:
- 可执行文件:/usr/local/bin/ollama
- 库文件:/usr/local/lib/ollama
2.2 常见问题
在麒麟V10系统上可能会遇到以下库缺失错误:
- GLIBC_2.27
- GLIBCXX_3.4.25
- CXXABI_1.3.11
- GLIBCXX_3.4.22
3. 用Docker容器解决库缺失方案
3.1 容器准备
sudo docker pull docker.1ms.run/mooncakelabs/pg_mooncake
sudo docker run -v/shujv/par:/par -it --name mc -e POSTGRES_HOST_AUTH_METHOD=trust -d 3775c3b1c132
3.2 复制文件
将ollama可执行文件和库文件复制到宿主机/shujv/par
。
cp /usr/local/bin/ollama /shujv/par/bin/ollama
cp /usr/local/lib/ollama /shujv/par/lib/ollama
3.3 手动安装Ollama
建立到宿主机的软连接
ln -s /par/bin/ollama /usr/local/bin/ollama
ln -s /par/lib/ollama /usr/local/lib/ollama
4. 模型部署
4.1 启动服务
如首次拉取模型需通过代理访问互联网,请先设置环境变量:
export HTTPS_PROXY=http://代理服务器域名或IP地址:端口
export HTTP_PROXY=http://代理服务器域名或IP地址:端口
在前台运行ollama守护进程
ollama serve
4.2 拉取模型并执行
ollama run deepseek-r1:1.5b
5. 运行监控
5.1 后台运行
nohup ollama serve &
5.2 查询日志
tail nohup.out
5.3 性能表现
- 模型加载时间:约3秒
- 简单计算响应时间:约15秒
- 复杂问题响应时间:可能超过3分钟
6. 注意事项
- 首次拉取模型需要网络连接
- 模型拉取成功后可以离线使用
- 建议使用高性能设备以获得更好的体验
7. Android系统支持
对于aarch64 Android设备:
7.1 安装Termux
7.2 安装proot-distro软件包
7.3 选择Linux发行版进行安装
7.4 参考本文档进行部署
8. 空间优化
可以仅复制ollama二进制可执行文件,以减少存储空间占用。
附录:常见问题排查
- 网络连接问题:检查代理设置
- 容器启动问题:确保Docker服务正常运行
- 性能问题:检查系统资源使用情况
通过以上步骤,您应该能够在aarch64架构的设备上成功部署DeepSeek R1模型。如果在部署过程中遇到任何问题,请参考本文档的常见问题排除部分。