在aarch64架构的机器上本地部署DeepSeek R1模型 - l1t1/note GitHub Wiki

在aarch64架构的机器上本地部署DeepSeek R1模型的详细指南

本文档详细记录了在aarch64架构的机器上本地部署DeepSeek R1模型的过程,包括遇到的问题和解决方案。

1. 环境准备

1.1 系统要求

  • 操作系统:麒麟V10
  • 架构:aarch64
  • 内存:建议8GB以上
  • 存储:建议8GB以上SSD 1.2 网络配置

如需通过代理访问互联网,请先设置环境变量:

export https_proxy=http://代理服务器域名或IP地址:端口

2. Ollama安装

2.1 官方安装方式

curl -fsSL https://ollama.com/install.sh | sh

安装成功后,相关文件将存放在:

  • 可执行文件:/usr/local/bin/ollama
  • 库文件:/usr/local/lib/ollama

2.2 常见问题

在麒麟V10系统上可能会遇到以下库缺失错误:

  • GLIBC_2.27
  • GLIBCXX_3.4.25
  • CXXABI_1.3.11
  • GLIBCXX_3.4.22

3. 用Docker容器解决库缺失方案

3.1 容器准备

sudo docker pull docker.1ms.run/mooncakelabs/pg_mooncake
sudo docker run -v/shujv/par:/par -it --name mc -e POSTGRES_HOST_AUTH_METHOD=trust -d 3775c3b1c132

3.2 复制文件

将ollama可执行文件和库文件复制到宿主机/shujv/par

cp /usr/local/bin/ollama /shujv/par/bin/ollama
cp /usr/local/lib/ollama /shujv/par/lib/ollama 

3.3 手动安装Ollama

建立到宿主机的软连接

ln -s /par/bin/ollama /usr/local/bin/ollama
ln -s /par/lib/ollama /usr/local/lib/ollama

4. 模型部署

4.1 启动服务

如首次拉取模型需通过代理访问互联网,请先设置环境变量:

export HTTPS_PROXY=http://代理服务器域名或IP地址:端口
export HTTP_PROXY=http://代理服务器域名或IP地址:端口

在前台运行ollama守护进程

ollama serve

4.2 拉取模型并执行

ollama run deepseek-r1:1.5b

5. 运行监控

5.1 后台运行

nohup ollama serve &

5.2 查询日志

tail nohup.out

5.3 性能表现

  • 模型加载时间:约3秒
  • 简单计算响应时间:约15秒
  • 复杂问题响应时间:可能超过3分钟

6. 注意事项

  • 首次拉取模型需要网络连接
  • 模型拉取成功后可以离线使用
  • 建议使用高性能设备以获得更好的体验

7. Android系统支持

对于aarch64 Android设备:

7.1 安装Termux

7.2 安装proot-distro软件包

7.3 选择Linux发行版进行安装

7.4 参考本文档进行部署

8. 空间优化

可以仅复制ollama二进制可执行文件,以减少存储空间占用。

附录:常见问题排查

  • 网络连接问题:检查代理设置
  • 容器启动问题:确保Docker服务正常运行
  • 性能问题:检查系统资源使用情况

通过以上步骤,您应该能够在aarch64架构的设备上成功部署DeepSeek R1模型。如果在部署过程中遇到任何问题,请参考本文档的常见问题排除部分。