Ubuntu24.04-DeepSeek-R1-GGUF(UD-IQ2_XXS)部署学习
Ubuntu 24.04 LTS 服务器配置手册
硬件环境
使用浪潮NF5468 G7服务器,配置如下:
- CPU: EYPC 9654 * 2
- 内存: 32 * 24 RAM
- GPU: 8 * NVIDIA L20 48G
- 存储: 480G 2 + 3.84T 6
1. 系统环境配置
1.1 系统信息
.-/+oossssoo+/-. root@NF5468
`:+ssssssssssssssssss+:` -----------
-+ssssssssssssssssssyyssss+- OS: Ubuntu 24.04.1 LTS x86_64
.ossssssssssssssssssdMMMNysssso. Host: NF5468-A7-A0-R0-00 0
/ssssssssssshdmmNNmmyNMMMMhssssss/ Kernel: 6.8.0-41-generic
+ssssssssshmydMMMMMMMNddddyssssssss+ Uptime: 1 day, 12 hours, 56 mins
/sssssssshNMMMyhhyyyyhmNMMMNhssssssss/ Packages: 1932 (dpkg), 11 (snap)
.ssssssssdMMMNhsssssssssshNMMMdssssssss. Shell: bash 5.2.21
+sssshhhyNMMNyssssssssssssyNMMMysssssss+ Theme: Adwaita [GTK3]
ossyNMMMNyMMhsssssssssssssshmmmhssssssso Icons: Adwaita [GTK3]
ossyNMMMNyMMhsssssssssssssshmmmhssssssso Terminal: /dev/pts/0
+sssshhhyNMMNyssssssssssssyNMMMysssssss+ CPU: AMD EPYC 9654 (384) @ 2.400GHz
.ssssssssdMMMNhsssssssssshNMMMdssssssss. Memory: 7748MiB / 773531MiB
1.2 更换软件源
# 备份原有源配置
sudo cp /etc/apt/sources.list.d/ubuntu.sources /etc/apt/sources.list.d/ubuntu.sources.bak
# 更换为中科大镜像源
sudo sed -i 's@//.*archive.ubuntu.com@//mirrors.ustc.edu.cn@g' /etc/apt/sources.list.d/ubuntu.sources
# 更新系统
sudo apt-get update
sudo apt-get -y upgrade
1.3 配置SSH远程访问
# 安装SSH服务器
sudo apt-get update
sudo apt-get install openssh-server
# 启用SSH服务
sudo systemctl enable ssh
sudo systemctl restart ssh
# 关闭防火墙
sudo systemctl disable ufw
sudo systemctl stop ufw
# 配置SSH服务
sudo nano /etc/ssh/sshd_config
添加以下配置:
# 允许root登录
PermitRootLogin yes
# 允许密码认证
PasswordAuthentication yes
# 启用密钥认证
PubkeyAuthentication yes
完成配置:
# 设置root密码
sudo passwd root
# 重启SSH服务
sudo systemctl restart ssh
1.4 安装NoMachine远程桌面
# 下载并安装NoMachine
wget https://downloads.nomachine.com/linux/?id=1
sudo dpkg -i nomachine_8.16.1_1_amd64.deb
# 配置服务
sudo systemctl enable nxserver
sudo systemctl start nxserver
# 检查服务状态
sudo systemctl status nxserver
2. CUDA环境配置
2.1 安装CUDA驱动
# 下载CUDA仓库配置
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-ubuntu2404.pin
sudo mv cuda-ubuntu2404.pin /etc/apt/preferences.d/cuda-repository-pin-600
# 下载并安装CUDA
wget https://developer.download.nvidia.com/compute/cuda/12.8.0/local_installers/cuda-repo-ubuntu2404-12-8-local_12.8.0-570.86.10-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2404-12-8-local_12.8.0-570.86.10-1_amd64.deb
sudo cp /var/cuda-repo-ubuntu2404-12-8-local/cuda-*-keyring.gpg /usr/share/keyrings/
# 安装CUDA工具包和驱动
sudo apt-get update
sudo apt-get -y install cuda-toolkit-12-8
sudo apt-get install -y cuda-drivers
2.2 配置CUDA环境变量
echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc
3. 存储配置
3.1 配置数据盘
# 查看磁盘信息
sudo fdisk -l /dev/sdb
# 使用parted创建分区
sudo parted /dev/sdb
# 在parted中执行:
mklabel gpt
mkpart primary xfs 0% 9.1TB
print
quit
# 格式化分区
sudo mkfs.xfs -f /dev/sdb1
# 创建挂载点
sudo mkdir -p /data
# 配置自动挂载
sudo blkid /dev/sdb1 # 获取UUID
echo "UUID=<获取到的UUID> /data xfs defaults 0 2" | sudo tee -a /etc/fstab
# 挂载文件系统
sudo mount -a
sudo systemctl daemon-reload
4. AI开发环境配置
4.1 安装llama.cpp
# 安装依赖
cd /data
sudo apt-get update
sudo apt-get install build-essential cmake curl libcurl4-openssl-dev git -y
# 克隆代码
git clone https://ghproxy.net/https://github.com/ggerganov/llama.cpp.git
# 编译配置
cmake llama.cpp -B llama.cpp/build \
-DBUILD_SHARED_LIBS=OFF \
-DGGML_CUDA=ON \
-DLLAMA_CURL=ON \
-DCMAKE_CUDA_COMPILER=/usr/local/cuda/bin/nvcc
# 编译
cmake --build llama.cpp/build \
--config Release \
-j \
--clean-first \
--target llama-quantize llama-cli llama-gguf-split
# 安装
sudo cp llama.cpp/build/bin/llama-* /usr/local/bin/
4.2 配置Ollama
# 创建目录
mkdir -p /data/models/ollama/deepseek
cd /data/models/ollama/deepseek
# 配置环境变量
echo '# Ollama configurations
export OLLAMA_MODELS="/data/models/ollama/deepseek"
export OLLAMA_FLASH_ATTENTION=1
export OLLAMA_KEEP_ALIVE=-1' >> ~/.bashrc
source ~/.bashrc
# 配置系统服务
sudo systemctl edit ollama
添加以下配置:
[Service]
Environment="OLLAMA_MODELS=/data/models/ollama/deepseek"
Environment="OLLAMA_FLASH_ATTENTION=1"
Environment="OLLAMA_KEEP_ALIVE=-1"
创建Modelfile:
nano Modelfile
添加以下内容:
FROM /data/models/deepseek/DeepSeek-R1-GGUF/DeepSeek-R1-UD-IQ2_XXS/DeepSeek-R1-UD-IQ2_XXS.gguf
# GPU配置
PARAMETER num_gpu 56
PARAMETER num_ctx 8192
# 生成参数设置
PARAMETER temperature 0.6
PARAMETER min_p 0.05
# 对话模板
TEMPLATE "<|User|>{{ .System }} {{ .Prompt }}<|Assistant|>"
创建和运行模型:
# 创建模型
ollama create DeepSeek-R1-UD-IQ2_XXS -f ./Modelfile
# 运行模型
ollama run DeepSeek-R1-UD-IQ2_XXS --verbose
4.3 安装Web UI(可选)
# 安装依赖
sudo apt update
sudo apt install python3-pip
# 创建虚拟环境
python3 -m venv venv
source venv/bin/activate
# 安装Web UI
pip install open-webui
open-webui serve
访问 http://<服务器IP>:8080
即可使用Web界面。