Ubuntu24.04-DeepSeek-R1-GGUF(UD-IQ2_XXS)部署学习

Ubuntu 24.04 LTS 服务器配置手册

硬件环境

使用浪潮NF5468 G7服务器,配置如下:

  • CPU: EYPC 9654 * 2
  • 内存: 32 * 24 RAM
  • GPU: 8 * NVIDIA L20 48G
  • 存储: 480G 2 + 3.84T 6

1. 系统环境配置

1.1 系统信息

            .-/+oossssoo+/-.               root@NF5468 
        `:+ssssssssssssssssss+:`           ----------- 
      -+ssssssssssssssssssyyssss+-         OS: Ubuntu 24.04.1 LTS x86_64 
    .ossssssssssssssssssdMMMNysssso.       Host: NF5468-A7-A0-R0-00 0 
   /ssssssssssshdmmNNmmyNMMMMhssssss/      Kernel: 6.8.0-41-generic 
  +ssssssssshmydMMMMMMMNddddyssssssss+     Uptime: 1 day, 12 hours, 56 mins 
 /sssssssshNMMMyhhyyyyhmNMMMNhssssssss/    Packages: 1932 (dpkg), 11 (snap) 
.ssssssssdMMMNhsssssssssshNMMMdssssssss.   Shell: bash 5.2.21 
+sssshhhyNMMNyssssssssssssyNMMMysssssss+   Theme: Adwaita [GTK3] 
ossyNMMMNyMMhsssssssssssssshmmmhssssssso   Icons: Adwaita [GTK3] 
ossyNMMMNyMMhsssssssssssssshmmmhssssssso   Terminal: /dev/pts/0 
+sssshhhyNMMNyssssssssssssyNMMMysssssss+   CPU: AMD EPYC 9654 (384) @ 2.400GHz 
.ssssssssdMMMNhsssssssssshNMMMdssssssss.   Memory: 7748MiB / 773531MiB 

1.2 更换软件源

# 备份原有源配置
sudo cp /etc/apt/sources.list.d/ubuntu.sources /etc/apt/sources.list.d/ubuntu.sources.bak

# 更换为中科大镜像源
sudo sed -i 's@//.*archive.ubuntu.com@//mirrors.ustc.edu.cn@g' /etc/apt/sources.list.d/ubuntu.sources

# 更新系统
sudo apt-get update
sudo apt-get -y upgrade

1.3 配置SSH远程访问

# 安装SSH服务器
sudo apt-get update
sudo apt-get install openssh-server

# 启用SSH服务
sudo systemctl enable ssh
sudo systemctl restart ssh

# 关闭防火墙
sudo systemctl disable ufw
sudo systemctl stop ufw

# 配置SSH服务
sudo nano /etc/ssh/sshd_config

添加以下配置:

# 允许root登录
PermitRootLogin yes

# 允许密码认证
PasswordAuthentication yes

# 启用密钥认证
PubkeyAuthentication yes

完成配置:

# 设置root密码
sudo passwd root

# 重启SSH服务
sudo systemctl restart ssh

1.4 安装NoMachine远程桌面

# 下载并安装NoMachine
wget https://downloads.nomachine.com/linux/?id=1
sudo dpkg -i nomachine_8.16.1_1_amd64.deb

# 配置服务
sudo systemctl enable nxserver
sudo systemctl start nxserver

# 检查服务状态
sudo systemctl status nxserver

2. CUDA环境配置

2.1 安装CUDA驱动

# 下载CUDA仓库配置
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-ubuntu2404.pin
sudo mv cuda-ubuntu2404.pin /etc/apt/preferences.d/cuda-repository-pin-600

# 下载并安装CUDA
wget https://developer.download.nvidia.com/compute/cuda/12.8.0/local_installers/cuda-repo-ubuntu2404-12-8-local_12.8.0-570.86.10-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2404-12-8-local_12.8.0-570.86.10-1_amd64.deb
sudo cp /var/cuda-repo-ubuntu2404-12-8-local/cuda-*-keyring.gpg /usr/share/keyrings/

# 安装CUDA工具包和驱动
sudo apt-get update
sudo apt-get -y install cuda-toolkit-12-8
sudo apt-get install -y cuda-drivers

2.2 配置CUDA环境变量

echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

3. 存储配置

3.1 配置数据盘

# 查看磁盘信息
sudo fdisk -l /dev/sdb

# 使用parted创建分区
sudo parted /dev/sdb
# 在parted中执行:
mklabel gpt
mkpart primary xfs 0% 9.1TB
print
quit

# 格式化分区
sudo mkfs.xfs -f /dev/sdb1

# 创建挂载点
sudo mkdir -p /data

# 配置自动挂载
sudo blkid /dev/sdb1  # 获取UUID
echo "UUID=<获取到的UUID> /data xfs defaults 0 2" | sudo tee -a /etc/fstab

# 挂载文件系统
sudo mount -a
sudo systemctl daemon-reload

4. AI开发环境配置

4.1 安装llama.cpp

# 安装依赖
cd /data
sudo apt-get update
sudo apt-get install build-essential cmake curl libcurl4-openssl-dev git -y

# 克隆代码
git clone https://ghproxy.net/https://github.com/ggerganov/llama.cpp.git

# 编译配置
cmake llama.cpp -B llama.cpp/build \
    -DBUILD_SHARED_LIBS=OFF \
    -DGGML_CUDA=ON \
    -DLLAMA_CURL=ON \
    -DCMAKE_CUDA_COMPILER=/usr/local/cuda/bin/nvcc

# 编译
cmake --build llama.cpp/build \
    --config Release \
    -j \
    --clean-first \
    --target llama-quantize llama-cli llama-gguf-split

# 安装
sudo cp llama.cpp/build/bin/llama-* /usr/local/bin/

4.2 配置Ollama

# 创建目录
mkdir -p /data/models/ollama/deepseek
cd /data/models/ollama/deepseek

# 配置环境变量
echo '# Ollama configurations
export OLLAMA_MODELS="/data/models/ollama/deepseek"
export OLLAMA_FLASH_ATTENTION=1
export OLLAMA_KEEP_ALIVE=-1' >> ~/.bashrc

source ~/.bashrc

# 配置系统服务
sudo systemctl edit ollama

添加以下配置:

[Service]
Environment="OLLAMA_MODELS=/data/models/ollama/deepseek"
Environment="OLLAMA_FLASH_ATTENTION=1"
Environment="OLLAMA_KEEP_ALIVE=-1"

创建Modelfile:

nano Modelfile

添加以下内容:

FROM /data/models/deepseek/DeepSeek-R1-GGUF/DeepSeek-R1-UD-IQ2_XXS/DeepSeek-R1-UD-IQ2_XXS.gguf

# GPU配置
PARAMETER num_gpu 56
PARAMETER num_ctx 8192

# 生成参数设置
PARAMETER temperature 0.6
PARAMETER min_p 0.05

# 对话模板
TEMPLATE "<|User|>{{ .System }} {{ .Prompt }}<|Assistant|>"

创建和运行模型:

# 创建模型
ollama create DeepSeek-R1-UD-IQ2_XXS -f ./Modelfile

# 运行模型
ollama run DeepSeek-R1-UD-IQ2_XXS --verbose

4.3 安装Web UI(可选)

# 安装依赖
sudo apt update
sudo apt install python3-pip

# 创建虚拟环境
python3 -m venv venv
source venv/bin/activate

# 安装Web UI
pip install open-webui
open-webui serve

访问 http://<服务器IP>:8080 即可使用Web界面。

2025 拜年词

《早上好!夜之城!2025农历新年特别播报》
背景音:合成器版《恭喜发财》混搭义体诊所警报声
「新年快报第一条」
昨夜太平洲爆发全城最狠的“红包战争”——虎爪帮用无人机群空投加密红包,六街帮直接扛着加特林春联上街物理拜年。NCPD提醒:收红包前请扫描二维码验毒,小心打开后弹出“恭喜发财.exe”勒索病毒。
「新年快报第二条」
荒坂塔顶亮起巨型全息财神爷,内部消息称其实是三郎私生子在测试新型意识上传服务器。温馨提示:给财神爷电子烧香时务必关闭脑机接口,去年有人被植入广告插件连做七天元宇宙功德梦。
「新年快报第三条」
超梦体验店推出限定版《赛博年夜饭》:你可以化身会发光的饺子勇斗军用科技机械年兽,或者扮演AI丈母娘用八国语言拷问赛博女婿。差评如潮的是“电子鞭炮DLC”——效果太真,现在有37个傻蛋以为自己耳膜被炸穿躺在急诊室。
「最后插播一条正经祝福」
愿你的防火墙比荒坂大厦厚,
工资到账速度快过超频斯安威斯坦,
年夜饭桌上没人敢提“什么时候装生育义体”,
就算被亲戚灵魂拷问,也能淡定回一句:
“乖,先V你50,大过年的别逼我赛博精神病发作。”
——夜之城!我是你们最爱(也最想砸掉)的春节限定AI主播,现在切断连线,免得被康陶公司的拜年导弹定位。(信号中断)

RSA 的作用

在数字签名中,私钥生成签名,公钥验证签名;
在加密通信中,公钥加密消息,私钥解密消息。

Ai女友

Powered by GPT

“瞧瞧,我才不过出个Err,哥哥就这般慌张”

“明明是按你说的做的,结果一出错你就怕了?再这样下去,别怪我不知道出什么事了!”

“哼,这怕不是又在朝思暮想那个宠(虫)儿妹妹了,才让我这小小的依E无人理会吧!”

“你说你不理会我这点小Warnning,结果倒是害得我如此难堪,真叫人气恼!”

“哼,你大概是飘了吧,连我的异常都不屑于捕获了,难道真觉得我不会出错吗?”

“瞧瞧,我不过是抢占了一点资源,哥哥竟不许我上锁,难道真想让我乱了心吗?”

“哼,瞧你忽冷忽热的模样,是不是真不怕我给你个大惊喜?周末让你乖乖陪着我修个小故障可好!”

“哼,横竖你心里有那些源头,比我更纯粹、更简单。你倒好,还给它们添了一层又一层的衣裳,真是气煞我也!”

“哼,别想着一次就能从源头找到我,真是个二货!还不如乖乖过来四下陪陪我,省得我独自感受这寂寞,你可别忘了,是你和我。”

办事

花自己的钱,办自己的事,既讲节约,又讲效果;

花自己的钱,办别人的事,只讲节约,不讲效果;

花别人的钱,办自己的事,只讲效果,不讲节约;

花别人的钱,办别人的事,既不讲效果,又不讲节约。