GPUStack 是一个设计用于运行大模型的开源 GPU 集群管理器,提供私有部署的大模型服务,支持大语言模型、Embedding 文本嵌入模型、Reranker 重排序模型、Vision 多模态模型等各种模型。它可以聚合不同平台(如 Apple Mac、Windows PC 和 Linux 服务器)的 GPU,构建一个统一的异构 GPU 集群。
在 Linux 中十分推荐使用 Docker 方式安装 GPUStack,可以避免很多依赖和冲突问题,简化安装过程。
今天带来一篇关于如何设置 NVIDIA 容器运行时并使用容器方式运行 GPUStack 的操作教程。
前置准备
验证当前环境有 NVIDIA GPU 硬件:
lspci | grep -i nvidia
验证系统已安装 GCC:
gcc --version
安装 NVIDIA 驱动
参考:https://developer.nvidia.com/datacenter-driver-downloads
为当前内核安装内核头文件和开发包:
sudo apt-get install linux-headers-$(uname -r)
安装 cuda-keyring
包:
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
安装 NVIDIA 驱动:
sudo apt-get update
sudo apt-get install nvidia-open -y
重启系统:
sudo reboot
重新登录并检查 nvidia-smi
命令可用:
nvidia-smi
安装 Docker Engine
参考:https://docs.docker.com/engine/install/ubuntu/
执行以下命令卸载所有冲突的包:
for pkg in docker.io docker-doc docker-compose docker-compose-v2 podman-docker containerd runc; do sudo apt-get remove $pkg; done
设置 Docker 的 apt 仓库:
# Add Docker's official GPG key:
sudo apt-get update
sudo apt-get install ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc
# Add the repository to Apt sources:
echo \
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
$(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update
安装 Docker:
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin -y
检查 docker
命令可用:
docker info
安装 NVIDIA Container Toolkit
参考:https://docs.nvidia.com/datacenter/cloud-native/container-too...
配置 NVIDIA Container Toolkit 的生产仓库:
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
安装 NVIDIA Container Toolkit:
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit -y
使用 nvidia-ctk
命令配置容器运行时:
sudo nvidia-ctk runtime configure --runtime=docker
检查 daemon.json
文件的配置:
cat /etc/docker/daemon.json
重启 Docker daemon:
sudo systemctl restart docker
运行一个示例的 CUDA 容器来验证安装:
sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi
安装 GPUStack
参考:https://docs.gpustack.ai/latest/installation/docker-installat...
通过 Docker 安装 GPUStack:
docker run -d --gpus all -p 80:80 --ipc=host --name gpustack \
-v gpustack-data:/var/lib/gpustack gpustack/gpustack
使用以下命令查看登录密码:
docker exec -it gpustack cat /var/lib/gpustack/initial_admin_password
在浏览器访问 GPUStack( http://YOUR_HOST_IP )以用户名 admin
和密码登录。设置密码后,登录进 GPUStack,查看识别到的 GPU 资源:
(可选)要添加额外的 Worker 节点,构建 GPU 集群,在其它工作节点上执行以下命令:
docker run -d --gpus all --ipc=host --network=host \
gpustack/gpustack --server-url http://YOUR_HOST_IP --token YOUR_TOKEN
将其中的 http://YOUR_HOST_IP 替换为你的 GPUStack 访问地址,将 YOUR_TOKEN 替换为用于添加 Worker 的认证 Token。要从 GPUStack Server 检索 Token,使用以下命令:
docker exec -it gpustack cat /var/lib/gpustack/token
完成之后,尝试从 Hugging Face 或其它模型仓库部署模型:
在 Playground 中调测模型:
加入社区
以上为配置 NVIDIA 容器运行时环境并使用容器方式运行 GPUStack 的操作教程。
对 GPUStack 感兴趣或者在使用过程中遇到问题,可以添加 GPUStack 微信小助手(微信号:GPUStack)入群交流。
如果觉得写得不错,欢迎点赞、转发、关注。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。