使用Docker实现GPU服务器共享与资源隔离


SEO

Docker内使用avahi-deamon服务
Docker内调用GPU方法

构想

部署GPU服务器需要多人同时使用,每个人环境各不相同希望资源隔离
采用虚拟化直通的方法配置太复杂,购买vGPU费用太过炸裂
经过了解最终决定使用Docker实现上述功能

实施

概览

想要Container具备使用Host GPU的能力需要一些技巧
根据Nvidia官方的建议Host尽可能安装最新的显卡驱动
CUDA及其他三方库可再Container中自由配置实现隔离
整体架构图如下
使用Docker实现GPU服务器共享与资源隔离

GPU

以Ubuntu为例子docker可以直接通过sudo apt install docker.io获取
GPU驱动可以在Official Drivers | NVIDIA获取
注意安装驱动过程中会改写docker的json配置文件,因此建议装好驱动后再换源避免冲突
上述准备完成后开始安装Container Toolkit

distribution=$(. /etc/os-release;echo $ID$VERSION_ID) /
      && curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg /
      && curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | /
            sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | /
            sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

完成GPG Key导入后即可安装自定义包

sudo apt-get update
sudo apt-get install -y nvidia-docker2
sudo systemctl restart docker

最后验证GPU能否成功调用,成功会打印GPU列表以及驱动/CUDA版本

sudo docker run --rm --gpus all nvidia/cuda:11.0.3-base-ubuntu20.04 nvidia-smi

网络

为了更好的网络性能和接近物理机的体验,所有Container以
选择macvlan方式部署并分配固定ip地址便于管理,具体可参考我这篇博客
同时希望container也可以被xxx.local的本地域名访问到
开启host网卡混杂并在container中安装avahi-daemon服务
正常安装但无法启动,关闭dbus后即可正常访问

sudo vi /etc/avahi/avahi-daemon.conf
# enable-dbus=no
sudo /etc/init.d/avahi-daemon start
* Starting Avahi mDNS/DNS-SD Daemon avahi-daemon    [ OK ]

参考

Installation Guide — NVIDIA Cloud Native Technologies documentation
Docker网络配置的几种常见模式 – azureology – 博客园
How do I advertise AND browse mDNS from within docker container? – Stack Overflow

原创文章,作者:6024010,如若转载,请注明出处:https://blog.ytso.com/271803.html

(0)
上一篇 2022年7月7日
下一篇 2022年7月7日

相关推荐

发表回复

登录后才能评论