SEO
Docker内使用avahi-deamon服务
Docker内调用GPU方法
构想
部署GPU服务器需要多人同时使用,每个人环境各不相同希望资源隔离
采用虚拟化直通的方法配置太复杂,购买vGPU费用太过炸裂
经过了解最终决定使用Docker实现上述功能
实施
概览
想要Container具备使用Host GPU的能力需要一些技巧
根据Nvidia官方的建议Host尽可能安装最新的显卡驱动
CUDA及其他三方库可再Container中自由配置实现隔离
整体架构图如下
GPU
以Ubuntu为例子docker可以直接通过sudo apt install docker.io
获取
GPU驱动可以在Official Drivers | NVIDIA获取
注意安装驱动过程中会改写docker的json配置文件,因此建议装好驱动后再换源避免冲突
上述准备完成后开始安装Container Toolkit
distribution=$(. /etc/os-release;echo $ID$VERSION_ID) /
&& curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg /
&& curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | /
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | /
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
完成GPG Key导入后即可安装自定义包
sudo apt-get update
sudo apt-get install -y nvidia-docker2
sudo systemctl restart docker
最后验证GPU能否成功调用,成功会打印GPU列表以及驱动/CUDA版本
sudo docker run --rm --gpus all nvidia/cuda:11.0.3-base-ubuntu20.04 nvidia-smi
网络
为了更好的网络性能和接近物理机的体验,所有Container以
选择macvlan方式部署并分配固定ip地址便于管理,具体可参考我这篇博客
同时希望container也可以被xxx.local
的本地域名访问到
开启host网卡混杂并在container中安装avahi-daemon
服务
正常安装但无法启动,关闭dbus
后即可正常访问
sudo vi /etc/avahi/avahi-daemon.conf
# enable-dbus=no
sudo /etc/init.d/avahi-daemon start
* Starting Avahi mDNS/DNS-SD Daemon avahi-daemon [ OK ]
参考
Installation Guide — NVIDIA Cloud Native Technologies documentation
Docker网络配置的几种常见模式 – azureology – 博客园
How do I advertise AND browse mDNS from within docker container? – Stack Overflow
原创文章,作者:6024010,如若转载,请注明出处:https://blog.ytso.com/tech/pnotes/271803.html