最新版本的 docker(或任何版本的 nvidia-docker)允许从 docker 容器中直接(?)访问主机 GPU,并可以完全访问 CUDA API。这在部署复杂的机器学习推理服务器时非常方便。
但是,据我所知,目前仅支持 Linux 主机。
为什么微软和苹果不能加强他们的游戏并提供相同水平的支持?也就是说,在 Linux 上使用了什么技巧,这在其他操作系统中显然难以模仿?
最新版本的 docker(或任何版本的 nvidia-docker)允许从 docker 容器中直接(?)访问主机 GPU,并可以完全访问 CUDA API。这在部署复杂的机器学习推理服务器时非常方便。
但是,据我所知,目前仅支持 Linux 主机。
为什么微软和苹果不能加强他们的游戏并提供相同水平的支持?也就是说,在 Linux 上使用了什么技巧,这在其他操作系统中显然难以模仿?
Linux 上的 Docker 直接使用托管内核,但 Windows 上的 Docker 实际上运行在 VM(由 Windows 中的 Hyper-V 托管)中,因为 Windows 没有可供 Docker 直接交互的 Linux 内核。因此,从 Windows 上的 docker 容器访问主机 GPU 需要从来宾 VM 中的 docker 容器进入托管 Windows 操作系统以与 GPU 驱动程序进行通信。需要 Microsoft 和 GPU 制造商的许多特殊开发才能正确支持所有这些。
截至 2020 年 2 月,Dx 和基于 Dx 的计算可以通过 Windows 容器访问 GPU。您可以在https://github.com/MicrosoftDocs/Virtualization-Documentation/tree/master/windows-container-samples/directx阅读更多内容,尤其是以下部分:
如 [https://techcommunity.microsoft.com/t5/containers/bringing-gpu-acceleration-to-windows-containers/ba-p/393939] 中所述,附带 Docker 更新的 Windows 容器,添加“进程隔离”模式,不需要或使用虚拟机。
至于 CUDA 访问,请等待未来关于 Dx 之外支持哪些其他 API 的更新。
2020 年 6 月 29 日更新 - 现在可以在 Windows 上从 WSL2 访问 CUDA。 https://docs.microsoft.com/en-us/windows/wsl/tutorials/gpu-compute https://developer.nvidia.com/cuda/wsl
它需要 GPU 直通(即 DDA),这仅在 Windows Server 2016 中可用