Wie kann ich festlegen, nvidia Laufzeit von docker-Komponieren.yml?
Ich bin in der Lage zu laufen ein tensorflow container w/Zugriff auf die GPU über die Befehlszeile w/die folgenden Befehl
$ sudo docker run --runtime=nvidia --rm gcr.io/tensorflow/tensorflow:latest-gpu
Ich würde gerne in der Lage zu sein, diese container von docker-Komponieren. Ist es möglich, an den --runtime
Flagge von docker-compose.yml
?
Du musst angemeldet sein, um einen Kommentar abzugeben.
Sollten Sie Bearbeiten
/etc/docker/daemon.json
hinzufügen der ersten Ebene Schlüssel"default-runtime": "nvidia"
starten docker-daemon (ex."sudo service docker restart"
) und dann alle Container, die auf diesem host laufen mit nvidia-Laufzeit.Mehr info auf
daemon.json
hierDerzeit (August 2018), NVIDIA container-runtime für Docker (nvidia-docker2) unterstützt Docker Compose.
Beispiel
docker-compose.yml
:Mehr Beispiel von NVIDIA-blog verwendet Docker Compose zu zeigen, wie zu starten, Multi-GPU-Container mit dem NVIDIA-Container-Runtime.
Oder besser: mit
systemd
und vorausgesetzt, der Pfad ist/usr/libexec/oci/hooks.d/nvidia
Konfigurieren
Neu starten
Demo
Nicht angeben müssen
--runtime=nvidia
da wirdefault-runtime=nvidia
in der Konfiguration Schritt.Lösung Inspiriert von meinem tutorial über KATA Laufzeit.