Die Google Cloud Platform service ist der einfachste für die Ausführung Tensorflow?
Während der Arbeit an Udacity Deep-Learning-Aufgaben, stieß ich auf Probleme mit dem Speicher. Ich muss wechseln Sie zu einem cloud-Plattform. Ich arbeitete mit AWS EC2, bevor, aber jetzt würde ich mag, um zu versuchen, Google Cloud Platform (GCP). Ich brauche mindestens 8 GB Speicher. Ich weiß, wie Sie das Andockfenster lokal aber nie versucht es über die cloud.
- Gibt es eine vorgefertigte Lösung für die Ausführung von Tensorflow auf GCP?
- Wenn nicht, welche service (Compute Engine oder Container Engine), die es erleichtern würde, um loszulegen?
- Jeden anderen Tipp auch dankbar!
- AWS hat die GPU-instances, was eine viel bessere Passform für tensorflow. Wie zwei Größenordnungen.
- Siehe cloud-datalab cloud.google.com/datalab/docs/quickstart
- Danke für den Tipp. Ich werde auf jeden Fall überlegen, für ernsthafte Projekte.
- könnten Sie etwas näher auf die, dass. Es schien ein bisschen kompliziert für meinen Anwendungsfall.
- Ich bin nicht sicher, was machen könnte es einfacher. Aktivieren Sie die Abrechnung über ein Konto, aktivieren, app engine und Speicher. dann gehen Sie zum datalab launcher und es startet eine google verwaltet compute-Instanz, die Sie durch Jupyter notebooks in eine web-Seite. Es ist tensorflow in der cloud mit einem Klick.
- Es funktioniert sehr einfach. Ich konnte es nicht ändern, die Maschine geben Sie aber!
- Sie können einen query-string im browser zu starten eine individuelle Instanz. Das können Sie ändern Sie die Anzahl der CPUs, RAM, Festplattenspeicher...
- Das ist sehr bequem. Noch eine Frage, wie kann ich das installieren von Python Paketen. Ich brauchte zum installieren von 'Kissen' - Paket, aber ich konnte nicht herausfinden,.
Du musst angemeldet sein, um einen Kommentar abzugeben.
Zusammenfassung der Antworten:
Anweisungen manuell ausführen TensorFlow auf Compute Engine:
gcloud compute machine-types list
. Sie können ändern Sie den Maschinentyp, die ich in der nächsten Befehl.sudo docker run -d -p 8888:8888 --name tf b.gcr.io/tensorflow-udacity/assignments:0.5.0
(ändern Sie die Bild-name der gewünschten Person)default
Netzwerk.tcp:8888
.IP:8888
auf Ihrem browser. Fertig!Dies ist, wie ich es Tat und es funktionierte. Ich bin sicher, es ist ein einfacher Weg, es zu tun.
Mehr Ressourcen
Könnten Sie interessieren, um mehr zu erfahren über:
Gut zu wissen
gcloud compute images list --project google-containers
Dank @user728291, @MattW, @CJCullen, und @zain-rizvi
Google Cloud Machine Learning ist offen für die Welt, in Beta-form heute. Es bietet TensorFlow als Service, so dass Sie nicht haben, um zu verwalten die Maschinen und andere Rohstoffe. Als Teil der Beta-Version, Datalab wurde aktualisiert, um Befehle und Dienstprogramme für maschinelles lernen. Check it out unter: http://cloud.google.com/ml.
Google hat eine Cloud-ML-Plattform in einem begrenzten Alpha.
Hier ist ein blog-post und ein tutorial über laufende TensorFlow auf Kubernetes von Google/Google Container Motor.
Wenn diese nicht das sind, was Sie wollen, die TensorFlow tutorials sollten alle in der Lage sein, um entweder auf AWS EC2 oder Google Compute Engine.
Können Sie jetzt auch die pre-konfiguriert DeepLearning Bilder. Sie haben alles, was erforderlich ist, für die TensorFlow.
Dies ist eine alte Frage, aber es sind neue, noch einfacher Optionen:
Wenn Sie ausführen möchten TensorFlow mit Jupyter Lab
GCP-AI-Plattform Notebooks, die Ihnen on-click-Zugriff auf eine Jupyter Lab Notebook mit Tensorflow pre-installiert (Sie können auch Pytorch, R, oder ein paar andere Bibliotheken statt, wenn Sie bevorzugen).
Wenn Sie nur wollen, verwenden Sie eine raw-VM
Wenn Sie don 'T care about Jupyer Lab und wollen einfach nur eine raw-VM mit Tensorflow pre-installiert ist, können Sie stattdessen erstellen Sie eine VM mit GCP' s Deep Learning VM-Image. Diese DLVM Bilder geben Ihnen eine VM mit Tensorflow pre-installiert und alle setup zu verwenden GPUs, wenn Sie wollen. (Die KI-Plattform Notebooks verwenden Sie diese DLVM Bilder unter der Haube)
Wenn Sie möchten, führen Sie es auf Ihrem laptop und in der cloud
Schließlich, wenn Sie wollen, um in der Lage zu laufen tensorflow sowohl auf Ihrem persönlichen laptop und in der cloud und sind komfortabel mit Docker, die Sie verwenden können, GCP-s Deep Learning Container Bilder. Es enthält den exakt gleichen setup wie die DLVM Bilder, sondern verpackt die als container statt, so starten Sie diese überall, das Sie mögen.
Extra Vorteil: Wenn Sie mit diesem container Bild auf Ihrem laptop, es ist 100% kostenlos 😀
Ich bin nicht sicher, dass es, wenn es eine Notwendigkeit für Sie, bleiben Sie auf der Google Cloud platform. Wenn Sie in der Lage sind, andere Produkte verwenden, könnten Sie sparen eine Menge Zeit und etwas Geld.
Wenn Sie TensorFLow ich würde empfehlen, eine Plattform namens TensorPort. Es ist ausschließlich für TesnorFlow und ist die einfache Plattform ich mir bewusst bin. Code und Daten sind geladen mit git und Sie bieten ein python-Modul für die automatische Umschaltung der Pfade, die sich zwischen der Fernbedienung und Ihrem lokalen Rechner. Sie bieten auch einige boiler plate code für die Einstellung der distributed computing, wenn Sie es brauchen. Hoffe, das hilft.