Wie kann ich speed up deep learning auf einem nicht-NVIDIA-setup?

Da ich nur eine AMD A10-7850 APU, und nicht die Mittel haben, um auf zu verbringen, ein $800-$1200 NVIDIA-Grafikkarte, ich bin versucht, dies mit den Ressourcen habe ich, um zu beschleunigen deep learning via tensorflow/keras.

Zunächst habe ich eine vorkompilierte version von Tensorflow. InceptionV3 würde etwa 1000-1200 Sekunden zu berechnen 1 Epoche. Es wurde quälend langsam.

Zur Beschleunigung von Berechnungen, die ich vorher selbst zusammengestellt Tensorflow mit Optimierer (mit AVX und SSE4-Anweisungen). Dies führte zu einer etwa 40% igen Senkung der Rechenzeiten. Die gleichen Berechnungen durchgeführt vor jetzt über 600 Sekunden zu berechnen. Es ist fast erträglich - eine Art, wie Sie können, watch paint dry.

Ich bin auf der Suche nach Möglichkeiten zur weiteren Senkung berechnungszeiten. Ich habe nur eine integrierte AMD-Grafikkarte, die Teil der APU. (Wie) (C/c)eine ich Nutzung dieser Ressource zu speed-up-Berechnung sogar noch mehr?

Mehr im Allgemeinen sagen wir, dass es andere Menschen mit ähnlichen monetären Beschränkungen und Intel-setups. Wie kann jemand OHNE diskrete NVIDIA-Karten nutzen Ihre integrierte Grafik-chips oder anderweitig nicht-NVIDIA-setup schneller zu erreichen, als CPU-only-performance? Ist das möglich? Warum/warum nicht? Was muss getan werden, um dieses Ziel zu erreichen? Oder wird dies in Naher Zukunft möglich (2-6 Monate)? Wie?

InformationsquelleAutor Thornhale | 2017-03-31
Schreibe einen Kommentar