Tag: gpu
Abkürzung für „Graphics Processing Unit“. Für die Programmierung von traditionellen grafischen Anwendungen finden Sie in der tag-Eintrag „Grafik-Programmierung“. Für general-purpose-Programmierung mit GPUs, sehen die tag-Eintrag für „gpgpu“. Für bestimmte GPU-Programmierung Technologien finden Sie die beliebtesten tag-Einträge für „opencl“, „cuda“ – und „Schub“.
4
Antworten
Habe ich trainiert 3 Modelle und bin nun ausführen von code, lädt alle 3 checkpoints in Folge und läuft Vorhersagen, die Sie verwenden. Ich bin mit der GPU. Wenn das erste Modell geladen wird, es vor-ordnet die
5
Antworten
Es wird vorgeschlagen, dass unter Linux die GPU mit dem Befehl lspci | grep VGA. Es funktioniert gut auf Ubuntu, aber wenn ich versuche, das gleiche auf CentOS, sagt lspci-Befehl nicht gefunden. Wie kann ich prüfen, ob
4
Antworten
Tensorflow neigt dazu, preallocate den gesamten verfügbaren Speicher auf Grafikkarten. Für das Debuggen, gibt es eine Möglichkeit zu sagen, wie viel Speicher ist eigentlich im Einsatz? InformationsquelleAutor Maarten | 2016-03-21
3
Antworten
Sagen, dass ich eine matrix mit einer dimension von A*B auf die GPU, wo B (Anzahl der Spalten) ist die führende dimension angenommen, ein C-Stil. Gibt es eine Methode in CUDA (oder cublas) zu transponieren dieser matrix
1
Antworten
FSPB_main.cpp int main(int args, char* argv){ ....... float *d_a; cudaMalloc( (void**)&d_a, 5*sizeof(float) ); } $ nvcc -L/usr/local/cuda/lib -lcutil -lcudpp -lcuda -lcudart -c -o FSPB_main.o FSPB_main.cpp FSPB_main.cpp: In function 'int main(int, char**)': FSPB_main.cpp:167:45: Fehler: "cudaMalloc' wurde nicht deklariert
4
Antworten
Wie zu verwenden TensorFlow GPU version statt CPU version in Python 3.6 x64? import tensorflow as tf Python ist mit meiner CPU für die Berechnungen. Ich kann es merken, weil ich habe einen Fehler: Ihre CPU unterstützt,
1
Antworten
Im Versuch, erhöhen Sie den timeout auf der GPU von der Standard-Einstellung von 2 Sekunden etwas länger. Ich fand den folgenden link aber es scheint Ihr leicht in windows 7, wie ich cant nichts zu sehen in
6
Antworten
folgenden diese Vorherige Frage Malloc Speicher Korruption in C, jetzt habe ich ein anderes problem. Ich habe den gleichen code. Jetzt bin ich versucht, multiplizieren Sie die Werte, die in die arrays A * vc und speichern
1
Antworten
Habe ich erfolgreich installiert, CUDA 7.0 unter ubuntu(ami-Instanz), aber wenn ich tippte 'nvcc -version", erzählte Sie mir, dass The program 'nvcc' is currently not installed. You can install it by typing: apt-get install nvidia-cuda-toolkit You will have
2
Antworten
Ich versuche zu verwenden OpenCV GpuMat aber ich bin immer ein assert-Fehler, mein code ist wie folgt #include "opencv2/opencv.hpp" #include "opencv2/imgproc/imgproc.hpp" #include "opencv2/highgui/highgui.hpp" #include "opencv2/gpu/gpu.hpp" //... using namespace cv; using namespace cv::gpu; int main() { string baboon
2
Antworten
Ich versuche zu trainieren, eine einfache multi-layer-perzeptron für ein 10-Klasse Bild-Klassifizierung Aufgabe, die einen Teil des Auftrages für die Udacity Deep-Learning-Kurs. Um genauer zu sein, ist die Aufgabe zu klassifizieren Buchstaben gerendert aus verschiedenen Schriftarten (dataset aufgerufen
2
Antworten
Hier ist die gpu-surfen-code: #include <iostream> #include <iomanip> #include "opencv2/contrib/contrib.hpp" #include "opencv2/objdetect/objdetect.hpp" #include "opencv2/highgui/highgui.hpp" #include "opencv2/imgproc/imgproc.hpp" #include <opencv2/imgproc/imgproc_c.h> #include "opencv2/gpu/gpu.hpp" #include "opencv2/core/core.hpp" #include "opencv2/features2d/features2d.hpp" using namespace std; using namespace cv; using namespace cv::gpu; void help() { cout
2
Antworten
Ich bin am installieren tensorflow von der Quelle (Dokumentation). Cuda driver version: nvcc: NVIDIA (R) Cuda compiler driver Cuda compilation tools, release 7.5, V7.5.17 Wenn ich folgenden Befehl ausgeführt : bazel-bin/tensorflow/cc/tutorials_example_trainer --use_gpu er gab mir die folgende
7
Antworten
Ich würde gerne wissen, ob pytorch ist mit meiner GPU. Es ist möglich, zu erkennen, mit nvidia-smi wenn es keine Aktivität von der GPU während des Prozesses, aber ich möchte etwas geschrieben python Skript. Gibt es eine
2
Antworten
wenn ich erfolgreich installieren tensorflow auf cluster -, habe ich sofort ausgeführt mnist-demo zu prüfen, ob es gut geht, aber hier kam ich mit einem problem. Ich weiß nicht, was soll das ganze, aber wie es aussieht,
1
Antworten
Ich versuche, mit VBO und Instancing Mechanismus der effizienteste Weg. Ich habe eine Welt auf der Grundlage voxels und ich möchte zu ziehen, Ihnen mit möglichst wenigen draw-calls. Der code unten bereitet VBO mit einem quad: void
3
Antworten
Ich bin auf der Suche in GPU-computing, und ich kann nicht herausfinden, was das technische /performance-Unterschiede sind zwischen einer NVIDIA Quadro 6000 und einen NVIDIA-Tesla-C2075-Grafikkarte. Sie haben beide 6 GB RAM und der gleichen Anzahl von Rechenkernen.
2
Antworten
Möchte ich fglrx installieren und die GPU nutzen. Aber es gelang mir nicht, es zu installieren. Ich bin mit ubuntu 14.04.03 Treuen. Hier die lspci Ausgabe: [thomas@elsa:~]$ lspci | grep -i --color 'vga' 00:02.0 VGA compatible controller:
6
Antworten
Ich bin mit einem AWS EC2, g2.2xlarge Instanz mit Ubuntu 14.04 LTS. Ich möchte zu beobachten, die GPU-Auslastung während des Trainings meine TensorFlow Modelle. Ich bekomme einen Fehler versucht zu run 'nvidia-smi'. ubuntu@ip-10-0-1-213:/etc/alternatives$ cd /usr/lib/nvidia-375/bin ubuntu@ip-10-0-1-213:/usr/lib/nvidia-375/bin$ ls
4
Antworten
Mögliche Duplikate von diese Frage. Ich habe ein gpu-Konto, zu dem ich die Verbindung über putty (ssh-login). Habe ich eine virtualenv da und ich bin am installieren tenorflow durch pip für die gpu. Funktioniert alles einwandfrei, wenn
4
Antworten
Habe ich gerade versucht die Installation von CUDA 7.5 auf meinem laptop. Ich deaktiviert lightdm und hat sudo sh cuda7.5.run. Die Treiber-installation übergeben, aber dann bekam ich eine Fehlermeldung Unsupported compiler ... und die installation schlägt fehl.
2
Antworten
Ich habe ein Macbook pro mid 2014 mit intel iris und intel core i5 Prozessor 16 GB RAM. Ich bin Hobeln zu lernen, einige ray-traced 3D. Aber, ich bin mir nicht sicher, ob mein laptop Rendern können,
2
Antworten
Ich bin mit 2 GPUs und ich bin versucht zu zwingen, X-server für die Ausführung auf einer GPU. Laut dieser website : http://nvidia.custhelp.com/app/answers/detail/a_id/3029/~/Verwendung-von-cuda-und-x , hier ist, wie ich Vorgehen sollte : Die X-Anzeige gezwungen werden sollte, auf
5
Antworten
Ich habe Probleme dabei, Theano, die die GPU nutzen auf meinem Rechner. Wenn ich ausführen: /usr/local/lib/python2.7/dist-packages/theano/misc$ THEANO_FLAGS=floatX=float32,Gerät=gpu python check_blas.py WARNUNG (theano.in der sandbox.cuda): CUDA ist installiert, aber Gerät die gpu ist nicht verfügbar (Fehler: kann Nicht die
3
Antworten
Wurde ich installiert CUDA 4 auf meinem laptop (Dell Vostro 3500) und begann zu schreiben, CUDA-Programme. Aber ich bekam eine Fehlermeldung: Treiber ist nicht kompatibel mit diesen Versionen von CUDA. Also habe ich beschlossen, aktualisieren Sie meine
3
Antworten
Habe ich Installiert Theano auf einer Windows Maschine und folgte der Konfiguration Anweisungen. Legte ich die folgenden .theanorc.txt Datei in C:\Users\my_username Ordner: #!sh [global] device = gpu floatX = float32 [nvcc] fastmath = True # flags=-m32 #
3
Antworten
nVidia gelöscht-Unterstützung für alle nicht-quadro-und tesla-Karten, wenn es darum geht, mit ein paar tools und/oder Entwicklung von Bibliotheken/tools. Ich habe zwei GTX 590s, und wenn ich nvidia-smi meisten queryable Felder zurückkehren, N/A, da fiel Sie Unterstützung für
3
Antworten
Wenn ich den folgenden code ausführen mit python 3.5 import numpy as np import time import theano A = np.random.rand(1000,10000).astype(theano.config.floatX) B = np.random.rand(10000,1000).astype(theano.config.floatX) np_start = time.time() AB = A.dot(B) np_end = time.time() X,Y = theano.tensor.matrices('XY') mf =
3
Antworten
Ich würde gerne die Implementierung eines GPU-Bayer zu RGB-Bild-Konvertierung-Algorithmus, und ich Frage mich, welchen Algorithmus der OpenCV cvtColor - Funktion verwendet. Suche an der Quelle, ich sehen, was zu sein scheint eine variable Anzahl von Gradienten-Algorithmus und
1
Antworten
Danken Ihnen sehr für das Lesen meines threads. Ich mache CUDA arbeiten, aber immer cudaDeviceSynchronize() Fehlercode 77: cudaErrorIllegalAddress, ohne jede Idee, warum. Ich habe die Suche für den code und die Funktion, erstaunlich , dass nur wenige
3
Antworten
Ich bin völlig neu zu Begriffen, die mit HPC-computing, aber ich habe gerade gesehen, dass EC2 veröffentlicht Ihre neue Art von Instanz auf der AWS-Plattform, angetrieben durch die neue Nvidia-Tesla-V100, die hat beide Arten von "cores": Cuda-Kerne
2
Antworten
Ich weiß, wie ich das Gegenteil tun, D. H. GpuMat aus CvMat mit hochladen, aber ich brauche eine CvMat aus GpuMat, gibt es eine Methode, die dazu benutzt werden können? Hab den code hat Ihnen geholfen ?
12
Antworten
Ich versuche, ein problem zu lösen, in dem ich bin soll sich ändern, eine Farbe Bild ein Graustufen-Bild. Für diesen Zweck bin ich mit der CUDA-parallel-Ansatz. Die kerne code ich bin Berufung auf die GPU ist wie
3
Antworten
Google hat angekündigt, dass der Android-emulator schließlich wird die GPU verwendet, wie geschrieben hier Aber ich kann nicht finden, ein tutorial, wie es zu benutzen. Ich habe versucht, einige Dinge zu tun und es einfach immer abstürzt.
2
Antworten
Ich würde gerne starten, CPU-und GPU-intensiven Prozess auf einige Maschinen, doch müssen diese Prozesse nicht stören Benutzers Aufgaben. So muss ich mich einschränken, oder zumindest erkennen, GPU-Auslastung durch meine Prozesse. Diese Prozesse sind closed-source, also kann ich
4
Antworten
Stieß ich auf dieses proof-of-concept heute schon (auf TechCrunch.com) und war hin und Weg und fasziniert, wie Sie es geschafft hatte, zu erreichen das Endergebnis. Sie erklären, dass Sie nicht verwenden, webGL oder irgendwelche plugins, die Sie
2
Antworten
Dies ist das Beispiel-MNIST-code, den ich verwende: from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('MNIST_data', one_hot=True) import tensorflow as tf sess = tf.InteractiveSession() x = tf.placeholder(tf.float32, shape=[None, 784]) y_ = tf.placeholder(tf.float32, shape=[None, 10]) W = tf.Variable(tf.zeros([784,10])) b =
4
Antworten
Zu meiner überraschung, habe ich nicht finden können, ein Vergleich dieser Produkte mit open-source-OpenCL-benchmark-suites, wie rodinia und SHOC. Ein solcher Vergleich könnte interessanter sein, als Vergleiche der theoretischen peak-performance oder Leistung in einfachen matrix-Multiplikation-Kerne, die ich in
7
Antworten
Ich habe gerade ausgeführt cmake -D CMAKE_BUILD_TYPE=RELEASE .. aus OpenCV/build, und bekam in meiner Ausgabe: -- OpenCV modules: -- To be built: core imgproc flann highgui features2d calib3d ml video objdetect contrib nonfree gpu legacy photo python
2
Antworten
Ich habe die Suche nach der großen Unterschiede zwischen einer CPU und einer GPU, genauer die feine Linie, trennt die cpu und gpu. Zum Beispiel, warum nicht mehrere cpus statt einer gpu und Umgekehrt. Warum ist die
1
Antworten
Ist diese Grafikkarte kompatibel mit tensorflow/GPU ? *-display description: VGA compatible controller product: Haswell-ULT Integrated Graphics Controller vendor: Intel Corporation physical id: 2 bus info: pci@0000:00:02.0 version: 09 width: 64 bits clock: 33MHz capabilities: msi pm vga_controller
4
Antworten
Beim installieren TensorFlow auf meinem Ubuntu, möchte ich die GPU mit CUDA. Aber ich bin angehalten, zu diesem Schritt in die Offizielle Tutorial : Wo genau ist dieser ./configure ? Oder wo ist mein Stamm-source-tree. Meine TensorFlow
4
Antworten
Bin ich jetzt die Programmierung auf Android und ich Frage mich, ob wir verwenden können, GPGPU für Android jetzt? Ich habe mal gehört, dass Renderscript kann möglicherweise die Ausführung auf GPGPU in der Zukunft. Aber ich Frage
3
Antworten
Ich bin mit Chrome 54.0.2840.87 auf Windows 10. Ich habe zwei Grafikkarten: eine Intel(R) HD Graphics 520, und eine AMD Radeon R5 M335. Bis vor ein paar Wochen, WebGL läuft gut im Chrom. Jetzt, nach nicht mit
3
Antworten
wenn gefragt wird, für nvidia-smi gibt es diese Fehlermeldung: Failed to initialize NVML: GPU access blocked by the operating system weitere Informationen: $ nvcc --verion nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2015 NVIDIA Corporation Built
4
Antworten
Weiß ich, wie man die CPU-info im inneren /proc/, aber gibt es eine Möglichkeit zu GPU-info? So etwas wie die CPU? Im ernst, Sie nach unten gestimmt, ohne zu sagen, nichts? InformationsquelleAutor Rotary Heart | 2013-04-04
6
Antworten
Okay, ich verstehe, dass die voxels sind gerade im Grunde eine volumetrische version von einem pixel. Danach, ich haben keine Idee was Sie auch suchen. Googeln nicht zeigt keine tutorials, ich kann nicht finden, ein Buch über
3
Antworten
Ich versuche zu installieren CUDA auf einem server mit Ubuntu 10.04. Habe ich die NVDIA Anweisungen und installiert die "CUDA-toolkit für Ubuntu Linux 10.04", "GPU-Conputing SDK code samples",und "Entwickler-Treiber für Linux (260.19.26) (64-bit)", mein system ist 64
4
Antworten
Ich habe lange gesucht im web, aber ich bin immer noch sehr verwirrt über dieses Thema. Kann jemand erklären, diese klarer? Ich komme aus einer Luft-und Raumfahrttechnik hintergrund (und nicht von einem Computer Science), so dass, wenn
1
Antworten
Muss ich double-precision-Berechnung in meiner Anwendung. Nach was ich bei google gefunden sollte ich hinzufügen-ein-flag "-arch sm_13" oder "-arch sm_20". Q1: Was ist der Unterschied zwischen "-arch sm_13" und "-arch sm_20" ? Q2: gibt es einen Unterschied