Tag: cuda

CUDA ist eine parallele computing-Plattform und Programmier-Modell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle für die Nvidia-GPUs durch eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.

Cuda Clang und OS X Mavericks

Anzahl der Antworten 6 Antworten
Ich bin derzeit versuchen zu bauen ein Cuda-Projekt mit Cmake auf MacOS 10.9. Meine C-und C++ - compiler gcc, aber es scheint, dass seit Mavericks gcc und g++ links zu clang, die nicht unterstützt CUDA. Hat jemand

Wie laufen meine CUDA-Anwendung auf ATI-oder Intel-Karte im software-Modus?

Anzahl der Antworten 2 Antworten
Ich möchte in der Lage zu sein, meine software im GPU-Modus auf NVidia und die CPU (Software) - Modus auf ATI oder Intel. Wie kann ich das erreichen? Es ist das gleiche wie PhysX funktioniert. Derzeit bekomme

CUDA 2.1 "error: unknown type name 'size_t'"

Anzahl der Antworten 2 Antworten
System: Ubuntu 11.10 x86-64 CUDA: v 2.1 Beim Versuch zu machen, ein Beispiel-Programm, wie matrixMul ich eine umfangreiche Menge von Fehlern, von denen die meisten "unknown type name 'size_t'." Ich habe Sie sicher, dass /usr/local/cuda/bin in meinem

OpenCV GpuMat Nutzung

Anzahl der Antworten 2 Antworten
Ich versuche zu verwenden OpenCV GpuMat aber ich bin immer ein assert-Fehler, mein code ist wie folgt #include "opencv2/opencv.hpp" #include "opencv2/imgproc/imgproc.hpp" #include "opencv2/highgui/highgui.hpp" #include "opencv2/gpu/gpu.hpp" //... using namespace cv; using namespace cv::gpu; int main() { string baboon

Was kann ich tun gegen "CUDA-Treiber-version ist nicht ausreichend für die CUDA-runtime-version'?

Anzahl der Antworten 4 Antworten
Wenn ich /usr/local/cuda/samples/1_Utilities/deviceQuery und ausführen moose@pc09 /usr/local/cuda/samples/1_Utilities/deviceQuery $ sudo make clean rm -f deviceQuery deviceQuery.o rm -rf ../../bin/x86_64/linux/release/deviceQuery moose@pc09 /usr/local/cuda/samples/1_Utilities/deviceQuery $ sudo make "/usr/local/cuda-7.0"/bin/nvcc -ccbin g++ -I../../common/inc -m64 -gencode arch=compute_20,code=sm_20 -gencode arch=compute_30,code=sm_30 -gencode arch=compute_35,code=sm_35 -gencode arch=compute_37,code=sm_37 -gencode

Tensorflow kann nicht geöffnet werden libcuda.so.1

Anzahl der Antworten 3 Antworten
Ich habe einen laptop mit einer GeForce 940 MX. Ich will Tensorflow und laufen auf der gpu. Ich installierte alles, was von Ihrem tutorial-Seite, wenn ich jetzt importieren Tensorflow, bekomme ich >>> import tensorflow as tf I

Kopieren eine struct mit Zeigern auf CUDA-Gerät

Anzahl der Antworten 3 Antworten
Arbeite ich an einem Projekt, wo ich mein CUDA-Gerät, um Berechnungen auf eine struct mit Zeigern. typedef struct StructA { int* arr; } StructA; Wenn ich Speicher für das struct und dann kopieren Sie Sie auf das

cudart64_80.dll fehlt

Anzahl der Antworten 1 Antworten
Benutze ich CMake-gui 3.8 für Projekt gadgetron (https://github.com/gadgetron/gadgetron). Der code-generator ist "Eclipse CDT4-MinGW Makefiles". Die Configure klicken Sie auf die Schaltfläche generiert den Fehler, da The program can't start because cudart64_80.dll is missing from your computer. Try

CUDA "illegaler Speicherzugriff aufgetreten" Memcpy

Anzahl der Antworten 1 Antworten
Habe ich diese cuda-Datei: #include "cuda.h" #include "../../HandleError.h" #include "Sphere.hpp" #include <stdlib.h> #include <CImg.h> #define WIDTH 1280 #define HEIGHT 720 #define rnd(x) (x*rand()/RAND_MAX) #define SPHERES_COUNT 5 using namespace cimg_library; __global__ void kernel(unsigned char* bitmap, Sphere* s) {

Fehler MSB3721 beim Aufbau der CUDA-Samples für VS2010, WINDOWS7, 64BIT

Anzahl der Antworten 1 Antworten
Habe ich installiert CUDA 5.5 Production Release mit dem Standard-Installationsverzeichnis-Struktur. Dann Folge ich den NVIDIA CUDA-Erste-Schritte-Handbuch für Microsoft Windows. Den nvcc -V-test und deviceQuery.exe und bandwidthTest.exe funktioniert einwandfrei in windows-Befehl zu fördern. Dann versuche ich zu bauen

CUDA 5.0: Ersatz für cutil.h?

Anzahl der Antworten 1 Antworten
Will ich kompilieren, ein altes Projekt (basierend auf CUDA 2.3) mit der neuen CUDA 5.0 Leider macht es die Verwendung der alten cutil.h-header, die nicht in CUDA 5.0 nicht mehr. Gibt es einen Ersatz für dieses header?

Wie include <cuda_runtime.h>.cpp-Datei

Anzahl der Antworten 2 Antworten
Problem habe ich zu zählen <cuda_runtime.h> im .cpp - Datei. Fehler: Cannot include file: cuda_runtime.h: No such file or directory. Ich versuche, complie-code von Rob Farber ( http://www.drdobbs.com/architecture-and-design/222600097?pgno=1 ). Habe ich zusammengestellt einige cuda-codes vor, aber <cuda_runtime.h>

die Verknüpfung in der Bibliothek, enthält eine Referenz auf cuda-kernel

Anzahl der Antworten 1 Antworten
Ich versuche, herauszufinden, wie man einen CUDA-kernel als Teil einer Bibliothek, so dass ich nur hinzufügen, dass die Bibliothek, um meine vorhandenen C++ - Quelldateien, und in der Lage sein, die Verwendung der cuda-kernel. So, wie Sie

Fatal error: cuda.h: No such file or directory

Anzahl der Antworten 2 Antworten
Habe ich erfolgreich installiert, CUDA 8.0 auf meinem PC und ich kann sehen, seine Dateien durch ausführen der folgenden Befehle in meine Ubuntu-16.10: $ sudo find / -name nvcc /usr/local/cuda-8.0/bin/nvcc $ sudo find / -name cuda /usr/local/cuda

Warum ist mein Ruf der CUDA-Mathematik-Bibliothek sqrt () - Funktion fehlschlägt?

Anzahl der Antworten 2 Antworten
Ich bin neu in Cuda, ich habe die folgende Funktion: __global__ void square(float *myArrayGPU) { myArrayGPU[threadIdx.x] = sqrt(threadIdx.x); } Möchte ich die cuda-math-Bibliothek, versuchte ich zu #include "math.h" aber ich bekomme immer noch den Fehler error: calling

Konvertieren IplImage zu CvMat

Anzahl der Antworten 2 Antworten
Hier ist die gpu-surfen-code: #include <iostream> #include <iomanip> #include "opencv2/contrib/contrib.hpp" #include "opencv2/objdetect/objdetect.hpp" #include "opencv2/highgui/highgui.hpp" #include "opencv2/imgproc/imgproc.hpp" #include <opencv2/imgproc/imgproc_c.h> #include "opencv2/gpu/gpu.hpp" #include "opencv2/core/core.hpp" #include "opencv2/features2d/features2d.hpp" using namespace std; using namespace cv; using namespace cv::gpu; void help() { cout

Unbekannter Fehler beim starten auf Memcpy

Anzahl der Antworten 1 Antworten
Bin ich auf ein "unspecified launch failure" beim ausführen meines Programms in Cuda . Ich habe die Fehler . Das Programm ist ein solver, der eine Differentialgleichung . Es iteriert TOTAL_ITER Zeiten . ROOM_X ans ROOM_Y sind

Generieren von Zufallszahlen innerhalb von Cuda-kernel in einen unterschiedlichen Bereich

Anzahl der Antworten 2 Antworten
Ich versuche zu generieren, Zufallszahl, Zufallszahlen innerhalb des cuda-Kernels. Ich wünschte, Sie zum generieren der Zufallszahlen aus der Gleichverteilung und in der integer-form, beginnend von 1 bis 8. Die Zufallszahlen anders sein würde, für jeden der threads.

Suche nach max-Wert in CUDA

Anzahl der Antworten 3 Antworten
Bin ich zu schreiben versucht, einen code in CUDA für die Suche nach dem max-Wert für den gegebenen Satz von zahlen. Nehme an, Sie haben die 20 zahlen, und der kernel läuft auf 2 Blöcke zu 5

Auch den Umgang mit ECC-support-Funktion im NVIDIA-Grafikkarten

Anzahl der Antworten 1 Antworten
server-setup zwei NVIDIA K20m Karten, aber mit ECC aktiviert. Ich habe beobachtet, dass die Volatile GPU-Utilization ist hoch mit den nvidia-smi -a Befehl, auch durch keine computing-task ausgeführt wird, in der Karte. Die K20m ist nur für

Warum kann nicht nvcc meinen Visual C++ - installation?

Anzahl der Antworten 4 Antworten
Ich bin mit Windows 7 Pro x64 auf einem Core i5 mit einer NVIDIA 3100m, die CUDA kompatibel. Habe ich versucht, die Installation der 32-bit-und 64-bit CUDA-toolkits von NVIDIA, leider von einem von Ihnen ich kann nicht

Wie kann ich auswählen, welche GPU für die Ausführung eines Jobs auf?

Anzahl der Antworten 1 Antworten
In einem multi-GPU-Rechner, wie kann ich festlegen, welche GPU eine CUDA-job laufen soll? Als Beispiel, bei der Installation von CUDA, entschied ich mich zur Installation der NVIDIA_CUDA-<#.#>_Samples lief dann mehrere Instanzen des nbody simulation, aber Sie liefen

CUDA cudaMemcpy: invalid argument

Anzahl der Antworten 1 Antworten
Hier ist mein code: struct S { int a, b; float c, d; }; class A { private: S* d; S h[3]; public: A() { cutilSafeCall(cudaMalloc((void**)&d, sizeof(S)*3)); } void Init(); }; void A::Init() { for (int i=0;i<3;i++)

Wie verwenden wir cuPrintf()?

Anzahl der Antworten 2 Antworten
Was müssen wir tun, um zu verwenden cuPrintf()? (Gerät compute capability 1.2, Ubuntu 12) konnte ich nicht finden "cuPrintf.cu" und "cudaPrintf.cuh", so dass ich heruntergeladen Ihren code, und fügen Sie Sie: #include "cuPrintf.cuh" #include "cuPrintf.cu" Dies ist

error while loading shared libraries: libcudart.so.4: cannot open shared object file: No such file or directory

Anzahl der Antworten 1 Antworten
Ich versuche zum ausführen von MPI und CUDA-code auf einem cluster. Der code funktioniert gut auf eine einzige Maschine, aber wenn ich versuche, führen Sie auf cluster, bekomme ich Fehler: error while loading shared libraries: libcudart.so.4: nicht

Die Verwendung von printf() in Cuda 4.0 Kompilierungsfehler

Anzahl der Antworten 1 Antworten
Ich habe eine GTX 570 (Fermi-Architektur), die von compute Capability 2.0. Ich habe Cuda-version 4.0 auf meinem computer und ich bin mit Ubuntu 10.10 Mit Cuda 4.0 ist es möglich, verwenden Sie printf() im inneren Kerne. Hier

Cudamemcpy-Funktion-Verwendung

Anzahl der Antworten 1 Antworten
Wie wird die Funktion cudaMemcpy Arbeit in diesem Fall? Ich habe erklärt, eine matrix wie diese float imagen[par->N][par->M]; und ich möchte um es zu kopieren, um die cuda-Gerät-also ich habe das float *imagen_cuda; int tam_cuda=par->M*par->N*sizeof(float); cudaMalloc((void**) &imagen_cuda,tam_cuda);

CUDA-kernel-Aufruf in einem einfachen Beispiel

Anzahl der Antworten 1 Antworten
Es ist die erste parallel-code von cuda by example . Kann einer beschreiben mich über den kernel-Aufruf : <<< N , 1 >>> Dies ist der code mit wichtigen Punkte : #define N 10 __global__ void add(

Lesen Sie die Ausgabe von nvprof in CUDA

Anzahl der Antworten 2 Antworten
Ich bin mit meinem Programm mit nvprof um Profil-Informationen mit dem Befehl: nvprof -o profileOutput -s ./exe args Wollte ich Informationen über die warp-Divergenz, verschmolz Lesen/schreiben, Belegung usw. Aber wenn ich die Datei öffnen profileOutput, seine in

CUDA-kernel-Start-Parameter erklärt, richtig?

Anzahl der Antworten 3 Antworten
Hier habe ich versucht, zu sich selbst-erklären die CUDA-Start-Parameter-Modell (oder der Ausführung von configuration model), einige pseudo-codes, aber ich weiß nicht, ob gab es einige großen Fehler, So die Hoffnung jemand helfen zu überprüfen, und geben Sie

nicht möglich verwenden Sie printf in der cuda-kernel-Funktion

Anzahl der Antworten 2 Antworten
Scheint es, dass printf funktioniert nicht innerhalb des Kernels von einer cuda-code #include "Common.h" #include<cuda.h> #include <stdio.h> __device__ __global__ void Kernel(float *a_d , float *b_d ,int size) { int idx = threadIdx.x ; int idy = threadIdx.y

Einige Problem mit Atomic fügen Sie in der CUDA-kernel-Betrieb

Anzahl der Antworten 2 Antworten
Ich habe ein Problem mit meinem kernel.cu-Klasse Aufrufen nvcc -v kernel.cu -o kernel.o ich bin immer diese Fehlermeldung: kernel.cu(17): error: identifier "atomicAdd" is undefined Mein code: #include "dot.h" #include <cuda.h> #include "device_functions.h" //might call atomicAdd __global__ void

Was CUDA shared-memory-Größe bedeutet

Anzahl der Antworten 1 Antworten
Ich versuche, dieses problem zu lösen mich, aber ich kann nicht. So möchte ich Ihnen Ratschläge. Ich bin schreiben von kernel-code. VGA ist die GTX 580. xxxx <<< blockNum, threadNum, SharedSize >>> (... threadNum ...) (note. SharedSize

CUDA Thread-Adressierung ((threadIdx.x, threadIdx.y, threadIdx.z) und block addressing (blockidx.x, blockidx.y)

Anzahl der Antworten 4 Antworten
Ich muss nur klären, etwas sehr Grundsätzliches - mit den meisten der rechnerische Beispiele mit so etwas wie: ID = blockIdx.x*blockDim.x+threadIdx.x; //... dann die Berechnung auf array[ID] Meine Frage ist, dass, wenn ich verwenden möchten, die maximale

CUDA Zuweisung von arrays von arrays

Anzahl der Antworten 6 Antworten
Ich habe ein paar Probleme mit der Zuweisung von array-von-arrays in CUDA. void ** data; cudaMalloc(&data, sizeof(void**)*N); //allocates without problems for(int i = 0; i < N; i++) { cudaMalloc(data + i, getSize(i) * sizeof(void*)); //seg fault

Cuda Hello World printf funktioniert nicht, selbst mit -arch=sm_20

Anzahl der Antworten 2 Antworten
Ich nicht glaube, ich war ein absoluter Neuling, mit Cuda, aber anscheinend bin ich. Habe ich vor kurzem aktualisiert meine cuda-Gerät zu einem fähig-Fähigkeit 1.3, 2.1 (Geforce GT 630). Ich dachte, um eine vollständige Aktualisierung auf Cuda

CUDA 7.5 installation: nicht unterstützter compiler-Fehler

Anzahl der Antworten 4 Antworten
Habe ich gerade versucht die Installation von CUDA 7.5 auf meinem laptop. Ich deaktiviert lightdm und hat sudo sh cuda7.5.run. Die Treiber-installation übergeben, aber dann bekam ich eine Fehlermeldung Unsupported compiler ... und die installation schlägt fehl.

GPU-beschleunigte Videobearbeitung mit ffmpeg

Anzahl der Antworten 2 Antworten
Will ich mit ffmpeg zu beschleunigen video-Kodierung und-Dekodierung mit einer NVIDIA-GPU. Vom Auf der NVIDIA-website: NVIDIA-GPUs enthalten eine oder mehrere hardware-basierten decoder und encoder(N) (getrennt von den CUDA-cores), die voll-beschleunigte hardware-basierten video-Decodierung und-Codierung für mehrere populäre codecs.

Kann nicht ausgeführt werden, der CUDA-code, der Abfragen NVML - Fehler bezüglich libnvidia-ml.so

Anzahl der Antworten 4 Antworten
Kürzlich ein Kollege brauchte, um NVML zum Abfragen von Geräteinformationen, also ich habe die Tesla-development-kit 3.304.5 und kopiert die Datei nvml.h /usr/include. Zum test habe ich die kompilierte Beispiel-code in tdk_3.304.5/nvml/Beispiel und es funktionierte gut. Über ein

Wie kann ich änderungen an xorg.conf-Datei zu erzwingen, X-server laufen auf eine bestimmte GPU? (Ich bin mit mehreren Grafikkarten)

Anzahl der Antworten 2 Antworten
Ich bin mit 2 GPUs und ich bin versucht zu zwingen, X-server für die Ausführung auf einer GPU. Laut dieser website : http://nvidia.custhelp.com/app/answers/detail/a_id/3029/~/Verwendung-von-cuda-und-x , hier ist, wie ich Vorgehen sollte : Die X-Anzeige gezwungen werden sollte, auf

Kopieren von struct Daten vom host zum Gerät auf CUDA mit cudaMemcpy

Anzahl der Antworten 4 Antworten
Stehe ich vor einem problem bei kopieren von struct Daten vom host zum Gerät, die in der CUDA-Architektur. Folgende code-snippet. struct point { double x,y; }; int main() { point * a = (point*)malloc(sizeof(point)); a->x=10.0; a->y=10.0; point

/usr/bin/ld: cannot find -lcudart

Anzahl der Antworten 2 Antworten
Ich bin immer folgende Meldung beim Versuch zu kompilieren ein CUDA-Programm: /usr/bin/ld: cannot find -lcudart Habe nie diese Art von Fehler vor. Ist es irgendein problem mit meinem PFAD? Hier ist der compile-Befehl: gfortran -g -O2 -ffree-Linie-Länge-none

cuda installieren Fehler auf Ubuntu 17.04

Anzahl der Antworten 5 Antworten
abigail@abilina:~/Downloads$ sudo dpkg -i cuda-repo-ubuntu1604_8.0.61-1_amd64.deb Selecting previously unselected package cuda-repo-ubuntu1604. (Reading database ... 205999 files and directories currently installed.) Preparing to unpack cuda-repo-ubuntu1604_8.0.61-1_amd64.deb ... Unpacking cuda-repo-ubuntu1604 (8.0.61-1) ... Setting up cuda-repo-ubuntu1604 (8.0.61-1) ... Warning: The postinst maintainerscript

Mit Theano mit der GPU auf Ubuntu 14.04 auf AWS-g2

Anzahl der Antworten 5 Antworten
Ich habe Probleme dabei, Theano, die die GPU nutzen auf meinem Rechner. Wenn ich ausführen: /usr/local/lib/python2.7/dist-packages/theano/misc$ THEANO_FLAGS=floatX=float32,Gerät=gpu python check_blas.py WARNUNG (theano.in der sandbox.cuda): CUDA ist installiert, aber Gerät die gpu ist nicht verfügbar (Fehler: kann Nicht die

CUDA __syncthreads() und Rekursion

Anzahl der Antworten 3 Antworten
Möchte ich __syncthreads() eine Rekursion wie __device__ void foo(int k) { if (some_condition) { for (int i=0;i<8;i++) { foo(i+k); //foo might take longer with some inputs __syncthreads(); } } } Wie funktioniert das __syncthreads() jetzt bewerben? Ich

Treiber nicht finden konnte-kompatible Grafik-hardware

Anzahl der Antworten 3 Antworten
Wurde ich installiert CUDA 4 auf meinem laptop (Dell Vostro 3500) und begann zu schreiben, CUDA-Programme. Aber ich bekam eine Fehlermeldung: Treiber ist nicht kompatibel mit diesen Versionen von CUDA. Also habe ich beschlossen, aktualisieren Sie meine

Suchen Sie CUDA-installation auf Linux

Anzahl der Antworten 1 Antworten
Was ist der beste Weg? Hier sind meine Lösungen: echo $PATH | sed "s/:/\n/g" | grep "cuda/bin" | sed "s/\/bin//g" | head -n 1 which nvcc | sed "s/\/bin\/nvcc//" which nvcc | head -c -10 Sind Sie

Wie Kompilierung der CUDA-App ist Visual Studio 2010?

Anzahl der Antworten 4 Antworten
Wie Kompilierung der CUDA-App ist Visual Studio 2010 ? Hier sind meine Schritte: 1. Erstellen Sie Leere C++ - Projekt ohne vorkompilierte Header 2. Hinzufügen main.cpp int main() { return 0; } Hinzufügen Kernel.cu Genannten ich Beispielprojekt

CUDA Gerät Zu Gerät übertragen teuer

Anzahl der Antworten 2 Antworten
Ich geschrieben habe einige code, um zu versuchen zu tauschen Quadranten einer 2D-matrix für die FFT-Zwecke gespeichert ist, in ein flaches array. int leftover = W-dcW; T *temp; T *topHalf; cudaMalloc((void **)&temp, dcW * sizeof(T)); //swap every

CUDA: wie Sie die Summe aller Elemente eines Arrays in eine Anzahl innerhalb der GPU?

Anzahl der Antworten 2 Antworten
Zuerst von allen, lassen Sie mich sagen, dass ich mir durchaus bewusst bin, dass meine Frage schon einmal gestellt worden ist: Block-Reduktion in CUDA Jedoch, wie ich hoffe, deutlich zu machen, meine Frage ist ein follow-up zu,