Tag: cuda
CUDA ist eine parallele computing-Plattform und Programmier-Modell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle für die Nvidia-GPUs durch eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.
6
Antworten
Ich bin derzeit versuchen zu bauen ein Cuda-Projekt mit Cmake auf MacOS 10.9. Meine C-und C++ - compiler gcc, aber es scheint, dass seit Mavericks gcc und g++ links zu clang, die nicht unterstützt CUDA. Hat jemand
2
Antworten
Ich möchte in der Lage zu sein, meine software im GPU-Modus auf NVidia und die CPU (Software) - Modus auf ATI oder Intel. Wie kann ich das erreichen? Es ist das gleiche wie PhysX funktioniert. Derzeit bekomme
2
Antworten
System: Ubuntu 11.10 x86-64 CUDA: v 2.1 Beim Versuch zu machen, ein Beispiel-Programm, wie matrixMul ich eine umfangreiche Menge von Fehlern, von denen die meisten "unknown type name 'size_t'." Ich habe Sie sicher, dass /usr/local/cuda/bin in meinem
2
Antworten
Ich versuche zu verwenden OpenCV GpuMat aber ich bin immer ein assert-Fehler, mein code ist wie folgt #include "opencv2/opencv.hpp" #include "opencv2/imgproc/imgproc.hpp" #include "opencv2/highgui/highgui.hpp" #include "opencv2/gpu/gpu.hpp" //... using namespace cv; using namespace cv::gpu; int main() { string baboon
4
Antworten
Wenn ich /usr/local/cuda/samples/1_Utilities/deviceQuery und ausführen moose@pc09 /usr/local/cuda/samples/1_Utilities/deviceQuery $ sudo make clean rm -f deviceQuery deviceQuery.o rm -rf ../../bin/x86_64/linux/release/deviceQuery moose@pc09 /usr/local/cuda/samples/1_Utilities/deviceQuery $ sudo make "/usr/local/cuda-7.0"/bin/nvcc -ccbin g++ -I../../common/inc -m64 -gencode arch=compute_20,code=sm_20 -gencode arch=compute_30,code=sm_30 -gencode arch=compute_35,code=sm_35 -gencode arch=compute_37,code=sm_37 -gencode
3
Antworten
Ich habe einen laptop mit einer GeForce 940 MX. Ich will Tensorflow und laufen auf der gpu. Ich installierte alles, was von Ihrem tutorial-Seite, wenn ich jetzt importieren Tensorflow, bekomme ich >>> import tensorflow as tf I
3
Antworten
Arbeite ich an einem Projekt, wo ich mein CUDA-Gerät, um Berechnungen auf eine struct mit Zeigern. typedef struct StructA { int* arr; } StructA; Wenn ich Speicher für das struct und dann kopieren Sie Sie auf das
1
Antworten
Benutze ich CMake-gui 3.8 für Projekt gadgetron (https://github.com/gadgetron/gadgetron). Der code-generator ist "Eclipse CDT4-MinGW Makefiles". Die Configure klicken Sie auf die Schaltfläche generiert den Fehler, da The program can't start because cudart64_80.dll is missing from your computer. Try
1
Antworten
Habe ich diese cuda-Datei: #include "cuda.h" #include "../../HandleError.h" #include "Sphere.hpp" #include <stdlib.h> #include <CImg.h> #define WIDTH 1280 #define HEIGHT 720 #define rnd(x) (x*rand()/RAND_MAX) #define SPHERES_COUNT 5 using namespace cimg_library; __global__ void kernel(unsigned char* bitmap, Sphere* s) {
1
Antworten
Habe ich installiert CUDA 5.5 Production Release mit dem Standard-Installationsverzeichnis-Struktur. Dann Folge ich den NVIDIA CUDA-Erste-Schritte-Handbuch für Microsoft Windows. Den nvcc -V-test und deviceQuery.exe und bandwidthTest.exe funktioniert einwandfrei in windows-Befehl zu fördern. Dann versuche ich zu bauen
1
Antworten
Will ich kompilieren, ein altes Projekt (basierend auf CUDA 2.3) mit der neuen CUDA 5.0 Leider macht es die Verwendung der alten cutil.h-header, die nicht in CUDA 5.0 nicht mehr. Gibt es einen Ersatz für dieses header?
2
Antworten
Problem habe ich zu zählen <cuda_runtime.h> im .cpp - Datei. Fehler: Cannot include file: cuda_runtime.h: No such file or directory. Ich versuche, complie-code von Rob Farber ( http://www.drdobbs.com/architecture-and-design/222600097?pgno=1 ). Habe ich zusammengestellt einige cuda-codes vor, aber <cuda_runtime.h>
1
Antworten
Ich versuche, herauszufinden, wie man einen CUDA-kernel als Teil einer Bibliothek, so dass ich nur hinzufügen, dass die Bibliothek, um meine vorhandenen C++ - Quelldateien, und in der Lage sein, die Verwendung der cuda-kernel. So, wie Sie
2
Antworten
Habe ich erfolgreich installiert, CUDA 8.0 auf meinem PC und ich kann sehen, seine Dateien durch ausführen der folgenden Befehle in meine Ubuntu-16.10: $ sudo find / -name nvcc /usr/local/cuda-8.0/bin/nvcc $ sudo find / -name cuda /usr/local/cuda
2
Antworten
Ich bin neu in Cuda, ich habe die folgende Funktion: __global__ void square(float *myArrayGPU) { myArrayGPU[threadIdx.x] = sqrt(threadIdx.x); } Möchte ich die cuda-math-Bibliothek, versuchte ich zu #include "math.h" aber ich bekomme immer noch den Fehler error: calling
2
Antworten
Hier ist die gpu-surfen-code: #include <iostream> #include <iomanip> #include "opencv2/contrib/contrib.hpp" #include "opencv2/objdetect/objdetect.hpp" #include "opencv2/highgui/highgui.hpp" #include "opencv2/imgproc/imgproc.hpp" #include <opencv2/imgproc/imgproc_c.h> #include "opencv2/gpu/gpu.hpp" #include "opencv2/core/core.hpp" #include "opencv2/features2d/features2d.hpp" using namespace std; using namespace cv; using namespace cv::gpu; void help() { cout
1
Antworten
Bin ich auf ein "unspecified launch failure" beim ausführen meines Programms in Cuda . Ich habe die Fehler . Das Programm ist ein solver, der eine Differentialgleichung . Es iteriert TOTAL_ITER Zeiten . ROOM_X ans ROOM_Y sind
2
Antworten
Ich versuche zu generieren, Zufallszahl, Zufallszahlen innerhalb des cuda-Kernels. Ich wünschte, Sie zum generieren der Zufallszahlen aus der Gleichverteilung und in der integer-form, beginnend von 1 bis 8. Die Zufallszahlen anders sein würde, für jeden der threads.
3
Antworten
Bin ich zu schreiben versucht, einen code in CUDA für die Suche nach dem max-Wert für den gegebenen Satz von zahlen. Nehme an, Sie haben die 20 zahlen, und der kernel läuft auf 2 Blöcke zu 5
1
Antworten
server-setup zwei NVIDIA K20m Karten, aber mit ECC aktiviert. Ich habe beobachtet, dass die Volatile GPU-Utilization ist hoch mit den nvidia-smi -a Befehl, auch durch keine computing-task ausgeführt wird, in der Karte. Die K20m ist nur für
4
Antworten
Ich bin mit Windows 7 Pro x64 auf einem Core i5 mit einer NVIDIA 3100m, die CUDA kompatibel. Habe ich versucht, die Installation der 32-bit-und 64-bit CUDA-toolkits von NVIDIA, leider von einem von Ihnen ich kann nicht
1
Antworten
In einem multi-GPU-Rechner, wie kann ich festlegen, welche GPU eine CUDA-job laufen soll? Als Beispiel, bei der Installation von CUDA, entschied ich mich zur Installation der NVIDIA_CUDA-<#.#>_Samples lief dann mehrere Instanzen des nbody simulation, aber Sie liefen
1
Antworten
Hier ist mein code: struct S { int a, b; float c, d; }; class A { private: S* d; S h[3]; public: A() { cutilSafeCall(cudaMalloc((void**)&d, sizeof(S)*3)); } void Init(); }; void A::Init() { for (int i=0;i<3;i++)
2
Antworten
Was müssen wir tun, um zu verwenden cuPrintf()? (Gerät compute capability 1.2, Ubuntu 12) konnte ich nicht finden "cuPrintf.cu" und "cudaPrintf.cuh", so dass ich heruntergeladen Ihren code, und fügen Sie Sie: #include "cuPrintf.cuh" #include "cuPrintf.cu" Dies ist
1
Antworten
Ich versuche zum ausführen von MPI und CUDA-code auf einem cluster. Der code funktioniert gut auf eine einzige Maschine, aber wenn ich versuche, führen Sie auf cluster, bekomme ich Fehler: error while loading shared libraries: libcudart.so.4: nicht
1
Antworten
Ich habe eine GTX 570 (Fermi-Architektur), die von compute Capability 2.0. Ich habe Cuda-version 4.0 auf meinem computer und ich bin mit Ubuntu 10.10 Mit Cuda 4.0 ist es möglich, verwenden Sie printf() im inneren Kerne. Hier
1
Antworten
Wie wird die Funktion cudaMemcpy Arbeit in diesem Fall? Ich habe erklärt, eine matrix wie diese float imagen[par->N][par->M]; und ich möchte um es zu kopieren, um die cuda-Gerät-also ich habe das float *imagen_cuda; int tam_cuda=par->M*par->N*sizeof(float); cudaMalloc((void**) &imagen_cuda,tam_cuda);
1
Antworten
Es ist die erste parallel-code von cuda by example . Kann einer beschreiben mich über den kernel-Aufruf : <<< N , 1 >>> Dies ist der code mit wichtigen Punkte : #define N 10 __global__ void add(
2
Antworten
Ich bin mit meinem Programm mit nvprof um Profil-Informationen mit dem Befehl: nvprof -o profileOutput -s ./exe args Wollte ich Informationen über die warp-Divergenz, verschmolz Lesen/schreiben, Belegung usw. Aber wenn ich die Datei öffnen profileOutput, seine in
3
Antworten
Hier habe ich versucht, zu sich selbst-erklären die CUDA-Start-Parameter-Modell (oder der Ausführung von configuration model), einige pseudo-codes, aber ich weiß nicht, ob gab es einige großen Fehler, So die Hoffnung jemand helfen zu überprüfen, und geben Sie
2
Antworten
Scheint es, dass printf funktioniert nicht innerhalb des Kernels von einer cuda-code #include "Common.h" #include<cuda.h> #include <stdio.h> __device__ __global__ void Kernel(float *a_d , float *b_d ,int size) { int idx = threadIdx.x ; int idy = threadIdx.y
2
Antworten
Ich habe ein Problem mit meinem kernel.cu-Klasse Aufrufen nvcc -v kernel.cu -o kernel.o ich bin immer diese Fehlermeldung: kernel.cu(17): error: identifier "atomicAdd" is undefined Mein code: #include "dot.h" #include <cuda.h> #include "device_functions.h" //might call atomicAdd __global__ void
1
Antworten
Ich versuche, dieses problem zu lösen mich, aber ich kann nicht. So möchte ich Ihnen Ratschläge. Ich bin schreiben von kernel-code. VGA ist die GTX 580. xxxx <<< blockNum, threadNum, SharedSize >>> (... threadNum ...) (note. SharedSize
4
Antworten
Ich muss nur klären, etwas sehr Grundsätzliches - mit den meisten der rechnerische Beispiele mit so etwas wie: ID = blockIdx.x*blockDim.x+threadIdx.x; //... dann die Berechnung auf array[ID] Meine Frage ist, dass, wenn ich verwenden möchten, die maximale
6
Antworten
Ich habe ein paar Probleme mit der Zuweisung von array-von-arrays in CUDA. void ** data; cudaMalloc(&data, sizeof(void**)*N); //allocates without problems for(int i = 0; i < N; i++) { cudaMalloc(data + i, getSize(i) * sizeof(void*)); //seg fault
2
Antworten
Ich nicht glaube, ich war ein absoluter Neuling, mit Cuda, aber anscheinend bin ich. Habe ich vor kurzem aktualisiert meine cuda-Gerät zu einem fähig-Fähigkeit 1.3, 2.1 (Geforce GT 630). Ich dachte, um eine vollständige Aktualisierung auf Cuda
4
Antworten
Habe ich gerade versucht die Installation von CUDA 7.5 auf meinem laptop. Ich deaktiviert lightdm und hat sudo sh cuda7.5.run. Die Treiber-installation übergeben, aber dann bekam ich eine Fehlermeldung Unsupported compiler ... und die installation schlägt fehl.
2
Antworten
Will ich mit ffmpeg zu beschleunigen video-Kodierung und-Dekodierung mit einer NVIDIA-GPU. Vom Auf der NVIDIA-website: NVIDIA-GPUs enthalten eine oder mehrere hardware-basierten decoder und encoder(N) (getrennt von den CUDA-cores), die voll-beschleunigte hardware-basierten video-Decodierung und-Codierung für mehrere populäre codecs.
4
Antworten
Kürzlich ein Kollege brauchte, um NVML zum Abfragen von Geräteinformationen, also ich habe die Tesla-development-kit 3.304.5 und kopiert die Datei nvml.h /usr/include. Zum test habe ich die kompilierte Beispiel-code in tdk_3.304.5/nvml/Beispiel und es funktionierte gut. Über ein
2
Antworten
Ich bin mit 2 GPUs und ich bin versucht zu zwingen, X-server für die Ausführung auf einer GPU. Laut dieser website : http://nvidia.custhelp.com/app/answers/detail/a_id/3029/~/Verwendung-von-cuda-und-x , hier ist, wie ich Vorgehen sollte : Die X-Anzeige gezwungen werden sollte, auf
4
Antworten
Stehe ich vor einem problem bei kopieren von struct Daten vom host zum Gerät, die in der CUDA-Architektur. Folgende code-snippet. struct point { double x,y; }; int main() { point * a = (point*)malloc(sizeof(point)); a->x=10.0; a->y=10.0; point
2
Antworten
Ich bin immer folgende Meldung beim Versuch zu kompilieren ein CUDA-Programm: /usr/bin/ld: cannot find -lcudart Habe nie diese Art von Fehler vor. Ist es irgendein problem mit meinem PFAD? Hier ist der compile-Befehl: gfortran -g -O2 -ffree-Linie-Länge-none
5
Antworten
abigail@abilina:~/Downloads$ sudo dpkg -i cuda-repo-ubuntu1604_8.0.61-1_amd64.deb Selecting previously unselected package cuda-repo-ubuntu1604. (Reading database ... 205999 files and directories currently installed.) Preparing to unpack cuda-repo-ubuntu1604_8.0.61-1_amd64.deb ... Unpacking cuda-repo-ubuntu1604 (8.0.61-1) ... Setting up cuda-repo-ubuntu1604 (8.0.61-1) ... Warning: The postinst maintainerscript
5
Antworten
Ich habe Probleme dabei, Theano, die die GPU nutzen auf meinem Rechner. Wenn ich ausführen: /usr/local/lib/python2.7/dist-packages/theano/misc$ THEANO_FLAGS=floatX=float32,Gerät=gpu python check_blas.py WARNUNG (theano.in der sandbox.cuda): CUDA ist installiert, aber Gerät die gpu ist nicht verfügbar (Fehler: kann Nicht die
3
Antworten
Möchte ich __syncthreads() eine Rekursion wie __device__ void foo(int k) { if (some_condition) { for (int i=0;i<8;i++) { foo(i+k); //foo might take longer with some inputs __syncthreads(); } } } Wie funktioniert das __syncthreads() jetzt bewerben? Ich
3
Antworten
Wurde ich installiert CUDA 4 auf meinem laptop (Dell Vostro 3500) und begann zu schreiben, CUDA-Programme. Aber ich bekam eine Fehlermeldung: Treiber ist nicht kompatibel mit diesen Versionen von CUDA. Also habe ich beschlossen, aktualisieren Sie meine
1
Antworten
Was ist der beste Weg? Hier sind meine Lösungen: echo $PATH | sed "s/:/\n/g" | grep "cuda/bin" | sed "s/\/bin//g" | head -n 1 which nvcc | sed "s/\/bin\/nvcc//" which nvcc | head -c -10 Sind Sie
4
Antworten
Wie Kompilierung der CUDA-App ist Visual Studio 2010 ? Hier sind meine Schritte: 1. Erstellen Sie Leere C++ - Projekt ohne vorkompilierte Header 2. Hinzufügen main.cpp int main() { return 0; } Hinzufügen Kernel.cu Genannten ich Beispielprojekt
2
Antworten
Ich geschrieben habe einige code, um zu versuchen zu tauschen Quadranten einer 2D-matrix für die FFT-Zwecke gespeichert ist, in ein flaches array. int leftover = W-dcW; T *temp; T *topHalf; cudaMalloc((void **)&temp, dcW * sizeof(T)); //swap every
2
Antworten
Zuerst von allen, lassen Sie mich sagen, dass ich mir durchaus bewusst bin, dass meine Frage schon einmal gestellt worden ist: Block-Reduktion in CUDA Jedoch, wie ich hoffe, deutlich zu machen, meine Frage ist ein follow-up zu,