Tag: cuda
CUDA ist eine parallele computing-Plattform und Programmier-Modell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle für die Nvidia-GPUs durch eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.
3
Antworten
War ich versucht zu kompilieren, einige CUDA-codes unter visual studio 2010 mit CUDA 4.2 (habe ich das CUDA-Projekt mit Parallel Nsight 2.2), aber ich traf eine Atomare problem "error : identifier "atomicAdd" undefined", die ich noch nicht
3
Antworten
Ich habe versucht, für Tage, um ein Qt-Projekt-Datei auf einem 32-bit-Windows-7-system, in dem ich wollen/müssen Cuda-code. Diese Kombination der Dinge ist entweder so einfach, dass niemand jemals die Mühe gemacht, ein Beispiel setzen online, oder so schwierig,
2
Antworten
Den __shared__ Speicher in CUDA zu verlangen scheint eine bekannte Größe zur compile-Zeit. Jedoch mein problem, die __shared__ Speicher Größe ist wissen nur zur Laufzeit, d.h. int size=get_size(); __shared__ mem[size]; Dieser wird am Ende mit "Fehler: konstanter
4
Antworten
Ich bin versucht, die Vorteile der Konstanten-Speicher, aber ich habe eine harte Zeit, herauszufinden, wie nest-arrays. Was ich habe ist ein array von Daten, die zählt, für die interne Daten-aber die sind unterschiedlich für jeden Eintrag. So
2
Antworten
heute stieß ich auf ein problem mit dem verlinken meiner kompilierten, cuda-Zeug. ich habe ein Aktuelles debian testing w/2.6.32-3-amd64. ich arbeitete den ganzen Tag an meinem code. kompilieren von Zeit zu Zeit. hatte kein problem. aber dann
1
Antworten
Ich installiert, die cuda sdk 5.0 /opt und selbst kompiliert alle Beispiele, die ich aber nicht durchführen kann, nvcc. Hier finden Sie einige Konsolen-Ausgabe: Ich verwende linux mint 13. was passiert, wenn Sie geben /opt/bin/nvcc --version Wenn
1
Antworten
Wie kann ich Globale Variablen in CUDA?? Könnten Sie mir bitte ein Beispiel? Wie kann erstellen von arrays innerhalb eines CUDA-Funktion zum Beispiel __global__ void test() { int *a = new int[10]; } oder Wie erstelle ich
2
Antworten
Den CUDA-FAQ sagt: CUDA definiert Vektor-Typen wie float4, aber sind keine Operatoren, die auf Ihnen standardmäßig. Allerdings können Sie Ihre eigenen definieren Operatoren mit standard C++. Die CUDA-SDK enthält einen header "cutil_math.h" definiert einige Allgemeine Operationen auf
1
Antworten
Sah ich einen video, wo ein Kerl kompiliert man seine cuda-Programm in einer virtual-box. Kann mir jemand sagen wie das geht? Gehen Sie bitte zu 01:09:00 in diesem video zu sehen, dass er das Programm kompiliert, in
2
Antworten
Das problem: Mit ein .h, ich will, um zu definieren, real verdoppeln, wenn Sie kompilieren für c/c++ oder cuda mit computing capability >= 1.3. Wenn Sie kompilieren für cuda mit computing capability < 1.3 definieren Sie dann
2
Antworten
Ich bin sehr sehr neu in CUDA-Programmierung. Gehe ich durch die Beispiele, die kam mit dem SDK. Ich war in der Lage, den code zu kompilieren, aber wenn ich es laufen lasse, bekomme ich die folgende Fehlermeldung:
2
Antworten
Ich bin mit der CUDA 4.0 unter Ubuntu 10.10 mit GTX 570 (compute capcability 2.0), mit dem GCC compiler suite. Wie ich es verstehe, die während der Kompilierung der CUDA-compiler-Treiber nvcc spaltet die .cu Dateien in den
1
Antworten
Ich versuche zu analysieren, einige code, habe ich online gefunden und denke ich mich in eine Ecke. Ich freue mich auf eine Histogramm-kernel gestartet mit den folgenden Parametern histogram<<<2500, numBins, numBins * sizeof(unsigned int)>>>(...); Ich weiß, daß
3
Antworten
Wenn ich den folgenden code ausführen mit python 3.5 import numpy as np import time import theano A = np.random.rand(1000,10000).astype(theano.config.floatX) B = np.random.rand(10000,1000).astype(theano.config.floatX) np_start = time.time() AB = A.dot(B) np_end = time.time() X,Y = theano.tensor.matrices('XY') mf =
1
Antworten
Dieser Beitrag ähnelt meinem früheren post: Wie separate CUDA-code in mehrere Dateien ich fürchte, ich habe so ein Fehler, was ich eigentlich Fragen, ist es zu verwirrend, um zu versuchen und korrigieren Sie es. Ich bin stützend
2
Antworten
Ich habe alle Anweisungen befolgt aus https://datanoord.com/2016/02/01/setup-a-deep-learning-environment-on-windows-theano-keras-with-gpu-enabled/ aber kann nicht scheinen, um es funktioniert. Habe ich Hinzugefügt C:\Program Files (x86)\Microsoft Visual Studio 12.0\VC\bin zu meiner PATH-variable Jedes mal, wenn ich den code auszuführen, der aus der Theano
3
Antworten
Ich würde gerne die Implementierung eines GPU-Bayer zu RGB-Bild-Konvertierung-Algorithmus, und ich Frage mich, welchen Algorithmus der OpenCV cvtColor - Funktion verwendet. Suche an der Quelle, ich sehen, was zu sein scheint eine variable Anzahl von Gradienten-Algorithmus und
1
Antworten
Danken Ihnen sehr für das Lesen meines threads. Ich mache CUDA arbeiten, aber immer cudaDeviceSynchronize() Fehlercode 77: cudaErrorIllegalAddress, ohne jede Idee, warum. Ich habe die Suche für den code und die Funktion, erstaunlich , dass nur wenige
2
Antworten
Was ist die meisten leicht zu verstehen/effiziente etc. code-Organisation für cuda. Nach einigen Recherchen fand ich, dass die cuda-Funktion Erklärungen werden sollte .cuh-Datei und Implementierungen befinden sich in .cu-Datei und kernel-Implementierungen .curnel-Dateien. Andere c++ - Zeug .cpp
3
Antworten
Hallo Ich bin versucht, zu schreiben ein CUDA-kernel, führen Sie die folgende Stück code. for (n = 0; n < (total-1); n++) { a = values[n]; for ( i = n+1; i < total ; i++) {
3
Antworten
Ich studiere CUDA basiert auf der Visual Studio 2008. Könnten Sie mir bitte sagen, wie man syntax-highlighting erscheinen .cu-Datei? InformationsquelleAutor ztdep | 2011-02-22
1
Antworten
Habe ich Folgendes (snippet) des Kernes. __global__ void plain(int* geneVec, float* probs, int* nComponents, float* randomNumbers,int *nGenes) { int xid = threadIdx.x + (blockDim.x * blockIdx.x); float* currentProbs= (float*)malloc(sizeof(float)*tmp); ..... ..... currentProbs[0] = probs[start]; for (k=1;k<nComponents[0]; k++)
4
Antworten
Gibt es eine effiziente Möglichkeit, eine Teilmenge der C# - array und übergeben es an einem anderen Stück code (ohne änderung des ursprünglichen Arrays)? Ich benutze CUDA.net welche hat eine Funktion, die Kopien eines Arrays auf der
1
Antworten
Was CUDA Header sollte ich auch in meinem Programm, wenn ich möchte, um die Arbeit mit komplexen zahlen und einfache Mathematik Operationen (addition und Multiplikation) auf diese komplexen doppelten Nummern innerhalb der kernel selbst? In C++ ich
4
Antworten
Ich habe ein array von struct und ich muss Sortieren Sie das array entsprechend einer Eigenschaft der Struktur struct (N). Das Objekt sieht wie folgt aus: struct OBJ { int N; //sort array of OBJ with respect
1
Antworten
Ich arbeite am Arbeitsplatz mit CPU core I7-4790 und zwei GPUs der GTX 760 4 GB ram/1152-core-memory-16 GB RAM habe ich Ubuntu 14.04.1 LTS nach vielen versuchen und Neuinstallation von Ubuntu viele Male, schließlich habe ich ordnungsgemäß
3
Antworten
Ich bin völlig neu zu Begriffen, die mit HPC-computing, aber ich habe gerade gesehen, dass EC2 veröffentlicht Ihre neue Art von Instanz auf der AWS-Plattform, angetrieben durch die neue Nvidia-Tesla-V100, die hat beide Arten von "cores": Cuda-Kerne
10
Antworten
Entwickelt ich eine Windows-Anwendung, die video von einem externen Gerät unter Verwendung der DirectShow. Das Bild hat eine Auflösung von 640x480 und videos gespeichert, ohne Komprimierung haben sehr großen Größen (ca. 27 MB pro Sekunde). Mein Ziel
1
Antworten
Ich bin ein bisschen verwirrt über die Verwendung von cudaEvent_t. Derzeit bin ich mit der clock() Aufruf zu finden, der die Dauer von einem kernel-Aufruf: cudaThreadSynchronize(); clock_t begin = clock(); fooKernel<<< x, y >>>( z, w );
3
Antworten
Wie kann ich trennen Sie die cuda-kernel-code und die andere cpp-codes in das Projekt? Ich will zu sammeln alle die kernel-Definitionen innerhalb einer einzigen Datei wie die anderen cpp-Dateien fordern Sie in Zeiten der not. Ich habe
1
Antworten
Ich bin mit der CUDA 5.0 und einer Compute Capability 2.1-Karte. Die Frage ist ganz einfach: Kann ein kernel-Teil einer Klasse? Zum Beispiel: class Foo { private: //... public: __global__ void kernel(); }; __global__ void Foo::kernel() {
3
Antworten
Mein setup für CUDA Visual Studio 2010 und 2008 SP1 (erforderlich für CUDA). Parallel NSight 1.51 CUDA 4.0 RC oder 3.2 und Schub Grundsätzlich folgte ich der Anleitung auf: http://www.ademiller.com/blogs/tech/2011/03/using-cuda-and-thrust-with-visual-studio-2010/ Ich ging dann zu kompilieren erfolgreich ohne
1
Antworten
Wie bereits von anderen Fragen und nach dem link, können Sie nicht mehr verwenden der symbol-name für diese Funktion. Nun, die Funktion ist verschwunden, wenn Sie jemals wollen würde zu benutzen, dies über cudaMemCpy? Wann würde Sie
12
Antworten
Ich versuche, ein problem zu lösen, in dem ich bin soll sich ändern, eine Farbe Bild ein Graustufen-Bild. Für diesen Zweck bin ich mit der CUDA-parallel-Ansatz. Die kerne code ich bin Berufung auf die GPU ist wie
2
Antworten
Wie kann ich das Gerät initialisieren array zugeordnet wird, die mit cudaMalloc()? Versuchte ich cudaMemset, aber es wird nicht initialisiert alle Werte mit Ausnahme 0.code für cudaMemset sieht aus wie unten, wo der Wert wird initialisiert, 5.
3
Antworten
Ich versuche zu arbeiten einige Bild-Prozess-Aufgaben mit opencv auf der GPU mit CUDA. Ich bin mit ubuntu. Richte ich meine zwei Produkte, Opencv und Cuda, ohne ein problem, ich bin sicher, dass. Jedoch, wenn ich versuche zu
3
Antworten
Arbeite ich an Bildbearbeitung mit CUDA und ich habe einen Zweifel über die pixel-Verarbeitung. , Was oft mit der Grenze Pixel eines Bildes, wenn man einen m x m convolution-filter? In einem 3 x 3 convolution kernel,
4
Antworten
Ist eine schlechte Idee, um eine for-Schleife im kernel? oder ist es eine gemeinsame Sache zu tun? Die Frage ist zu allgemein, aber wenn man die Multiplikation von Matrizen zum Beispiel, dann ist es fast sicher erforderlich.
5
Antworten
Habe ich installiert und den neuesten nvidia-Treiber (375.26) manuell installiert und CUDA mit cuda_8.0.44_linux.ausführen (überspringen Sie den Treiber installieren, da die mitgelieferte Treiber sind älter, 367 glaube ich). Läuft die deviceQuery in CUDA samples erzeugt die folgende
5
Antworten
Die Situation Ich habe eine 2-gpu-server (Ubuntu 12.04), wo ich schaltete eine Tesla C1060 mit einer GTX 670. Als ich es installiert CUDA 5.0 über die 4.2. Danach habe ich kompiliert alle Beispiele ausser für simpleMPI ohne
1
Antworten
Ich bin mit ubuntu 14.04. Ich will zum installieren von CUDA. Aber ich weiß nicht, welche version ist gut für mein laptop. Ich Spur mein-Laufwerk, das ist $cat /proc/driver/nvidia/version NVRM version: NVIDIA UNIX x86_64 Kernel Module 304.125
1
Antworten
Präsentiere ich hier einige code __constant__ int array[1024]; __global__ void kernel1(int *d_dst) { int tId = threadIdx.x + blockIdx.x * blockDim.x; d_dst[tId] = array[tId]; } __global__ void kernel2(int *d_dst, int *d_src) { int tId = threadIdx.x +
1
Antworten
In der kernel-Funktion, möchte ich zwei Vektoren des shared memory sowohl mit size Länge (eigentlich sizeof(float)*size). Da es nicht möglich ist, zum Speicher direkt in die kernel-Funktion, wenn eine variable benötigt wird, musste ich es zuweisen, dynamisch,
4
Antworten
Den Erstellungsvorgang von meinem cuda-Bibliothek ist Erhöhung, und so dachte ich, dass separate Kompilierung eingeführt, CUDA 5.0 könnte mir helfen. Ich konnte nicht herausfinden, wie zu erreichen, separate compilation mit cmake. Ich schaute in die NVCC-Dokumentation und
2
Antworten
Dies ist Teil meiner CUDA-code. Aber im letzten Teil dieser code sagt, dass einige Fehlermeldung. unsigned int *mat_count; off_t *mat_position; unsigned int *matches_count; off_t *matches_position; ...... cudaMalloc ( (void **) &mat_count, sizeof(unsigned int)*10); cudaMalloc ( (void **)
4
Antworten
Ich habe die Suche ausgiebig für eine mögliche Lösung zu meinem Fehler für die letzten 2 Wochen. Ich habe erfolgreich installiert, die Cuda 64-bit-compiler (tools) und-SDK sowie 64-bit-version von Visual Studio Express 2008 und Windows 7 SDK
1
Antworten
Gibt es eine Möglichkeit in CUDA-Speicher in __device__ - Funktion ? Ich konnte nicht finden alle Beispiele, dies zu tun. Aus dem Handbuch: B. 15 Dynamic Global Memory Allocation void* malloc(size_t size); void free(void* ptr); Zuweisung und
3
Antworten
Ich versuche zu brechen auseinander und gestalten Sie die Struktur eines Arrays asynchron mit dem CUDA-kernel. memcpy() funktioniert nicht im kernel, und auch nicht cudaMemcpy()*; ich bin ratlos. Kann mir jemand sagen, die bevorzugte Methode zum kopieren
1
Antworten
Da Grafik-Karten bieten viel RAM-Speicher (0.5 GB zu 2 GB) und API-Zugriff auf die GPU ist es nicht schwierig, mit CUDA, Stream und mehr tragbare OpenCL ich fragte mich, ob es möglich ist, verwenden Sie Grafik-Speicher wie
4
Antworten
Ich kompilieren wollen, eine sehr einfache Hallo-Welt-Niveau Cuda-Programm unter Linux. Ich habe drei Dateien: kernel: helloWorld.cu main-Methode: helloWorld.cpp gemeinsamen header: "helloWorld".h Schreiben Sie mir ein einfaches Makefile zum kompilieren dieser mit nvcc und g++? Dank, Gabor Bitte