Tag: cuda

CUDA ist eine parallele computing-Plattform und Programmier-Modell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle für die Nvidia-GPUs durch eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.

Fehler : identifier "atomicAdd" nicht definiert ist unter visual studio 2010 & cuda 4.2 mit Fermi-GPU

Anzahl der Antworten 3 Antworten
War ich versucht zu kompilieren, einige CUDA-codes unter visual studio 2010 mit CUDA 4.2 (habe ich das CUDA-Projekt mit Parallel Nsight 2.2), aber ich traf eine Atomare problem "error : identifier "atomicAdd" undefined", die ich noch nicht

Kompilierung der Cuda-code im Qt-Creator unter Windows

Anzahl der Antworten 3 Antworten
Ich habe versucht, für Tage, um ein Qt-Projekt-Datei auf einem 32-bit-Windows-7-system, in dem ich wollen/müssen Cuda-code. Diese Kombination der Dinge ist entweder so einfach, dass niemand jemals die Mühe gemacht, ein Beispiel setzen online, oder so schwierig,

Wie definieren Sie einen CUDA shared memory mit einer Größe bekannt, die zur Laufzeit?

Anzahl der Antworten 2 Antworten
Den __shared__ Speicher in CUDA zu verlangen scheint eine bekannte Größe zur compile-Zeit. Jedoch mein problem, die __shared__ Speicher Größe ist wissen nur zur Laufzeit, d.h. int size=get_size(); __shared__ mem[size]; Dieser wird am Ende mit "Fehler: konstanter

Die dynamische Zuweisung von Konstanten-Speicher in CUDA

Anzahl der Antworten 4 Antworten
Ich bin versucht, die Vorteile der Konstanten-Speicher, aber ich habe eine harte Zeit, herauszufinden, wie nest-arrays. Was ich habe ist ein array von Daten, die zählt, für die interne Daten-aber die sind unterschiedlich für jeden Eintrag. So

linker-problem mit der libstdc++.so.6 in Verbindung mit cuda

Anzahl der Antworten 2 Antworten
heute stieß ich auf ein problem mit dem verlinken meiner kompilierten, cuda-Zeug. ich habe ein Aktuelles debian testing w/2.6.32-3-amd64. ich arbeitete den ganzen Tag an meinem code. kompilieren von Zeit zu Zeit. hatte kein problem. aber dann

nvcc: Befehl nicht gefunden

Anzahl der Antworten 1 Antworten
Ich installiert, die cuda sdk 5.0 /opt und selbst kompiliert alle Beispiele, die ich aber nicht durchführen kann, nvcc. Hier finden Sie einige Konsolen-Ausgabe: Ich verwende linux mint 13. was passiert, wenn Sie geben /opt/bin/nvcc --version Wenn

Globale variable in CUDA

Anzahl der Antworten 1 Antworten
Wie kann ich Globale Variablen in CUDA?? Könnten Sie mir bitte ein Beispiel? Wie kann erstellen von arrays innerhalb eines CUDA-Funktion zum Beispiel __global__ void test() { int *a = new int[10]; } oder Wie erstelle ich

Wo finden CUDA ist cutil_math.h?

Anzahl der Antworten 2 Antworten
Den CUDA-FAQ sagt: CUDA definiert Vektor-Typen wie float4, aber sind keine Operatoren, die auf Ihnen standardmäßig. Allerdings können Sie Ihre eigenen definieren Operatoren mit standard C++. Die CUDA-SDK enthält einen header "cutil_math.h" definiert einige Allgemeine Operationen auf

ist es möglich, zu entwickeln ein cuda-Programm in einer virtuellen Maschine, auf der ein ubuntu installiert

Anzahl der Antworten 1 Antworten
Sah ich einen video, wo ein Kerl kompiliert man seine cuda-Programm in einer virtual-box. Kann mir jemand sagen wie das geht? Gehen Sie bitte zu 01:09:00 in diesem video zu sehen, dass er das Programm kompiliert, in

CUDA und nvcc: mit dem Präprozessor die Wahl zwischen float oder double

Anzahl der Antworten 2 Antworten
Das problem: Mit ein .h, ich will, um zu definieren, real verdoppeln, wenn Sie kompilieren für c/c++ oder cuda mit computing capability >= 1.3. Wenn Sie kompilieren für cuda mit computing capability < 1.3 definieren Sie dann

CUDA-fähigen Gerät

Anzahl der Antworten 2 Antworten
Ich bin sehr sehr neu in CUDA-Programmierung. Gehe ich durch die Beispiele, die kam mit dem SDK. Ich war in der Lage, den code zu kompilieren, aber wenn ich es laufen lasse, bekomme ich die folgende Fehlermeldung:

Standard-host-compiler von nvcc für linux

Anzahl der Antworten 2 Antworten
Ich bin mit der CUDA 4.0 unter Ubuntu 10.10 mit GTX 570 (compute capcability 2.0), mit dem GCC compiler suite. Wie ich es verstehe, die während der Kompilierung der CUDA-compiler-Treiber nvcc spaltet die .cu Dateien in den

Dieses Verständnis CUDA-Kernel starten Parameter

Anzahl der Antworten 1 Antworten
Ich versuche zu analysieren, einige code, habe ich online gefunden und denke ich mich in eine Ecke. Ich freue mich auf eine Histogramm-kernel gestartet mit den folgenden Parametern histogram<<<2500, numBins, numBins * sizeof(unsigned int)>>>(...); Ich weiß, daß

Wie kann ich theano auf der GPU

Anzahl der Antworten 3 Antworten
Wenn ich den folgenden code ausführen mit python 3.5 import numpy as np import time import theano A = np.random.rand(1000,10000).astype(theano.config.floatX) B = np.random.rand(10000,1000).astype(theano.config.floatX) np_start = time.time() AB = A.dot(B) np_end = time.time() X,Y = theano.tensor.matrices('XY') mf =

Wie integrieren CUDA .cu-code mit C++ app

Anzahl der Antworten 1 Antworten
Dieser Beitrag ähnelt meinem früheren post: Wie separate CUDA-code in mehrere Dateien ich fürchte, ich habe so ein Fehler, was ich eigentlich Fragen, ist es zu verwirrend, um zu versuchen und korrigieren Sie es. Ich bin stützend

nvcc fatal : Cannot find-compiler 'cl.exe' in WEG, obwohl Visual Studio 12.0 Hinzugefügt-PFAD

Anzahl der Antworten 2 Antworten
Ich habe alle Anweisungen befolgt aus https://datanoord.com/2016/02/01/setup-a-deep-learning-environment-on-windows-theano-keras-with-gpu-enabled/ aber kann nicht scheinen, um es funktioniert. Habe ich Hinzugefügt C:\Program Files (x86)\Microsoft Visual Studio 12.0\VC\bin zu meiner PATH-variable Jedes mal, wenn ich den code auszuführen, der aus der Theano

Was der Algorithmus tut, OpenCV Bayer-Konvertierung verwenden?

Anzahl der Antworten 3 Antworten
Ich würde gerne die Implementierung eines GPU-Bayer zu RGB-Bild-Konvertierung-Algorithmus, und ich Frage mich, welchen Algorithmus der OpenCV cvtColor - Funktion verwendet. Suche an der Quelle, ich sehen, was zu sein scheint eine variable Anzahl von Gradienten-Algorithmus und

cudaDeviceSynchronize() Fehlercode 77: cudaErrorIllegalAddress

Anzahl der Antworten 1 Antworten
Danken Ihnen sehr für das Lesen meines threads. Ich mache CUDA arbeiten, aber immer cudaDeviceSynchronize() Fehlercode 77: cudaErrorIllegalAddress, ohne jede Idee, warum. Ich habe die Suche für den code und die Funktion, erstaunlich , dass nur wenige

effiziente Möglichkeit, cuda-Datei-Organisation: .cpp .h .cu .cuh .curnel-Dateien

Anzahl der Antworten 2 Antworten
Was ist die meisten leicht zu verstehen/effiziente etc. code-Organisation für cuda. Nach einigen Recherchen fand ich, dass die cuda-Funktion Erklärungen werden sollte .cuh-Datei und Implementierungen befinden sich in .cu-Datei und kernel-Implementierungen .curnel-Dateien. Andere c++ - Zeug .cpp

CUDA-kernel - geschachtelte for-Schleife

Anzahl der Antworten 3 Antworten
Hallo Ich bin versucht, zu schreiben ein CUDA-kernel, führen Sie die folgende Stück code. for (n = 0; n < (total-1); n++) { a = values[n]; for ( i = n+1; i < total ; i++) {

Wie kann ich syntax-highlighting für .cu-Datei in Visual Studio?

Anzahl der Antworten 3 Antworten
Ich studiere CUDA basiert auf der Visual Studio 2008. Könnten Sie mir bitte sagen, wie man syntax-highlighting erscheinen .cu-Datei? InformationsquelleAutor ztdep | 2011-02-22

memory allocation innerhalb eines CUDA-kernel

Anzahl der Antworten 1 Antworten
Habe ich Folgendes (snippet) des Kernes. __global__ void plain(int* geneVec, float* probs, int* nComponents, float* randomNumbers,int *nGenes) { int xid = threadIdx.x + (blockDim.x * blockIdx.x); float* currentProbs= (float*)malloc(sizeof(float)*tmp); ..... ..... currentProbs[0] = probs[start]; for (k=1;k<nComponents[0]; k++)

Erste array-Untergruppen effizient

Anzahl der Antworten 4 Antworten
Gibt es eine effiziente Möglichkeit, eine Teilmenge der C# - array und übergeben es an einem anderen Stück code (ohne änderung des ursprünglichen Arrays)? Ich benutze CUDA.net welche hat eine Funktion, die Kopien eines Arrays auf der

CUDA - How und arbeiten mit komplexen zahlen?

Anzahl der Antworten 1 Antworten
Was CUDA Header sollte ich auch in meinem Programm, wenn ich möchte, um die Arbeit mit komplexen zahlen und einfache Mathematik Operationen (addition und Multiplikation) auf diese komplexen doppelten Nummern innerhalb der kernel selbst? In C++ ich

Was ist eine gute Sortier-Algorithmus auf CUDA?

Anzahl der Antworten 4 Antworten
Ich habe ein array von struct und ich muss Sortieren Sie das array entsprechend einer Eigenschaft der Struktur struct (N). Das Objekt sieht wie folgt aus: struct OBJ { int N; //sort array of OBJ with respect

Ubuntu 14.04 installieren cuda 6.5 ohne Installation nvidia-Treiber

Anzahl der Antworten 1 Antworten
Ich arbeite am Arbeitsplatz mit CPU core I7-4790 und zwei GPUs der GTX 760 4 GB ram/1152-core-memory-16 GB RAM habe ich Ubuntu 14.04.1 LTS nach vielen versuchen und Neuinstallation von Ubuntu viele Male, schließlich habe ich ordnungsgemäß

Was ist der Unterschied zwischen cuda-vs-tensor-Kerne?

Anzahl der Antworten 3 Antworten
Ich bin völlig neu zu Begriffen, die mit HPC-computing, aber ich habe gerade gesehen, dass EC2 veröffentlicht Ihre neue Art von Instanz auf der AWS-Plattform, angetrieben durch die neue Nvidia-Tesla-V100, die hat beide Arten von "cores": Cuda-Kerne

Echtzeit-video-encoding-in DirectShow

Anzahl der Antworten 10 Antworten
Entwickelt ich eine Windows-Anwendung, die video von einem externen Gerät unter Verwendung der DirectShow. Das Bild hat eine Auflösung von 640x480 und videos gespeichert, ohne Komprimierung haben sehr großen Größen (ca. 27 MB pro Sekunde). Mein Ziel

CUDA: cudaEvent_t und cudaThreadSynchronize Nutzung

Anzahl der Antworten 1 Antworten
Ich bin ein bisschen verwirrt über die Verwendung von cudaEvent_t. Derzeit bin ich mit der clock() Aufruf zu finden, der die Dauer von einem kernel-Aufruf: cudaThreadSynchronize(); clock_t begin = clock(); fooKernel<<< x, y >>>( z, w );

wie halten Sie kernel-code, der in separaten .cu-Datei andere als die main .cpp?

Anzahl der Antworten 3 Antworten
Wie kann ich trennen Sie die cuda-kernel-code und die andere cpp-codes in das Projekt? Ich will zu sammeln alle die kernel-Definitionen innerhalb einer einzigen Datei wie die anderen cpp-Dateien fordern Sie in Zeiten der not. Ich habe

CUDA-kernel als member-Funktion einer Klasse

Anzahl der Antworten 1 Antworten
Ich bin mit der CUDA 5.0 und einer Compute Capability 2.1-Karte. Die Frage ist ganz einfach: Kann ein kernel-Teil einer Klasse? Zum Beispiel: class Foo { private: //... public: __global__ void kernel(); }; __global__ void Foo::kernel() {

Fehler:der Bezeichner "blockIdx" ist undefiniert

Anzahl der Antworten 3 Antworten
Mein setup für CUDA Visual Studio 2010 und 2008 SP1 (erforderlich für CUDA). Parallel NSight 1.51 CUDA 4.0 RC oder 3.2 und Schub Grundsätzlich folgte ich der Anleitung auf: http://www.ademiller.com/blogs/tech/2011/03/using-cuda-and-thrust-with-visual-studio-2010/ Ich ging dann zu kompilieren erfolgreich ohne

cudaMemcpyToSymbol vs. cudaMemcpy warum ist es noch da (cudaMemcpyToSymbol)

Anzahl der Antworten 1 Antworten
Wie bereits von anderen Fragen und nach dem link, können Sie nicht mehr verwenden der symbol-name für diese Funktion. Nun, die Funktion ist verschwunden, wenn Sie jemals wollen würde zu benutzen, dies über cudaMemCpy? Wann würde Sie

farbiges Bild zu Graustufen-Bild mit der CUDA-parallel-Verarbeitung

Anzahl der Antworten 12 Antworten
Ich versuche, ein problem zu lösen, in dem ich bin soll sich ändern, eine Farbe Bild ein Graustufen-Bild. Für diesen Zweck bin ich mit der CUDA-parallel-Ansatz. Die kerne code ich bin Berufung auf die GPU ist wie

Gerät initialisieren array in CUDA

Anzahl der Antworten 2 Antworten
Wie kann ich das Gerät initialisieren array zugeordnet wird, die mit cudaMalloc()? Versuchte ich cudaMemset, aber es wird nicht initialisiert alle Werte mit Ausnahme 0.code für cudaMemset sieht aus wie unten, wo der Wert wird initialisiert, 5.

Opencv Error: keine GPU-Unterstützung (Bibliothek kompiliert wird, ohne CUDA-support)

Anzahl der Antworten 3 Antworten
Ich versuche zu arbeiten einige Bild-Prozess-Aufgaben mit opencv auf der GPU mit CUDA. Ich bin mit ubuntu. Richte ich meine zwei Produkte, Opencv und Cuda, ohne ein problem, ich bin sicher, dass. Jedoch, wenn ich versuche zu

Umgang mit Randbedingungen / Halo-Regionen in CUDA

Anzahl der Antworten 3 Antworten
Arbeite ich an Bildbearbeitung mit CUDA und ich habe einen Zweifel über die pixel-Verarbeitung. , Was oft mit der Grenze Pixel eines Bildes, wenn man einen m x m convolution-filter? In einem 3 x 3 convolution kernel,

Setzen Sie eine for-Schleife in einen CUDA-Kernel

Anzahl der Antworten 4 Antworten
Ist eine schlechte Idee, um eine for-Schleife im kernel? oder ist es eine gemeinsame Sache zu tun? Die Frage ist zu allgemein, aber wenn man die Multiplikation von Matrizen zum Beispiel, dann ist es fast sicher erforderlich.

Ubuntu 16.04, CUDA-8 - CUDA-Treiber-version ist nicht ausreichend für die CUDA-runtime-version

Anzahl der Antworten 5 Antworten
Habe ich installiert und den neuesten nvidia-Treiber (375.26) manuell installiert und CUDA mit cuda_8.0.44_linux.ausführen (überspringen Sie den Treiber installieren, da die mitgelieferte Treiber sind älter, 367 glaube ich). Läuft die deviceQuery in CUDA samples erzeugt die folgende

CUDA-Runtime-API-Fehler 38: keine CUDA-fähige Gerät erkannt wird

Anzahl der Antworten 5 Antworten
Die Situation Ich habe eine 2-gpu-server (Ubuntu 12.04), wo ich schaltete eine Tesla C1060 mit einer GTX 670. Als ich es installiert CUDA 5.0 über die 4.2. Danach habe ich kompiliert alle Beispiele ausser für simpleMPI ohne

Was ist die richtige version von CUDA für meine nvidia-Treiber?

Anzahl der Antworten 1 Antworten
Ich bin mit ubuntu 14.04. Ich will zum installieren von CUDA. Aber ich weiß nicht, welche version ist gut für mein laptop. Ich Spur mein-Laufwerk, das ist $cat /proc/driver/nvidia/version NVRM version: NVIDIA UNIX x86_64 Kernel Module 304.125

CUDA steter Erinnerung Best Practices

Anzahl der Antworten 1 Antworten
Präsentiere ich hier einige code __constant__ int array[1024]; __global__ void kernel1(int *d_dst) { int tId = threadIdx.x + blockIdx.x * blockDim.x; d_dst[tId] = array[tId]; } __global__ void kernel2(int *d_dst, int *d_src) { int tId = threadIdx.x +

Verwenden Sie dynamische shared memory allocation für zwei verschiedene Vektoren

Anzahl der Antworten 1 Antworten
In der kernel-Funktion, möchte ich zwei Vektoren des shared memory sowohl mit size Länge (eigentlich sizeof(float)*size). Da es nicht möglich ist, zum Speicher direkt in die kernel-Funktion, wenn eine variable benötigt wird, musste ich es zuweisen, dynamisch,

CUDA 5.0 separaten Kompilierung der Bibliothek mit cmake

Anzahl der Antworten 4 Antworten
Den Erstellungsvorgang von meinem cuda-Bibliothek ist Erhöhung, und so dachte ich, dass separate Kompilierung eingeführt, CUDA 5.0 könnte mir helfen. Ich konnte nicht herausfinden, wie zu erreichen, separate compilation mit cmake. Ich schaute in die NVCC-Dokumentation und

CUDA-Fehlermeldung : unbekannter Fehler beim starten

Anzahl der Antworten 2 Antworten
Dies ist Teil meiner CUDA-code. Aber im letzten Teil dieser code sagt, dass einige Fehlermeldung. unsigned int *mat_count; off_t *mat_position; unsigned int *matches_count; off_t *matches_position; ...... cudaMalloc ( (void **) &mat_count, sizeof(unsigned int)*10); cudaMalloc ( (void **)

CUDA-linking-Fehler - Visual Express 2008 - nvcc schwerwiegender Grund (null) in der Konfigurationsdatei

Anzahl der Antworten 4 Antworten
Ich habe die Suche ausgiebig für eine mögliche Lösung zu meinem Fehler für die letzten 2 Wochen. Ich habe erfolgreich installiert, die Cuda 64-bit-compiler (tools) und-SDK sowie 64-bit-version von Visual Studio Express 2008 und Windows 7 SDK

CUDA-Speicher in __device__ - Funktion

Anzahl der Antworten 1 Antworten
Gibt es eine Möglichkeit in CUDA-Speicher in __device__ - Funktion ? Ich konnte nicht finden alle Beispiele, dies zu tun. Aus dem Handbuch: B. 15 Dynamic Global Memory Allocation void* malloc(size_t size); void free(void* ptr); Zuweisung und

Gibt es ein äquivalent zu memcpy() , funktioniert innerhalb eines CUDA-kernel?

Anzahl der Antworten 3 Antworten
Ich versuche zu brechen auseinander und gestalten Sie die Struktur eines Arrays asynchron mit dem CUDA-kernel. memcpy() funktioniert nicht im kernel, und auch nicht cudaMemcpy()*; ich bin ratlos. Kann mir jemand sagen, die bevorzugte Methode zum kopieren

Wie zu verwenden Grafikspeicher als RAM?

Anzahl der Antworten 1 Antworten
Da Grafik-Karten bieten viel RAM-Speicher (0.5 GB zu 2 GB) und API-Zugriff auf die GPU ist es nicht schwierig, mit CUDA, Stream und mehr tragbare OpenCL ich fragte mich, ob es möglich ist, verwenden Sie Grafik-Speicher wie

Wie sollte ein sehr einfaches Makefile Aussehen für Cuda-Kompilierung unter linux

Anzahl der Antworten 4 Antworten
Ich kompilieren wollen, eine sehr einfache Hallo-Welt-Niveau Cuda-Programm unter Linux. Ich habe drei Dateien: kernel: helloWorld.cu main-Methode: helloWorld.cpp gemeinsamen header: "helloWorld".h Schreiben Sie mir ein einfaches Makefile zum kompilieren dieser mit nvcc und g++? Dank, Gabor Bitte