Tag: cuda

CUDA ist eine parallele computing-Plattform und Programmier-Modell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle für die Nvidia-GPUs durch eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.

Gibt es einen Assembler für CUDA?

Anzahl der Antworten 3 Antworten
Ich Frage das, weil ich weiß, es gibt einen Weg, um binäre Dateien anstelle von source-Dateien. Auch, ich vermute, dass mit einer Assemblersprache, es wäre einfacher zu simulieren Funktionszeiger. Es sei denn, die Versammlung auf eine GPU

Double-precision-floating-point-in CUDA

Anzahl der Antworten 4 Antworten
Tut CUDA-Unterstützung von double-precision-floating-point-zahlen? Auch, was sind die Gründe für das gleiche? InformationsquelleAutor der Frage cuda-dev | 2010-05-12

Numpy, BLAS-und CUBLAS

Anzahl der Antworten 2 Antworten
Numpy werden kann "verlinkten/kompiliert" gegen verschiedene BLAS-Implementierungen (MKL, ACML, ATLAS, GotoBlas, etc). Das ist nicht immer einfach zu konfigurieren aber es ist möglich. Ist es auch möglich, "link/compile" numpy gegen NVIDIA ' s CUBLAS Umsetzung? Ich konnte

Wie separate CUDA-code in mehrere Dateien

Anzahl der Antworten 4 Antworten
Ich versuche separaten ein CUDA-Programm in zwei getrennte .cu-Dateien im bemühen um näher Rand zu schreiben, eine echte app in C++. Ich habe ein einfaches kleines Programm, dass: Weist einen Speicher auf dem host und dem Gerät.

LNK2038: mismatch erkannt für "RuntimeLibrary': Wert 'MT_StaticRelease' doesn ' T match value 'MD_DynamicRelease' in der Datei.obj

Anzahl der Antworten 4 Antworten
Ich bin die Integration von MatlabC und Cuda zusammen in einem Projekt. Ich verwendete Matlab-mix, um die Verbindung matlab mx-Funktion in c geschrieben mit der cuda-runtime-library, ein linking-Fehler angezeigt, über Konflikte in der statischen Freigabe und dynamic-release

openacc vs openmp & mpi Unterschiede ?

Anzahl der Antworten 4 Antworten
Ich Frage mich, was sind die großen Unterschiede zwischen openacc und openmp. Was ist mit MPI, cuda und opencl ? Ich verstehe die Unterschiede zwischen openmp und mpi, vor allem der Teil über shared und distributed memory

CUDA Liste der Atomare Operationen

Anzahl der Antworten 1 Antworten
Ich Frage mich, ob es eine komplette Liste von atomaren Operationen. Ich konnte nicht finden, dass so etwas wie im internet. InformationsquelleAutor der Frage soroosh.strife | 2012-08-02

Wie kann ich flush GPU-Speicher mit CUDA (physische reset nicht verfügbar ist)

Anzahl der Antworten 4 Antworten
Meine CUDA Programm stürzte während der Ausführung, vor der Speicher wurde geleert. Als Ergebnis Gerätespeicher blieb besetzt. Ich auf eine GTX 580, für die nvidia-smi --gpu-reset wird nicht unterstützt. Platzierung cudaDeviceReset() in der Anfang des Programms ist

Die Installation von cuda 5 Proben in Ubuntu 12.10

Anzahl der Antworten 4 Antworten
Bin ich versucht zu installieren, cuda-5-Beispiele: Driver: Not Selected Toolkit: Not Selected Samples: Installation Failed. Missing required libraries. Aber bekam ich diese Fehlermeldung: Missing required library libglut.so Aber: frederico@zeus:~/Downloads$ sudo find / -name libglut.so* /usr/lib/libglut.so /usr/lib32/nvidia-current/libglut.so Wo

Die Installation von theano auf Windows 8 mit GPU aktiviert

Anzahl der Antworten 7 Antworten
Ich verstehe, dass der Theano Unterstützung für Windows 8.1 ist in der experimentellen Phase, aber ich Frage mich, ob jemand hatte kein Glück mit der Lösung meiner Probleme. Je nach meiner config, bekomme ich drei verschiedene Arten

Kernel-parameter übergeben CUDA?

Anzahl der Antworten 5 Antworten
Ich habe eine newbie Frage bezüglich wie CUDA Kerne arbeiten. Wenn Sie den folgenden code (die Verwendung der Funktion cuPrintf entnommen hier): #include "cuPrintf.cu" __global__ void testKernel(int param){ cuPrintf("Param value: %d\n", param); } int main(void){ //initialize cuPrintf

Einrichten von VS 2010 Intellisense für CUDA-kernel-Aufrufe

Anzahl der Antworten 3 Antworten
Ich habe gerade erst begonnen CUDA-Programmierung und es geht ganz gut, meine GPUs werden erkannt und alles. Ich habe teilweise eingerichtet Intellisense in Visual Studio mit diesem extrem hilfreichen guide hier: http://www.ademiller.com/blogs/tech/2010/10/visual-studio-2010-adding-intellisense-support-for-cuda-c/ und hier: http://www.ademiller.com/blogs/tech/2011/05/visual-studio-2010-and-cuda-easier-with-rc2/ Jedoch Intellisense

Mithilfe von openMP in die cuda-host-code?

Anzahl der Antworten 3 Antworten
Es möglich, die openMP-pragmas, die in der CUDA-Dateien (nicht in den kernel-code)? Werde ich kombinieren, gpu-und cpu-Berechnung. Aber nvvc compiler den Fehler "kann nicht finden Unknown option 'openmp -' ", wenn ich die Verknüpfung der porgram mit

Wie starte ich MATLAB-code auf der GPU mit CUDA?

Anzahl der Antworten 4 Antworten
Möchte ich ausführen von MATLAB-code auf der GPU mit NVIDIAs CUDA. Ich fand ein paar 3rd-party-Motoren: Jacke GPUMat Jemand empfehlen würde, diese oder gibt es bessere? Irgendwelche Tipps oder Anregungen? InformationsquelleAutor der Frage sjchoi | 2009-12-08

Wie verwenden von 2D-Arrays in CUDA?

Anzahl der Antworten 2 Antworten
Ich bin neu in CUDA. Der Zuordnung von 2D-array der Größe MXN ?. Das traversieren des Arrays in CUDA?. Geben Sie mir ein Beispiel-code. ............................................................................................ Hi..Danke für die Antwort. Ich benutzt den code in das folgende Programm.

Was ist der Zweck der Verwendung von mehreren "Bogen" Flaggen in NVIDIAs NVCC-compiler?

Anzahl der Antworten 2 Antworten
Habe ich vor kurzem bekommen mein Kopf herum, wie NVCC kompiliert CUDA-device-code für verschiedene Rechnerarchitekturen. Von meinem Verständnis, wenn mit NVCC-gencode option "Bogen" ist die minimale it-Architektur erforderlich, die durch den Programmierer der Anwendung, und auch die

Wo hast CUDA installiert in meinem computer?

Anzahl der Antworten 3 Antworten
Bin ich versucht zu installieren, CUDA 7.5 in meinem ubuntu 14.04. Ich folgte alles, was in dieser Anleitung (installation durch Paket): http://developer.download.nvidia.com/compute/cuda/7.5/Prod/docs/sidebar/CUDA_Installation_Guide_Linux.pdf bis post-build-Abschnitt. Vor allem, indem Sie die folgenden Befehle ausführen: sudo dpkg -i cuda-repo-ubuntu1404-7-5-local_7.5-18_amd64.deb sudo

Erklärung der CUDA-C-und C++

Anzahl der Antworten 5 Antworten
Kann mir jemand eine gute Erklärung, wie die Natur der CUDA-C-und C++? Wie ich es verstehe, CUDA sein soll, C mit der NVIDIA GPU-Bibliotheken. Ab jetzt CUDA-C unterstützt einige C++ - features, andere aber nicht. Was ist

Gebäude CUDA-Objekt-Dateien mit cmake

Anzahl der Antworten 1 Antworten
Bekam ich Folgendes setup. Ich werde zu erweitern ein framework, geschrieben in C++ mit MPI und andere Sachen mit CUDA. Das Projekt verwendet cmake für Gebäude. Ich möchte vermeiden, mit einer Bibliothek für meine Erweiterungen und build-Objekt-Dateien

CUDA-max-threads in einem block

Anzahl der Antworten 1 Antworten
Ich habe eine Verwirrung aus dem programming guide . Es besagt Folgendes: maxThreadsPerBlock: 512 maxThreadsDim: 512, 512, 64 . Wenn die maximale Anzahl von threads in einem block 512, wie kann man den max-thread dimension 512*512*64 ?

Wie Sie Profile & Optimieren CUDA-Kerne?

Anzahl der Antworten 4 Antworten
Ich bin etwas vertraut mit den CUDA visual profiler und die Belegung Tabellenkalkulation, obwohl ich den wahrscheinlich nicht nutzen Sie, so gut ich konnte. Profiling & Optimierung von CUDA-code wird nicht wie profiling & optimieren von code,

CUDA __threadfence()

Anzahl der Antworten 1 Antworten
Ich habe schon viele Beiträge im forum und die NVIDIA Dokumentation, aber ich konnte nicht verstehen, was __threadfence() tut und wie es zu benutzen. Könnte mir jemand erklären, was der Sinn und Zweck, die intrinsische ist? InformationsquelleAutor

Wie funktioniert die CUDA-Gerät zuweisen von IDs zu den GPUs?

Anzahl der Antworten 3 Antworten
Wenn ein computer mehrere CUDA-fähige GPUs, jeder GPU erhält eine device ID. Standardmäßig CUDA Kernel ausführen auf device ID 0. Sie können cudaSetDevice(int device) wählen Sie ein anderes Gerät an. Sagen wir, ich habe zwei Grafikkarten in

CUDA-version X beschwert sich über die nicht Unterstützung von gcc-version Y - was tun?

Anzahl der Antworten 4 Antworten
Die Frage ist, über eine bestimmte Kombination von Versionen, ist aber relevant im Allgemeinen. Habe ich nur dist-Upgrade von Kubuntu 12.04 auf 14.04. Als ich nun kompilieren wollen, der CUDA-code (mit CUDA 6.5), erhalte ich: #error --

CUDA, wie man raster -, block -, Gewinde-und parallalize nicht quadratischen matrix Berechnung

Anzahl der Antworten 1 Antworten
Ich bin neu in CUDA und brauchen Hilfe, Verständnis, einige Dinge. Ich brauche Hilfe Parallelisierung dieser beiden for-Schleifen. Wie genau Sie die, um den setup-dimBlock und dimGrid, um diese schneller ausgeführt werden. Ich weiß, das sieht aus

Was ist der Unterschied zwischen CUDA-core und CPU-core?

Anzahl der Antworten 4 Antworten
Arbeitete ich ein wenig mit CUDA, und viel mit der CPU, und ich versuche zu verstehen, was ist der Unterschied zwischen den beiden. Mein I5 Prozessor hat 4 Kerne und kostet $200 und meine NVidia 660 hat

Mit GPU von einem docker-container?

Anzahl der Antworten 6 Antworten
Ich bin auf der Suche nach einem Weg, um die Verwendung der GPU innerhalb des docker-container. Wird der container in einen beliebigen code ausführen, damit ich nicht wollen, verwenden Sie den privilegierten Modus. Irgendwelche Tipps? Aus der

GPU-Programmierung CUDA oder OpenCL?

Anzahl der Antworten 2 Antworten
Ich bin ein Neuling auf GPU-Programmierung. Ich habe einen laptop mit NVIDIA GeForce GT 640 Karte. Ich bin konfrontiert mit 2 Dilemmata, Vorschläge sind herzlich willkommen. Wenn ich mich für CUDA -- Ubuntu oder Windows Klar CUDA

GPU-Emulator für CUDA Programmieren, ohne die hardware

Anzahl der Antworten 6 Antworten
Frage: gibt es einen emulator für eine Geforce-Karte, die mir erlauben würde, zu Programmieren und zu testen, CUDA, ohne die eigentliche hardware? Info: Ich bin auf der Suche zu beschleunigen, ein paar Simulationen von mir in CUDA,

Warum ist “a =b>0)?1:0" besser als "if-else" - version in CUDA?

Anzahl der Antworten 6 Antworten
Könnten Sie mir sagen, warum a =(b>0)?1:0 ist besser als if (b>0)a=1; else a =0; version in CUDA? Bitte geben Sie details. Vielen Dank. Yik InformationsquelleAutor der Frage Yik | 2011-08-18

Cuda-Programm auf VMware

Anzahl der Antworten 5 Antworten
schrieb ich ein cuda-Programm, und ich bin es zu testen auf ubuntu als virtuelle Maschine. der Grund dafür ist, ich habe windows 7, ich will nicht zur Installation von ubuntu als sekundäres Betriebssystem, und ich benötigen, um

Ist die Zweigdivergenz wirklich so schlimm?

Anzahl der Antworten 1 Antworten
Ich habe viele Fragen über das Internet verstreut über Filiale Divergenz, und, wie vermeiden. Jedoch, sogar nach dem Lesen Dutzende von Artikeln, wie CUDA funktioniert, ich kann nicht scheinen, um zu sehen, wie die Vermeidung Zweig Divergenz

Wie starte ich eine CUDA-App in Visual Studio 2010?

Anzahl der Antworten 3 Antworten
Direkte Frage: Wie erstelle ich ein einfaches Hallo Welt-CUDA-Projekt in visual studio 2010? Hintergrund: ich geschrieben habe, CUDA-Kerne. Ich bin eng vertraut mit der .vcproj Dateien von Visual Studio 2005 -- gezwickt mehrere von hand. In VS

CUDA-Gitterdimensionen, Blockdimensionen und Thread-Organisation verstehen (einfache Erklärung)

Anzahl der Antworten 2 Antworten
Wie werden threads organisiert werden ausgeführt, indem eine GPU? InformationsquelleAutor der Frage cibercitizen1 | 2010-03-06

Cuda und OpenGL Interop

Anzahl der Antworten 2 Antworten
Ich lese Sie durch die CUDA-Dokumentation, und es scheint mir, dass jeder Puffer, der muss die Schnittstelle mit OpenGL erstellt werden muss, in der glBuffer. Laut nvidia programming guide, diese werden wie folgt vorgenommen: GLuint positionsVBO; struct

printf innerhalb der CUDA __global__ Funktion

Anzahl der Antworten 4 Antworten
Ich bin derzeit am schreiben einer Matrixmultiplikation auf einer GPU und würde gerne debug-mein code, aber da kann ich nicht die Verwendung von printf () innerhalb einer Funktion des Gerätes, ist es etwas anderes was ich tun

Schneller Algorithmus zur parallelen Berechnung von Pi

Anzahl der Antworten 1 Antworten
Bin ich angefangen zu lernen, CUDA und ich denke, dass die Berechnung lange Ziffern von pi wäre eine schöne, einleitende Projekt. Habe ich bereits implementiert, die einfache Monte-Carlo-Methode, die leicht parallelisieren kann. Ich habe einfach jeden thread

Apple Clang Version für NVCC wiederherstellen

Anzahl der Antworten 9 Antworten
Ich versuche zu laufen NVCC kompilieren ein CUDA-Programm auf meinem Mac. Wenn ich versuche zu laufen NVCC, ich erhalte die folgende Fehlermeldung: "nvcc fatal : Die version ('70300') der host compiler ('Apple clang') wird nicht unterstützt". Habe

CUDA ermittelt Threads pro Block, Blöcke pro Raster

Anzahl der Antworten 4 Antworten
Ich bin neu in der CUDA-Paradigma. Meine Frage ist, bei der Bestimmung der Anzahl der threads pro block und blocks pro grid. Hat ein bisschen Kunst-und trial-spielen in diesem? Was ich gefunden habe ist, dass viele Beispiele

Top-Befehl für GPUs mit CUDA

Anzahl der Antworten 9 Antworten
Ich versuche einen Prozess zu überwachen, nutzt cuda und MPI, gibt es eine Möglichkeit, ich könnte dies tun, so etwas wie der Befehl "top", aber das überwacht die GPU auch? InformationsquelleAutor der Frage natorro | 2011-11-22

CUDA vs FPGA?

Anzahl der Antworten 16 Antworten
Ich bin ein Produkt entwickelt, das mit schweren 3D-Grafik-Berechnungen, zu einem großen Teil am nächsten Punkt und bereichssuchen. Einige hardware-Optimierung sinnvoll wäre. Obwohl ich weiß wenig über dieses, mein Chef (der keine software-Erfahrung) setzt FPGA (da es

CUDA Apps Timeout & amp; nach einigen Sekunden ausfallen - wie umgehen Sie das?

Anzahl der Antworten 8 Antworten
Habe ich bemerkt, dass CUDA-Anwendungen neigen dazu, eine grobe maximale Laufzeit von 5-15 Sekunden, bevor Sie werden scheitern und beenden. Ich weiß, es ist ideal, um keine CUDA-Anwendung ausführen, die lange aber davon aus, dass es die

Wann ist CUDAs __shared__ Speicher nützlich?

Anzahl der Antworten 2 Antworten
Kann mir bitte jemand helfen mit ein sehr einfaches Beispiel zur Verwendung von shared memory? Das Beispiel in der Cuda-C-programming-guide scheint unübersichtlich durch irrelevante details. Wenn ich zum Beispiel kopieren Sie eine große Auswahl zum device global

Unterstützt CUDA Rekursion?

Anzahl der Antworten 11 Antworten
Tut CUDA Unterstützung Rekursion? InformationsquelleAutor der Frage JuanPablo | 2010-09-05

Fehler bei der Verwendung von CUDA und C ++ 11

Anzahl der Antworten 2 Antworten
Ich bin mit CUDA 4.1 und GCC-4.5 ... (ENDLICH! CUDA unterstützt GCC-4.5, aber warten noch auf GCC-4.6). Sowieso, ist es möglich, mit C++11 mit der CUDA 4.1? Ich versucht vorbei: --compiler-options "-std=c++0x" zu nvcc und es wirft

Komprimierungsbibliothek mit Nvidias CUDA

Anzahl der Antworten 3 Antworten
Kennt jemand ein Projekt, das die standard-Komprimierungsverfahren (wie Zip, GZip, BZip2, LZMA,...) mit NVIDIA ' s CUDA-Bibliothek? Ich Frage mich, ob algorithmen, die eine Vielzahl von parallelen Aufgaben (wie Kompression) wäre nicht viel schneller laufen auf der

Wie kann die CuDNN-Installation überprüft werden?

Anzahl der Antworten 7 Antworten
Habe ich gesucht vielen Orten, aber ALLES was ich bekomme ist, WIE es zu installieren ist, nicht wie Sie überprüfen, ob es installiert ist. Kann ich feststellen, ob mein NVIDIA-Treiber ist installiert, und das CUDA installiert ist,

Fehler beim Kompilieren von CUDA von der Eingabeaufforderung

Anzahl der Antworten 5 Antworten
Ich versuche zu kompilieren einer cuda-test-Programm auf Windows 7 über die Eingabeaufforderung Ich bin mit diesem Befehl: nvcc test.cu Aber alles was ich bekomme ist diese Fehlermeldung: nvcc fatal : Cannot find compiler 'cl.exe' in PATH Was

Stoßen Sie innerhalb der geschriebenen Kernel des Benutzers

Anzahl der Antworten 4 Antworten
Ich bin ein Neuling auf Schub. Ich sehe, dass alle Schub-Präsentationen und Beispiele zeigen nur den host-code. Ich würde gerne wissen, ob ich Vorbeigehen kann, ein device_vector, um meinen eigenen kernel? Wie? Wenn ja, welche Operationen erlaubt

Wie speichere ich in einem CUDA-Kernel ein Array im "lokalen Thread-Speicher"?

Anzahl der Antworten 4 Antworten
Ich versuche, mich zu entwickeln ein kleines Programm mit CUDA, aber da war es LANGSAM machte ich einige tests und ein wenig gegoogelt. Ich fand heraus, dass, während einzelne Variablen werden standardmäßig gespeichert, die im lokalen thread-Speicher-arrays