Tag: cuda
CUDA ist eine parallele computing-Plattform und Programmier-Modell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle für die Nvidia-GPUs durch eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.
4
Antworten
Was ist der empfohlene Umgang mit dynamisch-size-datasets in cuda? Ist es ein Fall von "Satz der block-und grid-Größen, basierend auf der problem-Gruppe" oder lohnt es sich zu weisen block-Dimensionen als Faktoren von 2 und haben einige kernel-Logik
5
Antworten
Mit der rasanten Entwicklung von C++ - Compilern,besonders die von intel, und die Fähigkeiten direkt anwenden SIMD-Funktionen in C/C++ - codes, hat Fortran noch halten keinen echten Vorteil in der Welt der numerischen Berechnungen? Ich bin von
6
Antworten
Möchte ich erweitern, meine Fähigkeiten in GPU-computing. Ich bin vertraut mit raytracing und Echtzeit-Grafik(OpenGL), aber die nächste generation von Grafik-und high-performance-computing scheint in GPU-computing oder etwas ähnliches. Derzeit nutze ich eine AMD HD 7870 Grafikkarte auf meinem
3
Antworten
Ich beobachten erhebliche Beschleunigungen in der Datenübertragung, wenn ich pinned memory für CUDA-Daten überträgt. Auf linux, das zugrunde liegende system aufrufen, um dies zu erreichen ist mlock. Aus der man-page von mlock, es besagt, dass das sperren
3
Antworten
Arbeite ich an einem Projekt, wo ich mein CUDA-Gerät, um Berechnungen auf eine struct mit Zeigern. typedef struct StructA { int* arr; } StructA; Wenn ich Speicher für das struct und dann kopieren Sie Sie auf das
1
Antworten
Habe ich b Anzahl der Blöcke und jeder block hat t Anzahl der threads. Ich kann verwenden __syncthreads() synchronisieren die threads, die in einem bestimmten block. zum Beispiel __global__ void aFunction() { for(i=0;i<10;i++) { //execute something __syncthreads();
7
Antworten
Ich brauche, um zu berechnen, nullspace von mehreren tausend kleinen Matrizen (8x9, nicht 4x3 wie ich schrieb zuvor) parallel (CUDA). Alle Verweise zeigen auf SVD aber der Algorithmus in numerische Rezepte scheint sehr teuer, und gibt mir
5
Antworten
Ich bin derzeit in der tutorial-Beispiele auf http://code.google.com/p/stanford-cs193g-sp2010/ zu lernen CUDA. Der code, demostrates __global__ Funktionen wird unten gegeben. Es erzeugt einfach zwei arrays, einen auf der CPU und einer auf der GPU, füllt die GPU-Reihe mit
5
Antworten
Jemand kennen, Virtualisierung-Lösungen, die entweder die Möglichkeit, CUDA/OpenCL-Zugriff direkt oder Implementierung von CUDA/OpenCL Abstraktion. UPDATE: Danke, dass Sie diejenigen, die kommentiert. Während die klassischen " desktop-Virtualisierung wäre schön, ich vermute, die gerne von Xen wäre näher an
4
Antworten
Ich habe auf der Suche für ein paar Informationen über die Codierung CUDA (nvidia gpu-Sprache) mit C#. Ich habe gesehen, ein paar von den Bibliotheken, aber es scheint, dass Sie würde noch ein bisschen overhead (wegen der
15
Antworten
Habe ich Schwierigkeiten kompilieren einige der Beispiele, die im Lieferumfang der CUDA SDK. Installiert ich habe die Entwickler-Treiber (version 270.41.19) und die CUDA-toolkit, dann endlich das SDK (sowohl die 4.0.17 version). Anfangs sah es nicht kompilieren an
7
Antworten
Im moment bin ich versucht, zu erstellen eine Java-Anwendung, die CUDA-Funktionalität. Die Verbindung zwischen CUDA und Java funktioniert gut, aber ich habe schon wieder ein problem und wollte Fragen, ob meine Gedanken richtig sind. Wenn ich rufe