Tag: cuda

CUDA ist eine parallele computing-Plattform und Programmier-Modell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle für die Nvidia-GPUs durch eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.

Wie wird CUDA Speicher verwaltet?

Anzahl der Antworten 2 Antworten
Wenn ich mein CUDA Programm, das weist nur eine kleine Menge von globalen Speicher (unter 20 M), ich habe eine "out of memory" Fehler. (Von anderer Leute posts, ich denke, das problem mit der Fragmentierung des Speichers)

Zuweisen von gemeinsam genutztem Speicher

Anzahl der Antworten 5 Antworten
ich versuche, allocate shared memory durch die Verwendung der parameter eine Konstante aber immer einen Fehler. mein kernel sieht wie folgt aus: __global__ void Kernel(const int count) { __shared__ int a[count]; } und ich erhalte eine Fehlermeldung

Was ist die kanonische Methode, um Fehler mithilfe der CUDA-Laufzeit-API zu überprüfen?

Anzahl der Antworten 4 Antworten
Suche durch die Antworten und Kommentare auf CUDA Fragen, und in der CUDA-tag wikiich sehe, es ist oft vorgeschlagen, dass der return-status von jedem API-Aufruf sollte auf Fehler überprüft werden. Die API-Dokumentation enthält Funktionen wie cudaGetLastErrorcudaPeekAtLastErrorund cudaGetErrorStringaber

High-Level-GPU-Programmierung in C ++

Anzahl der Antworten 8 Antworten
Ich habe auf der Suche in Bibliotheken/Erweiterungen für C++, die es ermöglichen die GPU-basierte Verarbeitung auf einem hohen Niveau. Ich bin kein Experte in der GPU-Programmierung, und ich möchte nicht zu tief Graben. Ich habe ein neuronales

Fehlende empfohlene Bibliothek: libGLU.so

Anzahl der Antworten 5 Antworten
Ich versuche zu installieren NVIDIA CUDA. Wenn es installiert ist, das tool-kit, es erscheint folgende Fehlermeldung. Missing recommended library: libGLU.so Missing recommended library: libXi.so Missing recommended library: libXmu.so Ich bin nicht ein Linux-Kerl, so habe ich apt-get

Was ist bei CUDA das Zusammenwachsen von Speicher und wie wird es erreicht?

Anzahl der Antworten 4 Antworten
Was ist "verschmolzen" in CUDA global memory Transaktion? Ich konnte nicht verstehen, sogar, nachdem Sie durch meine CUDA-guide. Wie es zu tun? Im CUDA programming guide-matrix beispielsweise den Zugriff auf die matrix Zeile für Zeile wird als

Weisen Sie 2D-Array auf Gerätespeicher in CUDA zu

Anzahl der Antworten 3 Antworten
Wie kann ich reservieren und transfer(zum und vom Host) 2D-arrays im Speicher des Gerätes in Cuda? InformationsquelleAutor der Frage Gitmo | 2009-06-26

Kann / Soll ich diesen Code auf einer GPU ausführen?

Anzahl der Antworten 5 Antworten
Ich arbeite an einer statistischen Anwendung enthält etwa 10 - 30 Millionen floating-point-Werte in ein array. Mehrere Methoden, die verschiedene, aber unabhängige Berechnungen, die auf den array in verschachtelten Schleifen, zum Beispiel: Dictionary<float, int> noOfNumbers = new

Beste Vorgehensweise für GPGPU / CUDA / OpenCL in Java?

Anzahl der Antworten 8 Antworten
General-purpose computing on graphics processing units (GPGPU) ist ein sehr attraktives Konzept zu nutzen, die Leistung der GPU für jede Art von computing. Ich würde gerne verwenden GPGPU für die Bildverarbeitung, Partikel, schnell und geometrische Operationen. Gerade

NVIDIA NVML-Treiber / Bibliotheksversion stimmt nicht überein

Anzahl der Antworten 3 Antworten
Wenn ich nvidia-smi bekomme ich folgende Meldung: Failed to initialize NVML: Driver/library version mismatch Vor einer Stunde erhielt ich die gleiche Meldung und die deinstallation meines cuda-Bibliothek und ich war in der Lage zu laufen nvidia-smi bekommen

Python-GPU-Programmierung

Anzahl der Antworten 7 Antworten
Ich arbeite derzeit an einem Projekt in python, und ich möchte, um die Nutzung der GPU für Berechnungen. Auf den ersten Blick es scheint, wie es gibt viele Werkzeuge zur Verfügung; auf den zweiten Blick, habe ich

Streaming von Multiprozessoren, Blöcken und Threads (CUDA)

Anzahl der Antworten 3 Antworten
Was ist die Beziehung zwischen einem CUDA-Kern, ein streaming-Multiprozessor-und die CUDA-Modell von Blöcken und threads? Was wird abgebildet, was ist und was wird parallelisiert und wie? und was ist effizienter, eine maximale Anzahl von Blöcken oder der

Was ist der Unterschied zwischen CUDA Shared und Global Memory?

Anzahl der Antworten 3 Antworten
Bin ich immer verwirrt darüber, wie Sie mithilfe von gemeinsamen und globalen Speicher bei CUDA, vor allem in Bezug auf Folgendes: Wenn wir cudaMalloc()erhalten wir einen Zeiger auf shared oder global Speicher? Hat die Globale Speicher befinden

CUDA und Klassen

Anzahl der Antworten 2 Antworten
Ich habe gesucht alle über einen Einblick darüber, wie genau die Verwendung von Klassen mit CUDA, und während es einen Allgemeinen Konsens, dass es getan werden kann und offenbar wird von Menschen gemacht, ich habe eine harte

Was sind die Unterschiede zwischen den CUDA-Rechenfunktionen?

Anzahl der Antworten 1 Antworten
Was bedeutet compute capability 2.0 hinzufügen über 1.3, 2.1 über 2.0 und 3.0 über 2.1? InformationsquelleAutor der Frage Ari B. Friedman | 2012-06-09

Wie wähle ich Gitter- und Blockdimensionen für CUDA-Kernel aus?

Anzahl der Antworten 3 Antworten
Dies ist eine Frage, wie, um zu bestimmen, die CUDA-grid, block-und Gewindegrößen. Dies ist eine zusätzliche Frage, die man hier gepostet: https://stackoverflow.com/a/5643838/1292251 Folgenden link, die Antwort von talonmies enthält ein code-snippet (siehe unten). Ich verstehe nicht den

Wie bekomme ich die nvidia Treiberversion von der Kommandozeile?

Anzahl der Antworten 6 Antworten
Für debugging von CUDA-code und überprüfung der Kompatibilitäten ich brauche, um herauszufinden, welche nvidia Treiberversion für die GPU habe ich installiert. Ich fand Wie man die cuda-version? aber das hilft mir nicht weiter hier. InformationsquelleAutor der Frage

Struktur von Arrays gegen Array von Strukturen in CUDA

Anzahl der Antworten 3 Antworten
Aus einigen Kommentaren, die ich gelesen habe hier, aus irgendeinem Grund ist es vorzuziehen, haben Structure of Arrays (SoA) über Array of Structures (AoS) für parallele Implementierungen wie CUDA? Wenn das stimmt, kann mir jemand erklären, warum?

cudaStreamSynchronize vs CudaDeviceSynchronize vs cudaThreadSynchronize

Anzahl der Antworten 1 Antworten
Was ist der Unterschied zwischen diesen drei Funktionen, vor allem die letzten beiden? Die Bibliothek Handbuch sagt Beachten Sie, dass diese Funktion ist veraltet, weil sein name nicht reflektieren Ihr Verhalten. Seine Funktionalität ist ähnlich der non-deprecated

Rufen cuda Kernel synchrone oder asynchrone Aufrufe auf?

Anzahl der Antworten 3 Antworten
Habe ich gelesen, dass man verwenden, kernel startet zum synchronisieren von Blöcken, d.h., Wenn ich möchte, dass alle Blöcke, um den kompletten Betrieb 1 bevor Sie gehen auf Betrieb 2, sollte ich statt Betrieb 1 in einem

Was ist ein Bankkonflikt? (Doing Cuda / OpenCL Programmierung)

Anzahl der Antworten 5 Antworten
Habe ich gelesen, die Programmieranleitung für CUDA und OpenCL, und ich kann nicht herausfinden, was eine bank Konflikt ist. Sie gerade Art von Tauchen Sie ein in wie das problem zu lösen ohne näher auf das Thema

Multi-GPU Grundnutzung

Anzahl der Antworten 1 Antworten
Wie kann ich zwei Geräte in der Reihenfolge zu verbessern, zum Beispiel die Leistung des folgenden code (Summe der Vektoren)? Ist es möglich mit mehreren Geräten "gleichzeitig"? Wenn ja, wie Schaffe ich es, die Zuweisung der Vektoren

Unterschied zu CUDA Hardware Quadro 4000 Vs. GeForce 480

Anzahl der Antworten 4 Antworten
Baue ich eine workstation und wollen, um in einigen schweren CUDA-Programmierung. Ich nicht wollen alle gehen immer von den Tesla-Karten, und Sie haben ziemlich viel es verengt, um entweder die Quadro 4000 und die GeForce 480, aber

Cuda gridDim und blockDim

Anzahl der Antworten 3 Antworten
Ich das bekomme, was blockDim ist.. Aber ich habe ein problem mit gridDim. Blockdim gibt die Größe des Blocks, aber was ist gridDim? Auf der Internet-es sagt gridDim.x gibt die Anzahl der Blöcke, die in der x-Koordinate.

Fehlermeldung: Die PDB-Datei kann nicht gefunden oder geöffnet werden

Anzahl der Antworten 6 Antworten
Ich habe versucht mit Beispiel-Programme zur Verfügung, bei NVIDIA-offizielle Website. Die meisten Programme liefen reibungslos, außer wenigen, wo bekomme ich ähnliche Fehlermeldungen. Wie kann ich das beheben? Hier ist ein Beispiel der Fehlermeldung die ich bekam nach

Verwenden von std :: vector im CUDA-Gerätecode

Anzahl der Antworten 4 Antworten
Die Frage ist: gibt es eine Möglichkeit die Klasse "vector" in der Cuda-Kernel? Wenn ich versuche, bekomme ich die folgende Fehlermeldung: error : calling a host function("std::vector<int, std::allocator<int> > ::push_back") from a __device__/__global__ function not allowed Also

CUDA - Multiprozessoren, Warp-Größe und maximale Threads pro Block: Wie ist die genaue Beziehung?

Anzahl der Antworten 1 Antworten
Ich weiß, dass es Multiprozessoren auf einem CUDA-GPU, die enthalten CUDA-Kerne in Ihnen. In meinem Arbeitsplatz arbeite ich mit einer GTX 590, die enthält 512 CUDA-Kerne, 16 Multiprozessoren und die warp-Größe von 32. Also das heißt es

CUDA: Wie viele gleichzeitige Threads insgesamt?

Anzahl der Antworten 3 Antworten
Ich habe eine GeForce GTX 580, und ich möchte, um eine Aussage über die Gesamtzahl der threads, die können (im Idealfall) tatsächlich parallel ausgeführt werden, zu vergleichen mit 2-oder 4-multi-core-CPUs. deviceQuery gibt mir folgende möglicherweise relevante Informationen:

Standardgesteckter Speicher Vs Zero-Copy Memory

Anzahl der Antworten 2 Antworten
In CUDA wir können angeheftete Speicher effizienter kopieren der Daten von Host auf GPU als die Standard-Speicher über malloc am host. Allerdings gibt es zwei Arten von angehefteten Erinnerungen der Standard-pinned memory und die null-Kopie angeheftet Speicher.

CUDA-Modell - was ist Warpgröße?

Anzahl der Antworten 3 Antworten
Was ist die Beziehung zwischen der maximalen Arbeit, die der Größe der Gruppe und der warp-Größe? Lassen Sie uns sagen, mein Gerät hat 240 CUDA streaming-Prozessoren (SP) und gibt die folgenden Informationen zurück - CL_DEVICE_MAX_COMPUTE_UNITS: 30 CL_DEVICE_MAX_WORK_ITEM_SIZES:

"Ungültiges Konfigurationsargument" Fehler für den Aufruf von CUDA Kernel?

Anzahl der Antworten 2 Antworten
Hier ist mein code: int threadNum = BLOCKDIM/8; dim3 dimBlock(threadNum,threadNum); int blocks1 = nWidth/threadNum + (nWidth%threadNum == 0 ? 0 : 1); int blocks2 = nHeight/threadNum + (nHeight%threadNum == 0 ? 0 : 1); dim3 dimGrid; dimGrid.x

Wann cudaDeviceSynchronize aufrufen?

Anzahl der Antworten 3 Antworten
Wann ist die Berufung auf den cudaDeviceSynchronize Funktion wirklich gebraucht?. Soweit ich das verstanden habe aus der CUDA-Dokumentation, CUDA Kernel werden asynchron, so scheint es, dass wir rufen cudaDeviceSynchronize nach jedem kernel starten. Allerdings habe ich versucht

Wie man cmake CUDA finden lässt

Anzahl der Antworten 5 Antworten
Ich versuche zu bauen dieses Projektdie hat CUDA, als Abhängigkeit. Aber das cmake-Skript nicht finden können, die CUDA-installation auf dem system: cls ~/workspace/gpucluster/cluster/build $ cmake .. -- The C compiler identification is GNU 4.7.1 -- The CXX

NVIDIA vs AMD: GPGPU Leistung

Anzahl der Antworten 10 Antworten
Ich würde gerne hören von Menschen, die Erfahrung mit Codierung für beide. Ich selbst habe nur Erfahrung mit NVIDIA. NVIDIA CUDA scheint zu sein, viel beliebter als die Konkurrenz. (Nur das zählen Frage-tags in diesem forum, 'cuda'

Der Unterschied zwischen cuda.h, cuda_runtime.h, cuda_runtime_api.h

Anzahl der Antworten 1 Antworten
Bin ich angefangen zu Programmieren mit CUDA, und in einigen Beispielen, die ich finden den include-Dateien cuda.hcuda_runtime.h und cuda_runtime_api.h im code enthalten. Kann mir jemand erklären den Unterschied zwischen diesen Dateien? InformationsquelleAutor der Frage Renan | 2011-06-10

nvidia-smi Flüchtige GPU-Nutzung Erklärung?

Anzahl der Antworten 1 Antworten
Ich weiß, dass nvidia-smi -l 1 geben wird, die GPU-Nutzung jeder zweite (ähnlich dem folgenden). Jedoch würde ich mich über eine Erklärung, was Volatile GPU-Util wirklich bedeutet. Ist, dass die Anzahl der verwendeten SMs über Gesamt-SMs, oder

Java mit Nvidia-GPUs (cuda) verwenden

Anzahl der Antworten 2 Antworten
Arbeite ich an einem business-Projekt in java und benötigt enorme Rechenleistung, um zu berechnen, business-Märkte. Einfache Mathematik, aber mit einer großen Anzahl von Daten. Bestellten wir einige cuda-gpu ' s, es zu versuchen und da ist Java

Wie man Arrays innerhalb eines Kernels dynamisch zuordnet?

Anzahl der Antworten 5 Antworten
Brauche ich dynamisch reservieren einige arrays innerhalb der kernel-Funktion. Wie kann ich das tun? Mein code ist etwas wie das: __global__ func(float *grid_d,int n, int nn){ int i,j; float x[n],y[nn]; //Do some really cool and heavy computations

Wie starte ich ein neues CUDA-Projekt in Visual Studio 2008?

Anzahl der Antworten 4 Antworten
Dies ist eine sehr grundlegende Frage, aber wie starte ich eine neue CUDA-Projekt in Visual Studio 2008? Ich habe gefunden, Tonnen und Tonnen von Dokumentation zu CUDA Angelegenheiten, aber nichts darüber, wie ein neues Projekt starten. Ich

Warum kann libcudart.so.4 nicht gefunden werden, wenn die CUDA-Samples unter Ubuntu kompiliert werden?

Anzahl der Antworten 8 Antworten
Ich versuche, mein Cuda SDK-Beispiele laufen, aber ich bekomme die folgende Fehlermeldung: ./bandwidthTest: error while loading shared libraries: libcudart.so.4: cannot open shared object file: No such file or directory Warum kann ich kompilieren Sie das Beispiel erfolgreich,

Build OpenCV mit CUDA-Unterstützung

Anzahl der Antworten 8 Antworten
Im CMake zu generieren visual studio 2013-Lösung. Im nächsten versuchen, es zu erstellen, bekomme aber folgende Fehler: Gebäude NVCC (Device) - Objekt modules/core/CMakeFiles/cuda_compile.dir/src/cuda/Debug/cuda_compile_generated_gpu_mat.cu.obj nvcc fatal : Unsupported gpu-Architektur 'compute_11' Im versucht die version 2.10 und 3.0 mit

Kann ich CUDA auf Intels integriertem Grafikprozessor ausführen?

Anzahl der Antworten 4 Antworten
Habe ich eine sehr einfache Toshiba Laptop mit i3 Prozessor. Auch, ich habe keine teure Grafikkarte. In den Anzeige-Einstellungen sehe ich Intel(HD) Graphics als display-adapter. Ich bin Planung zu lernen, einige der cuda-Programmierung. Aber, ich bin mir

Kann ich Nvidias CUDA nur mit Python programmieren oder muss ich C lernen?

Anzahl der Antworten 8 Antworten
Ich denke, die Frage spricht für sich selbst. Ich bin daran interessiert, einige ernsthafte Berechnungen, bin aber kein Programmierer von Beruf. Ich kann die saite genug python zusammen zu tun, was ich will. Aber kann ich ein

CUDA: Aufruf einer Funktion __device__ von einem Kernel

Anzahl der Antworten 1 Antworten
Habe ich einen kernel, der ruft eine Gerät Funktion innerhalb einer if-Anweisung. Der code ist wie folgt: __device__ void SetValues(int *ptr,int id) { if(ptr[threadIdx.x]==id) //question related to here ptr[threadIdx.x]++; } __global__ void Kernel(int *ptr) { if(threadIdx.x<2) SetValues(ptr,threadIdx.x);

Wie kann ich CUDA-Code kompilieren und dann mit einem C ++ - Projekt verknüpfen?

Anzahl der Antworten 3 Antworten
Ich bin auf der Suche nach Hilfe erste Schritte mit einem Projekt mit CUDA. Mein Ziel ist es, ein Projekt, das ich kompilieren kann in der nativen g++ - compiler, sondern nutzt CUDA-code. Ich verstehe, dass ich

Wie werden CUDA-Blöcke / Warps / Threads auf CUDA-Kerne gemappt?

Anzahl der Antworten 2 Antworten
Ich habe mit CUDA für ein paar Wochen, aber ich habe einige Zweifel über die Zuteilung der Blöcke/Ketten/thread. Ich studiere die Architektur aus einer didaktischen Sicht (Uni-Projekt), das erreichen von peak performance ist nicht meine Sorge. Zunächst,

Wie ist CUDA? Wofür ist das? Was sind die Vorteile? Und wie fange ich an?

Anzahl der Antworten 2 Antworten
Ich bin daran interessiert, die Entwicklung unter einige neue Technologie, und ich dachte, ausprobieren, CUDA. Nun... Ihre Dokumentation ist zu technisch und nicht die Antworten, die ich Suche. Auch, würde ich mag zu hören, wie diese Antworten

Wie bekomme ich die Cuda-Version?

Anzahl der Antworten 9 Antworten
Gibt es einen schnellen Befehl oder Skript überprüfen Sie die version der installierten CUDA? Fand ich das Handbuch der 4.0 unter dem Installations-Verzeichnis, aber nicht sicher, ob die aktuelle version installiert ist, oder nicht. InformationsquelleAutor der Frage

CUDA-Treiber-API vs. CUDA-Laufzeit

Anzahl der Antworten 4 Antworten
Beim schreiben von CUDA-Anwendungen, können Sie entweder auf der Treiber-Ebene oder auf der Laufzeit-Ebene, wie dargestellt auf diesem Bild (Die Bibliotheken sind CUFFT und CUBLAS für erweiterte math.): Ich nehme an, der Kompromiss zwischen den beiden sind

Funktion innerhalb des Cuda-Kerns

Anzahl der Antworten 1 Antworten
Gibt es irgendwelche Möglichkeiten, die ich haben kann, eine Funktion innerhalb der cuda-kernel. Ich meine, meine cuda-kernel wird ziemlich lang und schwer zu Debuggen, in einem Punkt. Danke. InformationsquelleAutor der Frage small_potato | 2010-10-14