Tag: cuda
CUDA ist eine parallele computing-Plattform und Programmier-Modell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle für die Nvidia-GPUs durch eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.
2
Antworten
Wenn ich mein CUDA Programm, das weist nur eine kleine Menge von globalen Speicher (unter 20 M), ich habe eine "out of memory" Fehler. (Von anderer Leute posts, ich denke, das problem mit der Fragmentierung des Speichers)
5
Antworten
ich versuche, allocate shared memory durch die Verwendung der parameter eine Konstante aber immer einen Fehler. mein kernel sieht wie folgt aus: __global__ void Kernel(const int count) { __shared__ int a[count]; } und ich erhalte eine Fehlermeldung
4
Antworten
Suche durch die Antworten und Kommentare auf CUDA Fragen, und in der CUDA-tag wikiich sehe, es ist oft vorgeschlagen, dass der return-status von jedem API-Aufruf sollte auf Fehler überprüft werden. Die API-Dokumentation enthält Funktionen wie cudaGetLastErrorcudaPeekAtLastErrorund cudaGetErrorStringaber
8
Antworten
Ich habe auf der Suche in Bibliotheken/Erweiterungen für C++, die es ermöglichen die GPU-basierte Verarbeitung auf einem hohen Niveau. Ich bin kein Experte in der GPU-Programmierung, und ich möchte nicht zu tief Graben. Ich habe ein neuronales
5
Antworten
Ich versuche zu installieren NVIDIA CUDA. Wenn es installiert ist, das tool-kit, es erscheint folgende Fehlermeldung. Missing recommended library: libGLU.so Missing recommended library: libXi.so Missing recommended library: libXmu.so Ich bin nicht ein Linux-Kerl, so habe ich apt-get
4
Antworten
Was ist "verschmolzen" in CUDA global memory Transaktion? Ich konnte nicht verstehen, sogar, nachdem Sie durch meine CUDA-guide. Wie es zu tun? Im CUDA programming guide-matrix beispielsweise den Zugriff auf die matrix Zeile für Zeile wird als
3
Antworten
Wie kann ich reservieren und transfer(zum und vom Host) 2D-arrays im Speicher des Gerätes in Cuda? InformationsquelleAutor der Frage Gitmo | 2009-06-26
5
Antworten
Ich arbeite an einer statistischen Anwendung enthält etwa 10 - 30 Millionen floating-point-Werte in ein array. Mehrere Methoden, die verschiedene, aber unabhängige Berechnungen, die auf den array in verschachtelten Schleifen, zum Beispiel: Dictionary<float, int> noOfNumbers = new
8
Antworten
General-purpose computing on graphics processing units (GPGPU) ist ein sehr attraktives Konzept zu nutzen, die Leistung der GPU für jede Art von computing. Ich würde gerne verwenden GPGPU für die Bildverarbeitung, Partikel, schnell und geometrische Operationen. Gerade
3
Antworten
Wenn ich nvidia-smi bekomme ich folgende Meldung: Failed to initialize NVML: Driver/library version mismatch Vor einer Stunde erhielt ich die gleiche Meldung und die deinstallation meines cuda-Bibliothek und ich war in der Lage zu laufen nvidia-smi bekommen
7
Antworten
Ich arbeite derzeit an einem Projekt in python, und ich möchte, um die Nutzung der GPU für Berechnungen. Auf den ersten Blick es scheint, wie es gibt viele Werkzeuge zur Verfügung; auf den zweiten Blick, habe ich
3
Antworten
Was ist die Beziehung zwischen einem CUDA-Kern, ein streaming-Multiprozessor-und die CUDA-Modell von Blöcken und threads? Was wird abgebildet, was ist und was wird parallelisiert und wie? und was ist effizienter, eine maximale Anzahl von Blöcken oder der
3
Antworten
Bin ich immer verwirrt darüber, wie Sie mithilfe von gemeinsamen und globalen Speicher bei CUDA, vor allem in Bezug auf Folgendes: Wenn wir cudaMalloc()erhalten wir einen Zeiger auf shared oder global Speicher? Hat die Globale Speicher befinden
2
Antworten
Ich habe gesucht alle über einen Einblick darüber, wie genau die Verwendung von Klassen mit CUDA, und während es einen Allgemeinen Konsens, dass es getan werden kann und offenbar wird von Menschen gemacht, ich habe eine harte
1
Antworten
Was bedeutet compute capability 2.0 hinzufügen über 1.3, 2.1 über 2.0 und 3.0 über 2.1? InformationsquelleAutor der Frage Ari B. Friedman | 2012-06-09
3
Antworten
Dies ist eine Frage, wie, um zu bestimmen, die CUDA-grid, block-und Gewindegrößen. Dies ist eine zusätzliche Frage, die man hier gepostet: https://stackoverflow.com/a/5643838/1292251 Folgenden link, die Antwort von talonmies enthält ein code-snippet (siehe unten). Ich verstehe nicht den
6
Antworten
Für debugging von CUDA-code und überprüfung der Kompatibilitäten ich brauche, um herauszufinden, welche nvidia Treiberversion für die GPU habe ich installiert. Ich fand Wie man die cuda-version? aber das hilft mir nicht weiter hier. InformationsquelleAutor der Frage
3
Antworten
Aus einigen Kommentaren, die ich gelesen habe hier, aus irgendeinem Grund ist es vorzuziehen, haben Structure of Arrays (SoA) über Array of Structures (AoS) für parallele Implementierungen wie CUDA? Wenn das stimmt, kann mir jemand erklären, warum?
1
Antworten
Was ist der Unterschied zwischen diesen drei Funktionen, vor allem die letzten beiden? Die Bibliothek Handbuch sagt Beachten Sie, dass diese Funktion ist veraltet, weil sein name nicht reflektieren Ihr Verhalten. Seine Funktionalität ist ähnlich der non-deprecated
3
Antworten
Habe ich gelesen, dass man verwenden, kernel startet zum synchronisieren von Blöcken, d.h., Wenn ich möchte, dass alle Blöcke, um den kompletten Betrieb 1 bevor Sie gehen auf Betrieb 2, sollte ich statt Betrieb 1 in einem
5
Antworten
Habe ich gelesen, die Programmieranleitung für CUDA und OpenCL, und ich kann nicht herausfinden, was eine bank Konflikt ist. Sie gerade Art von Tauchen Sie ein in wie das problem zu lösen ohne näher auf das Thema
1
Antworten
Wie kann ich zwei Geräte in der Reihenfolge zu verbessern, zum Beispiel die Leistung des folgenden code (Summe der Vektoren)? Ist es möglich mit mehreren Geräten "gleichzeitig"? Wenn ja, wie Schaffe ich es, die Zuweisung der Vektoren
4
Antworten
Baue ich eine workstation und wollen, um in einigen schweren CUDA-Programmierung. Ich nicht wollen alle gehen immer von den Tesla-Karten, und Sie haben ziemlich viel es verengt, um entweder die Quadro 4000 und die GeForce 480, aber
3
Antworten
Ich das bekomme, was blockDim ist.. Aber ich habe ein problem mit gridDim. Blockdim gibt die Größe des Blocks, aber was ist gridDim? Auf der Internet-es sagt gridDim.x gibt die Anzahl der Blöcke, die in der x-Koordinate.
6
Antworten
Ich habe versucht mit Beispiel-Programme zur Verfügung, bei NVIDIA-offizielle Website. Die meisten Programme liefen reibungslos, außer wenigen, wo bekomme ich ähnliche Fehlermeldungen. Wie kann ich das beheben? Hier ist ein Beispiel der Fehlermeldung die ich bekam nach
4
Antworten
Die Frage ist: gibt es eine Möglichkeit die Klasse "vector" in der Cuda-Kernel? Wenn ich versuche, bekomme ich die folgende Fehlermeldung: error : calling a host function("std::vector<int, std::allocator<int> > ::push_back") from a __device__/__global__ function not allowed Also
1
Antworten
Ich weiß, dass es Multiprozessoren auf einem CUDA-GPU, die enthalten CUDA-Kerne in Ihnen. In meinem Arbeitsplatz arbeite ich mit einer GTX 590, die enthält 512 CUDA-Kerne, 16 Multiprozessoren und die warp-Größe von 32. Also das heißt es
3
Antworten
Ich habe eine GeForce GTX 580, und ich möchte, um eine Aussage über die Gesamtzahl der threads, die können (im Idealfall) tatsächlich parallel ausgeführt werden, zu vergleichen mit 2-oder 4-multi-core-CPUs. deviceQuery gibt mir folgende möglicherweise relevante Informationen:
2
Antworten
In CUDA wir können angeheftete Speicher effizienter kopieren der Daten von Host auf GPU als die Standard-Speicher über malloc am host. Allerdings gibt es zwei Arten von angehefteten Erinnerungen der Standard-pinned memory und die null-Kopie angeheftet Speicher.
3
Antworten
Was ist die Beziehung zwischen der maximalen Arbeit, die der Größe der Gruppe und der warp-Größe? Lassen Sie uns sagen, mein Gerät hat 240 CUDA streaming-Prozessoren (SP) und gibt die folgenden Informationen zurück - CL_DEVICE_MAX_COMPUTE_UNITS: 30 CL_DEVICE_MAX_WORK_ITEM_SIZES:
2
Antworten
Hier ist mein code: int threadNum = BLOCKDIM/8; dim3 dimBlock(threadNum,threadNum); int blocks1 = nWidth/threadNum + (nWidth%threadNum == 0 ? 0 : 1); int blocks2 = nHeight/threadNum + (nHeight%threadNum == 0 ? 0 : 1); dim3 dimGrid; dimGrid.x
3
Antworten
Wann ist die Berufung auf den cudaDeviceSynchronize Funktion wirklich gebraucht?. Soweit ich das verstanden habe aus der CUDA-Dokumentation, CUDA Kernel werden asynchron, so scheint es, dass wir rufen cudaDeviceSynchronize nach jedem kernel starten. Allerdings habe ich versucht
5
Antworten
Ich versuche zu bauen dieses Projektdie hat CUDA, als Abhängigkeit. Aber das cmake-Skript nicht finden können, die CUDA-installation auf dem system: cls ~/workspace/gpucluster/cluster/build $ cmake .. -- The C compiler identification is GNU 4.7.1 -- The CXX
10
Antworten
Ich würde gerne hören von Menschen, die Erfahrung mit Codierung für beide. Ich selbst habe nur Erfahrung mit NVIDIA. NVIDIA CUDA scheint zu sein, viel beliebter als die Konkurrenz. (Nur das zählen Frage-tags in diesem forum, 'cuda'
1
Antworten
Bin ich angefangen zu Programmieren mit CUDA, und in einigen Beispielen, die ich finden den include-Dateien cuda.hcuda_runtime.h und cuda_runtime_api.h im code enthalten. Kann mir jemand erklären den Unterschied zwischen diesen Dateien? InformationsquelleAutor der Frage Renan | 2011-06-10
1
Antworten
Ich weiß, dass nvidia-smi -l 1 geben wird, die GPU-Nutzung jeder zweite (ähnlich dem folgenden). Jedoch würde ich mich über eine Erklärung, was Volatile GPU-Util wirklich bedeutet. Ist, dass die Anzahl der verwendeten SMs über Gesamt-SMs, oder
2
Antworten
Arbeite ich an einem business-Projekt in java und benötigt enorme Rechenleistung, um zu berechnen, business-Märkte. Einfache Mathematik, aber mit einer großen Anzahl von Daten. Bestellten wir einige cuda-gpu ' s, es zu versuchen und da ist Java
5
Antworten
Brauche ich dynamisch reservieren einige arrays innerhalb der kernel-Funktion. Wie kann ich das tun? Mein code ist etwas wie das: __global__ func(float *grid_d,int n, int nn){ int i,j; float x[n],y[nn]; //Do some really cool and heavy computations
4
Antworten
Dies ist eine sehr grundlegende Frage, aber wie starte ich eine neue CUDA-Projekt in Visual Studio 2008? Ich habe gefunden, Tonnen und Tonnen von Dokumentation zu CUDA Angelegenheiten, aber nichts darüber, wie ein neues Projekt starten. Ich
8
Antworten
Ich versuche, mein Cuda SDK-Beispiele laufen, aber ich bekomme die folgende Fehlermeldung: ./bandwidthTest: error while loading shared libraries: libcudart.so.4: cannot open shared object file: No such file or directory Warum kann ich kompilieren Sie das Beispiel erfolgreich,
8
Antworten
Im CMake zu generieren visual studio 2013-Lösung. Im nächsten versuchen, es zu erstellen, bekomme aber folgende Fehler: Gebäude NVCC (Device) - Objekt modules/core/CMakeFiles/cuda_compile.dir/src/cuda/Debug/cuda_compile_generated_gpu_mat.cu.obj nvcc fatal : Unsupported gpu-Architektur 'compute_11' Im versucht die version 2.10 und 3.0 mit
4
Antworten
Habe ich eine sehr einfache Toshiba Laptop mit i3 Prozessor. Auch, ich habe keine teure Grafikkarte. In den Anzeige-Einstellungen sehe ich Intel(HD) Graphics als display-adapter. Ich bin Planung zu lernen, einige der cuda-Programmierung. Aber, ich bin mir
8
Antworten
Ich denke, die Frage spricht für sich selbst. Ich bin daran interessiert, einige ernsthafte Berechnungen, bin aber kein Programmierer von Beruf. Ich kann die saite genug python zusammen zu tun, was ich will. Aber kann ich ein
1
Antworten
Habe ich einen kernel, der ruft eine Gerät Funktion innerhalb einer if-Anweisung. Der code ist wie folgt: __device__ void SetValues(int *ptr,int id) { if(ptr[threadIdx.x]==id) //question related to here ptr[threadIdx.x]++; } __global__ void Kernel(int *ptr) { if(threadIdx.x<2) SetValues(ptr,threadIdx.x);
3
Antworten
Ich bin auf der Suche nach Hilfe erste Schritte mit einem Projekt mit CUDA. Mein Ziel ist es, ein Projekt, das ich kompilieren kann in der nativen g++ - compiler, sondern nutzt CUDA-code. Ich verstehe, dass ich
2
Antworten
Ich habe mit CUDA für ein paar Wochen, aber ich habe einige Zweifel über die Zuteilung der Blöcke/Ketten/thread. Ich studiere die Architektur aus einer didaktischen Sicht (Uni-Projekt), das erreichen von peak performance ist nicht meine Sorge. Zunächst,
2
Antworten
Ich bin daran interessiert, die Entwicklung unter einige neue Technologie, und ich dachte, ausprobieren, CUDA. Nun... Ihre Dokumentation ist zu technisch und nicht die Antworten, die ich Suche. Auch, würde ich mag zu hören, wie diese Antworten
9
Antworten
Gibt es einen schnellen Befehl oder Skript überprüfen Sie die version der installierten CUDA? Fand ich das Handbuch der 4.0 unter dem Installations-Verzeichnis, aber nicht sicher, ob die aktuelle version installiert ist, oder nicht. InformationsquelleAutor der Frage
4
Antworten
Beim schreiben von CUDA-Anwendungen, können Sie entweder auf der Treiber-Ebene oder auf der Laufzeit-Ebene, wie dargestellt auf diesem Bild (Die Bibliotheken sind CUFFT und CUBLAS für erweiterte math.): Ich nehme an, der Kompromiss zwischen den beiden sind
1
Antworten
Gibt es irgendwelche Möglichkeiten, die ich haben kann, eine Funktion innerhalb der cuda-kernel. Ich meine, meine cuda-kernel wird ziemlich lang und schwer zu Debuggen, in einem Punkt. Danke. InformationsquelleAutor der Frage small_potato | 2010-10-14