Tag: cuda
CUDA ist eine parallele computing-Plattform und Programmier-Modell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle für die Nvidia-GPUs durch eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.
3
Antworten
Was ist das äquivalent Technik eines Behauptung in CUDA kernel code? Scheint es nicht zu sein, ein assert für CUDA-kernel-code. Ich will eine Art und Weise zu fangen Programmierer Fehler leicht im kernel-code. Ein Mechanismus, wo kann
1
Antworten
Ich bin mit gnumpy zu beschleunigen, einige Berechnungen im training eines neuronalen Netzes, indem Sie zu tun auf der GPU. Ich bin immer die gewünschte Beschleunigung, aber bin ein wenig besorgt über die Unterschiede in den Ergebnissen
4
Antworten
Fast überall lese ich über die Programmierung mit CUDA-Unterstützung gibt es eine Erwähnung der Bedeutung, dass alle threads in einem warp das gleiche tun. In meinem code habe ich eine situation, wo ich nicht vermeiden können, in
3
Antworten
CUDA bietet eine integrierte Vektor-Datentypen wie uint2, uint4 und so weiter. Gibt es irgendwelche Vorteile bei der Verwendung dieser Datentypen? Lassen Sie uns davon ausgehen, dass ich ein Tupel besteht aus den beiden Werten A und B.
2
Antworten
Arbeite ich an einer Anzahl Knirschen app mit dem CUDA-framework. Ich habe einige statische Daten, die für alle zugänglich sein sollte-threads, also habe ich ihn in steter Erinnerung wie dieses: __device__ __constant__ CaseParams deviceCaseParams; Ich den Anruf
4
Antworten
Ich habe gerade angefangen ein kleines Projekt in CUDA. Muss ich Folgendes wissen: Ist es möglich, die Kompilierung der CUDA-code ohne die Verwendung/den Kauf von Microsoft Visual Studio? Mit Nvcc.exe ich bekomme die Fehlermeldung "compiler Nicht finden
1
Antworten
Nicht host warten, bis Gerät bis zum Ende seiner Ausführung compeletely? z.B. das Programm hat die Struktur wie folgt //cpu code segment //data transfer from host to device QUESTION - WILL CPU WAIT FOR DEVICE TO FINISH
4
Antworten
Ich bin derzeit auf der Umsetzung eines raytracers. Da raytracing ist extrem Berechnung schwer und da bin ich auf der Suche in die CUDA-Programmierung wie auch immer, ich Frage mich, ob jemand irgendwelche Erfahrungen mit der Kombination
4
Antworten
Als der folgende Fehler impliziert der Aufruf einer host-Funktion ('rand') ist nicht erlaubt, im kernel, und ich Frage mich, ob es eine Lösung für Sie, wenn ich muss, das zu tun. error: calling a host function("rand") from
2
Antworten
Ich bin neu in CUDA C, und versuche mich zu übergeben, ein typedef würde struct in einen Kern. Meine Methode geklappt, wenn ich versuchte es mit einem struct mit nur ints, aber wenn ich den Schalter schwebt,
3
Antworten
Ich versuche, die Implementierung eines kritischen Abschnitt in CUDA mit atomarer Anweisungen, aber ich lief in einige Probleme. Ich habe das test-Programm zu zeigen, das problem: #include <cuda_runtime.h> #include <cutil_inline.h> #include <stdio.h> __global__ void k_testLocking(unsigned int* locks,
1
Antworten
Ich benutze die CUDA 4.0 arch., mit einem Compute_Capability-2.0-Gerät (GTX460). Was ist der Unterschied zwischen der 'cubin' und 'ptx' - Datei? Ich denke, die cubin einen nativen code für die gpu-also das ist arch. bestimmten, und die
1
Antworten
Was sind die minimalen compute capability Anforderungen für: CUDA 5.5? CUDA 6.0? CUDA 6.5? InformationsquelleAutor Max | 2015-03-08
3
Antworten
wenn gefragt wird, für nvidia-smi gibt es diese Fehlermeldung: Failed to initialize NVML: GPU access blocked by the operating system weitere Informationen: $ nvcc --verion nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2015 NVIDIA Corporation Built
5
Antworten
Ich bin mit TensorFlow auf Ubuntu 15.10. Wenn ich pip show tensorflow sehe ich, dass TF hat ordnungsgemäß installiert. Jedoch, wenn ich Schreibe import tensorflow as tf bekomme ich folgende Fehlermeldung: Traceback (most recent call last): File
2
Antworten
Wie optimiert man die exp-Funktion in cuda? Was sind die Unterschiede zwischen den folgenden in CUDA?? exp() expf() __expf() Dies ist alles abgedeckt, in Anhang C der CUDA programming guide, genauso wie einige Ihrer früheren CUDA-Fragen. Vielleicht
3
Antworten
Ziel: erstellen Sie eine gemeinsame Bibliothek mit meinem CUDA-Kernel, der eine CUDA-free-wrappers/header. erstellen Sie eine test ausführbare Datei für die gemeinsame Bibliothek. Problem shared library MYLIB.so scheint zu kompilieren einwandfrei. (kein problem). Fehler in der Verlinkung: ./libMYLIB.so:
4
Antworten
Hallo ich wollte nur wissen, ob es möglich ist, tun Sie den folgenden innerhalb der nvidia-cuda-kernel __global__ void compute(long *c1, long size, ...) { ... long d[1000]; ... } oder die folgenden __global__ void compute(long *c1, long
5
Antworten
Habe ich einen kernel, der verwendet 17 Registern, die Reduzierung auf 16 bringen würde, die mir 100% Auslastung. Meine Frage ist: gibt es Methoden, die verwendet werden können, um die Anzahl zu reduzieren oder Register verwendet, ohne
2
Antworten
Ich erstellen Sie eine neue Win32-Konsolenanwendung als ein leeres Projekt Ich bin mit Windows 7 64-bit mit Visual Studio 2008 C++. Ich werde versuchen, den Beispielcode aus der Unterseite dieses Artikels, um zu bauen: http://www.ddj.com/architect/207200659 Ich hinzufügen
1
Antworten
Ich bin mit der CUDA 6.0 und die OpenCL-Implementierung, die im Bundle mit dem CUDA-SDK. Ich habe zwei identische Kerne für jede Plattform (Sie unterscheiden sich in der Plattform bestimmte Schlüsselwörter). Sie nur das Lesen und schreiben
3
Antworten
Ich habe Probleme mit dem kompilieren meine CUDA-code mit CMake. Ich bin mit der CUDA-7 und die Informationen zur version von nvcc ist wie folgt: nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2014 NVIDIA Corporation Built
4
Antworten
Wenn ich Bearbeiten .cu - Datei in Microsoft Visual Studio 2010-editor behandelt Sie wie eine normale text-Datei (es gibt keine Farben, die auf Schlüsselwörter wie int, float etc. Schließende Klammern werden nicht hervorgehoben). Wie aktiviere ich syntax
1
Antworten
Ich bin immer noch nicht sicher, wie Sie richtig angeben-Architekturen für die code-Generierung, wenn Gebäude mit nvcc. Ich bin mir bewusst, dass es Maschinen-code als auch PTX-code, eingebettet in meinem binary und dies kann gesteuert werden über
3
Antworten
Ich versuche zu installieren CUDA auf einem server mit Ubuntu 10.04. Habe ich die NVDIA Anweisungen und installiert die "CUDA-toolkit für Ubuntu Linux 10.04", "GPU-Conputing SDK code samples",und "Entwickler-Treiber für Linux (260.19.26) (64-bit)", mein system ist 64
2
Antworten
Ich soll ein Maß dafür, wie viel von der peak-performance-mein kernel Archive. Sagen, ich habe eine NVIDIA Tesla C1060, die eine peak GFLOPS von 622.08 (~= 240Cores * 1300MHz * 2). Jetzt in meinem kernel habe ich
3
Antworten
Wie kann ich erzwingen, gcc, suchen Sie in /usr/cuda/local/include für cuda_runtime.h? Ich bin versucht zu kompilieren einer CUDA-Anwendung mit einem C-wrapper. Ich bin mit Ubuntu 10.04. Habe ich erfolgreich kompiliert meine CUDA-Anwendung in einem .also mit dem
8
Antworten
Bin ich die Verbindung zu meinem desktop hat eine Nvidia Karte (CUDA-kompatibel) mithilfe von remote-desktop-Verbindung. Ich mache das, weil ich derzeit keinen monitor! Daher bin ich temporär mit meinem laptop eine Verbindung zu meinem desktop und führe
2
Antworten
CUDA-code, kompiliert mit einem höheren compute capability ausführen wird, perfekt für eine lange Zeit auf ein Gerät mit geringerer compute capability, bevor Sie leise fehlschlagen eines Tages in einigen Kernels. Ich verbrachte den halben Tag jagt eine
3
Antworten
Ich versuche eine variable zu deklarieren, die für matrix-Multiplikation wie folgt: __shared__ float As[BLOCK_SIZE][BLOCK_SIZE]; Ich versuche, es zu machen, so könnte der Benutzer die Eingabe der Größe der matrix zu berechnen, aber das würde bedeuten, dass die
1
Antworten
Muss ich double-precision-Berechnung in meiner Anwendung. Nach was ich bei google gefunden sollte ich hinzufügen-ein-flag "-arch sm_13" oder "-arch sm_20". Q1: Was ist der Unterschied zwischen "-arch sm_13" und "-arch sm_20" ? Q2: gibt es einen Unterschied
4
Antworten
Ich versuche zu laufen caffe auf Linux Ubuntu. Nach der installation führe ich im caffe in der gpu und der Fehler ist I0910 13:28:13.606891 10629 caffe.cpp:296] Use GPU with device ID 0 modprobe: ERROR: could not insert
8
Antworten
Wurde ich gefragt, zu bauen, die eine Echtzeit-Gesichtserkennung Anwendung und nach einiger Suche rund um habe ich beschlossen, zu versuchen EmguCV und OpenCV-wie die Gesichtserkennung-Bibliothek. Das Problem ich bin im moment versucht man das SDK installiert ist
2
Antworten
Motivation: ich wurden mit der Aufgabe betraut mit der Messung der Karp-Flatt-Metrik und parallele Effizienz meiner CUDA-C-code, der erfordert die Berechnung des speedup. Insbesondere brauche ich zum zeichnen alle diese Metriken als eine Funktion der Anzahl der
2
Antworten
ich habe einige Schwierigkeiten Verständnis threads im NVIDIA-gpu-Architektur mit der cuda -. könnte bitte jemand klären Sie diese info: eine 8800 gpu hat 16 SMs mit 8 SPs jedem. so haben wir 128 SPs. war ich Leser
3
Antworten
...oder einfach nur die threads in der aktuellen verformen oder blockieren? Auch, wenn die Gewinde in einem bestimmten block Begegnung (in den kernel) die folgende Zeile __shared__ float srdMem[128]; wird Sie nur erklären, sondern dieser Raum einmal
5
Antworten
Muss ich mal ein CUDA-kernel-Ausführung. Die Best Practices Guide sagt, wir können entweder Ereignisse oder standard-timing-Funktionen wie clock() im Windows. Mein problem ist, dass mit diesen beiden Funktionen gibt mir ein völlig anderes Ergebnis. In der Tat,
1
Antworten
Ich bin neu in CUDA, und ich kann nicht verstehen, loop unrolling. Ich schrieb ein Stück code, um die Technik zu verstehen __global__ void kernel(float *b, int size) { int tid = blockDim.x * blockIdx.x + threadIdx.x;
9
Antworten
Kann jemand beschreiben Sie die Unterschiede zwischen __global__ und __device__ ? Wann sollte ich __device__und Wann __global__?. InformationsquelleAutor der Frage Mehdi1902 | 2012-09-11
3
Antworten
Habe ich versucht zu installieren, die volle CUDA 5.0-Paket, aber ich bekam die folgende Fehlermeldung: Driver: Not Selected Toolkit: Not Selected Samples: Installation Failed. Missing required libraries. So, in der /tmp/cuda_install_2340.log habe ich: Missing required library libglut.so
1
Antworten
Lese ich die NVIDIA-white paper mit dem Titel Particle Simulation with CUDA von Simon Green. Er beschreibt die SDK Teilchen Beispiel und die verwendeten algorithmen. Während der Diskussion der performance des Codes, der Autor sagt, dass die
1
Antworten
Den Tensorflow linux-Installationsanleitung sagen: Sicherzustellen, dass Sie erstellen die CUDA_HOME environment-variable wie beschrieben in der NVIDIA Dokumentation. Ich kann nicht finden jede Erwähnung von CUDA_HOME in der NVIDIA Anleitung für cuDNN v6 oder in der NVIDIA-CUDA-Toolkit installieren-Anleitung.
3
Antworten
Mittelwert-filter ist das Fenster der filter der linearen Klasse, dass glättet das signal (Bild). Der filter arbeitet als Tiefpass. Die grundlegende Idee hinter dem filter für jedes element des Signals (Bild) nehmen im Durchschnitt seiner Nachbarschaft. Wenn
2
Antworten
Möchte ich die Zeit Messen innere Kern der GPU, wie, wie zu Messen Sie es in NVIDIA CUDA? z.B. __global__ void kernelSample() { some code here get start time some code here get stop time some code
2
Antworten
Habe ich eine CUDA-search-Funktion, die das berechnen einer einzelnen variable. Wie kann ich es wieder zurück. __global__ void G_SearchByNameID(node* Node, long nodeCount, long start,char* dest, long answer){ answer = 2; } cudaMemcpy(h_answer, d_answer, sizeof(long), cudaMemcpyDeviceToHost); cudaFree(d_answer); für
7
Antworten
Habe ich installiert, cuda, zuerst mit cuda-repo-ubuntu1604-9-0-local_9.0.176-1_amd64.deb. Jetzt bin ich versucht zu installieren OpenCV 3.3.0 Aber ich bin immer CMake Error: CMake Error: The following variables are used in this project, but they are set to NOTFOUND.
8
Antworten
Ich habe gekämpft, mit diesem ganzen Tag, ich werde versuchen, einen Zufallszahlen-generator für die threads in meinem CUDA-code. Ich schaute durch alle Foren und ja, das Thema kommt bis ein gutes Stück, aber ich habe Stunden damit
2
Antworten
Habe ich gelesen, dass Microsoft eng mit Nvidia zu verbessern AMP Aufführungen. Aber meine Frage ist: ist der AMP ein CUDA-ersetzen von Microsoft? Oder ist VERSTÄRKER-Verwendung der CUDA-Treiber bei einer NVIDIA CUDA Grafikkarte verfügbar ist? Ist der
2
Antworten
Der Konvention zu sein scheint, geben CUDA-source-code-Dateien ein .cu Erweiterung, zur Unterscheidung von C-Dateien mit einem .c Erweiterung. Was ist die entsprechende Konvention für die CUDA-spezifische header-Dateien? Gibt es eine? InformationsquelleAutor der Frage Brooks Moses | 2010-03-06
5
Antworten
Wir haben einige nightly-build-Maschinen, die cuda-Bibliotheken installiert, aber die nicht über eine cuda-fähige GPU installiert ist. Diese Maschinen sind in der Lage cuda-fähige Programme, aber Sie sind nicht in der Lage, mit diesen Programmen. In unserer automatisierten