Tag: gpgpu
GPGPU ist ein Akronym für den Bereich der informatik bekannt als „General Purpose computing on Graphics Processing Unit (GPU)“
4
Antworten
GPGPU ist das Prinzip der parallelen Prozessoren auf Grafikkarten für einen massiven Anstieg der Leistung. Hat jemand irgendwelche Ideen über die Verwendung von GPGPU in Delphi, entweder OpenCL oder CUDA? CUDA war/ist NVidia only, aber Sie haben
3
Antworten
Ich bin auf der Suche nach dem schnellsten Weg zum decodieren einer lokalen mpeg-4 video-frames auf dem iPhone. Ich bin einfach nur interessiert in die Luminanzwerte der Pixel in jeder 10ten frame. Ich brauche nicht zu Rendern
1
Antworten
Ich bin wahrscheinlich missbrauchen, OpenCV, indem Sie Sie als wrapper, um die offizielle OpenCL C++ - Bindungen, so dass ich starten kann meinen eigenen Kernel. Jedoch OpenCV hat Klassen, wie Programm, ProgramSource, Kernel, Queue, etc. das scheint
1
Antworten
Ich bin nicht in der Lage zu erzeugen GPG-Schlüssel in linux sudo gpg --gen-key # This is the command to try to generate key Fehler You need a Passphrase to protect your secret key. gpg: problem with
3
Antworten
Frage ich mich, wie viel GPU-computing würde mir helfen, die Geschwindigkeit meiner Simulationen. Den kritischen Teil meiner code-matrix-Multiplikation. Grundsätzlich ist der code der aussieht, wie der folgende python-code mit Matrizen der Ordnung 1000 und lange Schleifen. import
4
Antworten
Arbeite ich auf high-performance-code in C++ und habe mit beiden CUDA und OpenCL und mehr vor kurzem C++AMP, den ich sehr mag. Ich bin jedoch ein wenig besorgt, dass es nicht weiterentwickelt wird und erweitert und werden
4
Antworten
Habe ich vor kurzem entdeckt die macht der GP-GPU (general purpose graphics processing unit) und wollen es nutzen, um "schwere" wissenschaftliche und mathematische Berechnungen, die sonst nur großen CPU-Cluster) auf einer einzigen Maschine. Ich weiß, dass es
2
Antworten
Ich habe die Entwicklung eines kryptografischen Algorithmus auf der GPU und derzeit stecken mit einem Algorithmus durchführen zu großen integer-addition. Große Ganzzahlen dargestellt werden, in einer üblichen Weise als eine Reihe von 32-bit-Worten. Zum Beispiel, können wir
2
Antworten
Erstellt habe ich folgende Struktur 'Daten' in C typedef struct data { double *dattr; int d_id; int bestCent; }Data; Den 'dattr' ein array in der oben beschriebenen Struktur, die immer dynamischer werden. Nehme an, dass ich 10
4
Antworten
Ich versuche zu tun, etwas Bildverarbeitung auf der GPU, z.B. median, Unschärfe, Helligkeit, etc. Die Allgemeine Idee ist, etwas zu tun, wie dieser Rahmen aus GPU Gems 1. Ich in der Lage bin zu schreiben, die GLSL
1
Antworten
Unter welchen Umständen sollten Sie die volatile keyword mit einer CUDA-kernel shared memory? Ich verstehe, dass volatile teilt dem compiler mit, nie die cache-Werte, aber meine Frage ist über das Verhalten bei einem shared array: __shared__ float
3
Antworten
Ist es möglich, die Verwendung von OpenCL für die PowerVR SGX530-GPU-Gerät? Ich muss schreiben, bilderkennungs-software, die läuft auf Droid X smartphone. Ich wäre sehr dankbar, wenn jemand könnte-links, Verweise, Zitate, Beispiel-code. InformationsquelleAutor Roman Kagan | 2010-11-13
4
Antworten
dieses Programm scheint in Ordnung sein, aber ich bin noch immer ein erro, einen Vorschlag? Programm: #include "dot.h" #include <cuda.h> #include <cuda_runtime.h> #include <stdio.h> int main(int argc, char** argv) { int *a, *b, *c; int *dev_a, *dev_b,
4
Antworten
Schreibe ich ein cuda-Programm und versucht etwas zu drucken innerhalb des cuda-kernels mit der printf-Funktion. Aber wenn ich bin kompilieren Sie das Programm, dann bin ich immer ein Fehler error : calling a host function("printf") from a
5
Antworten
Es wird vorgeschlagen, dass unter Linux die GPU mit dem Befehl lspci | grep VGA. Es funktioniert gut auf Ubuntu, aber wenn ich versuche, das gleiche auf CentOS, sagt lspci-Befehl nicht gefunden. Wie kann ich prüfen, ob
1
Antworten
Im Versuch, erhöhen Sie den timeout auf der GPU von der Standard-Einstellung von 2 Sekunden etwas länger. Ich fand den folgenden link aber es scheint Ihr leicht in windows 7, wie ich cant nichts zu sehen in
1
Antworten
Schrieb ich einfach ein OpenCL-Programm basierend auf dem SDK, und es kompiliert und läuft, aber die Ausgabe ist falsch. Gibt es etwas, was ich falsch mache? Anregungen für das lernen zu Debuggen C und OpenCL ist sehr
2
Antworten
Ich versuche zu generieren, Zufallszahl, Zufallszahlen innerhalb des cuda-Kernels. Ich wünschte, Sie zum generieren der Zufallszahlen aus der Gleichverteilung und in der integer-form, beginnend von 1 bis 8. Die Zufallszahlen anders sein würde, für jeden der threads.
1
Antworten
OpenCV hat gpu::Stream Klasse kapselt eine Warteschlange von asynchronen aufrufen. Einige Funktionen überlastungen mit zusätzlichen gpu::Stream parameter. Abgesehen von gpu-basics-similarity.cpp Beispiel-code, es gibt sehr wenig Informationen in der OpenCV-Dokumentation, wie und Wann gpu::Stream. Zum Beispiel, es ist
4
Antworten
Habe ich gerade versucht die Installation von CUDA 7.5 auf meinem laptop. Ich deaktiviert lightdm und hat sudo sh cuda7.5.run. Die Treiber-installation übergeben, aber dann bekam ich eine Fehlermeldung Unsupported compiler ... und die installation schlägt fehl.
3
Antworten
Heute habe ich Hinzugefügt, vier weitere __local Variablen zu meinem kernel dump Zwischenergebnisse. Aber nur indem die vier Variablen zu den kernel-Unterschrift und Beifügung der entsprechenden Kernel-Parameter rendert alle Ausgaben des Kernels "0"en. Keines der cl-Funktionen einen
2
Antworten
Ich würde gerne starten, CPU-und GPU-intensiven Prozess auf einige Maschinen, doch müssen diese Prozesse nicht stören Benutzers Aufgaben. So muss ich mich einschränken, oder zumindest erkennen, GPU-Auslastung durch meine Prozesse. Diese Prozesse sind closed-source, also kann ich
4
Antworten
Ich kompilieren wollen, eine sehr einfache Hallo-Welt-Niveau Cuda-Programm unter Linux. Ich habe drei Dateien: kernel: helloWorld.cu main-Methode: helloWorld.cpp gemeinsamen header: "helloWorld".h Schreiben Sie mir ein einfaches Makefile zum kompilieren dieser mit nvcc und g++? Dank, Gabor Bitte
4
Antworten
Als der folgende Fehler impliziert der Aufruf einer host-Funktion ('rand') ist nicht erlaubt, im kernel, und ich Frage mich, ob es eine Lösung für Sie, wenn ich muss, das zu tun. error: calling a host function("rand") from
1
Antworten
Ich habe versucht eine Reihe von verschiedenen Tensorflow Beispiele, die funktioniert gut auf der CPU, sondern generiert den gleichen Fehler, wenn ich versuche, Sie zu laufen auf der GPU. Ein kleines Beispiel ist dieses: import tensorflow as
5
Antworten
Habe ich einen kernel, der verwendet 17 Registern, die Reduzierung auf 16 bringen würde, die mir 100% Auslastung. Meine Frage ist: gibt es Methoden, die verwendet werden können, um die Anzahl zu reduzieren oder Register verwendet, ohne
2
Antworten
Motivation: ich wurden mit der Aufgabe betraut mit der Messung der Karp-Flatt-Metrik und parallele Effizienz meiner CUDA-C-code, der erfordert die Berechnung des speedup. Insbesondere brauche ich zum zeichnen alle diese Metriken als eine Funktion der Anzahl der
2
Antworten
Möchte ich die Zeit Messen innere Kern der GPU, wie, wie zu Messen Sie es in NVIDIA CUDA? z.B. __global__ void kernelSample() { some code here get start time some code here get stop time some code
1
Antworten
Ich brauche, um herauszufinden, wie man die Daten von D3D-Texturen und Oberflächen back to system memory. Was ist der Schnellste Weg, solche Dinge zu tun und wie? Auch wenn ich nur einen benötigen subrect, wie kann man
4
Antworten
Tut CUDA-Unterstützung von double-precision-floating-point-zahlen? Auch, was sind die Gründe für das gleiche? InformationsquelleAutor der Frage cuda-dev | 2010-05-12
2
Antworten
Numpy werden kann "verlinkten/kompiliert" gegen verschiedene BLAS-Implementierungen (MKL, ACML, ATLAS, GotoBlas, etc). Das ist nicht immer einfach zu konfigurieren aber es ist möglich. Ist es auch möglich, "link/compile" numpy gegen NVIDIA ' s CUBLAS Umsetzung? Ich konnte
1
Antworten
Ich bin neu in GPGPU-Programmierung arbeite ich mit NVIDIA-Implementierung von OpenCL. Meine Frage war, wie zu compute die Grenzen der GPU-Gerät (Anzahl der threads). Von dem, was ich verstanden, es gibt eine Reihe von arbeiten-Gruppe (entspricht der
4
Antworten
Meine CUDA Programm stürzte während der Ausführung, vor der Speicher wurde geleert. Als Ergebnis Gerätespeicher blieb besetzt. Ich auf eine GTX 580, für die nvidia-smi --gpu-reset wird nicht unterstützt. Platzierung cudaDeviceReset() in der Anfang des Programms ist
3
Antworten
Wenn ein computer mehrere CUDA-fähige GPUs, jeder GPU erhält eine device ID. Standardmäßig CUDA Kernel ausführen auf device ID 0. Sie können cudaSetDevice(int device) wählen Sie ein anderes Gerät an. Sagen wir, ich habe zwei Grafikkarten in
2
Antworten
Ich bin ein Neuling auf GPU-Programmierung. Ich habe einen laptop mit NVIDIA GeForce GT 640 Karte. Ich bin konfrontiert mit 2 Dilemmata, Vorschläge sind herzlich willkommen. Wenn ich mich für CUDA -- Ubuntu oder Windows Klar CUDA
1
Antworten
Gibt es keine spürbaren Unterschied in TensorFlow Leistung, wenn mit Quadro-GPUs vs GeForce-GPUs? z.B. nutzen-double-precision-Operationen oder sonst etwas, das dazu führen würde, dass ein Tropfen auf GeForce-Karten? Ich bin zu kaufen ein GPU für TensorFlow, und wollte
8
Antworten
Habe ich bemerkt, dass CUDA-Anwendungen neigen dazu, eine grobe maximale Laufzeit von 5-15 Sekunden, bevor Sie werden scheitern und beenden. Ich weiß, es ist ideal, um keine CUDA-Anwendung ausführen, die lange aber davon aus, dass es die
3
Antworten
Kennt jemand ein Projekt, das die standard-Komprimierungsverfahren (wie Zip, GZip, BZip2, LZMA,...) mit NVIDIA ' s CUDA-Bibliothek? Ich Frage mich, ob algorithmen, die eine Vielzahl von parallelen Aufgaben (wie Kompression) wäre nicht viel schneller laufen auf der
7
Antworten
Ich war durchlesen http://www.khronos.org/ web-site und fand nur Kopfzeilen für OpenCL (nicht OpenGL, die ich don ' T care about). Wie bekomme ich OpenCL SDK? InformationsquelleAutor der Frage Roman Kagan | 2009-07-27
8
Antworten
General-purpose computing on graphics processing units (GPGPU) ist ein sehr attraktives Konzept zu nutzen, die Leistung der GPU für jede Art von computing. Ich würde gerne verwenden GPGPU für die Bildverarbeitung, Partikel, schnell und geometrische Operationen. Gerade
7
Antworten
Für plattform-Unabhängigkeit (desktop -, cloud -, mobile -, ...) wäre es toll zu verwenden, die OpenCL für GPGPU-Entwicklung, wenn die Geschwindigkeit nicht egal. Ich weiß, Google schiebt RenderScript als alternative, aber es scheint nur für Android verfügbar
3
Antworten
Ich habe eine GeForce GTX 580, und ich möchte, um eine Aussage über die Gesamtzahl der threads, die können (im Idealfall) tatsächlich parallel ausgeführt werden, zu vergleichen mit 2-oder 4-multi-core-CPUs. deviceQuery gibt mir folgende möglicherweise relevante Informationen:
2
Antworten
Ich weiß OpenCL erhält die Kontrolle über den GPU-Speicher-Architektur und ermöglicht so eine bessere Optimierung, aber, verlassen von diesem abgesehen, können wir die Verwendung von Compute Shadern für Vektor-Operationen (addition, Multiplikation, inversion, etc.)? InformationsquelleAutor der Frage Maiss
3
Antworten
Was ist die Beziehung zwischen der maximalen Arbeit, die der Größe der Gruppe und der warp-Größe? Lassen Sie uns sagen, mein Gerät hat 240 CUDA streaming-Prozessoren (SP) und gibt die folgenden Informationen zurück - CL_DEVICE_MAX_COMPUTE_UNITS: 30 CL_DEVICE_MAX_WORK_ITEM_SIZES:
3
Antworten
Wann ist die Berufung auf den cudaDeviceSynchronize Funktion wirklich gebraucht?. Soweit ich das verstanden habe aus der CUDA-Dokumentation, CUDA Kernel werden asynchron, so scheint es, dass wir rufen cudaDeviceSynchronize nach jedem kernel starten. Allerdings habe ich versucht
10
Antworten
Ich würde gerne hören von Menschen, die Erfahrung mit Codierung für beide. Ich selbst habe nur Erfahrung mit NVIDIA. NVIDIA CUDA scheint zu sein, viel beliebter als die Konkurrenz. (Nur das zählen Frage-tags in diesem forum, 'cuda'
1
Antworten
Ich weiß, dass nvidia-smi -l 1 geben wird, die GPU-Nutzung jeder zweite (ähnlich dem folgenden). Jedoch würde ich mich über eine Erklärung, was Volatile GPU-Util wirklich bedeutet. Ist, dass die Anzahl der verwendeten SMs über Gesamt-SMs, oder
10
Antworten
Welche Funktionen OpenCL eindeutig zu wählen, über OpenGL mit GLSL für die Berechnungen? Trotz der Grafik die zugehörige Terminologie und inpractical Datentypen, gibt es tatsächlich einen VORBEHALT zu OpenGL? Beispielsweise parallel Funktion Auswertung kann durchgeführt werden durch
5
Antworten
Brauche ich dynamisch reservieren einige arrays innerhalb der kernel-Funktion. Wie kann ich das tun? Mein code ist etwas wie das: __global__ func(float *grid_d,int n, int nn){ int i,j; float x[n],y[nn]; //Do some really cool and heavy computations
22
Antworten
Beantwortung zu einem anderen Stack-Überlauf Frage (diese eine) stieß ich auf eine interessante sub-problem. Was ist die Schnellste Methode zum Sortieren eines Arrays von 6 ints? Als die Frage, ist sehr gering: wir können nicht davon ausgehen