Tag: gpgpu

GPGPU ist ein Akronym für den Bereich der informatik bekannt als „General Purpose computing on Graphics Processing Unit (GPU)“

Mit Delphi nutzen von GPGPU-Technologie?

Anzahl der Antworten 4 Antworten
GPGPU ist das Prinzip der parallelen Prozessoren auf Grafikkarten für einen massiven Anstieg der Leistung. Hat jemand irgendwelche Ideen über die Verwendung von GPGPU in Delphi, entweder OpenCL oder CUDA? CUDA war/ist NVidia only, aber Sie haben

Decodieren von video-frames auf dem iPhone GPU

Anzahl der Antworten 3 Antworten
Ich bin auf der Suche nach dem schnellsten Weg zum decodieren einer lokalen mpeg-4 video-frames auf dem iPhone. Ich bin einfach nur interessiert in die Luminanzwerte der Pixel in jeder 10ten frame. Ich brauche nicht zu Rendern

So starten Sie benutzerdefinierte OpenCL-kernel in OpenCV (3.0.0) OCL?

Anzahl der Antworten 1 Antworten
Ich bin wahrscheinlich missbrauchen, OpenCV, indem Sie Sie als wrapper, um die offizielle OpenCL C++ - Bindungen, so dass ich starten kann meinen eigenen Kernel. Jedoch OpenCV hat Klassen, wie Programm, ProgramSource, Kernel, Queue, etc. das scheint

Unfähig zu erzeugen gpg-Schlüssel in linux

Anzahl der Antworten 1 Antworten
Ich bin nicht in der Lage zu erzeugen GPG-Schlüssel in linux sudo gpg --gen-key # This is the command to try to generate key Fehler You need a Passphrase to protect your secret key. gpg: problem with

Speedup GPU vs. CPU für matrix-Operationen

Anzahl der Antworten 3 Antworten
Frage ich mich, wie viel GPU-computing würde mir helfen, die Geschwindigkeit meiner Simulationen. Den kritischen Teil meiner code-matrix-Multiplikation. Grundsätzlich ist der code der aussieht, wie der folgende python-code mit Matrizen der Ordnung 1000 und lange Schleifen. import

Was ist der aktuelle Stand von C++ AMP

Anzahl der Antworten 4 Antworten
Arbeite ich auf high-performance-code in C++ und habe mit beiden CUDA und OpenCL und mehr vor kurzem C++AMP, den ich sehr mag. Ich bin jedoch ein wenig besorgt, dass es nicht weiterentwickelt wird und erweitert und werden

Erste Schritte mit PyOpenCL

Anzahl der Antworten 4 Antworten
Habe ich vor kurzem entdeckt die macht der GP-GPU (general purpose graphics processing unit) und wollen es nutzen, um "schwere" wissenschaftliche und mathematische Berechnungen, die sonst nur großen CPU-Cluster) auf einer einzigen Maschine. Ich weiß, dass es

große integer-addition mit CUDA

Anzahl der Antworten 2 Antworten
Ich habe die Entwicklung eines kryptografischen Algorithmus auf der GPU und derzeit stecken mit einem Algorithmus durchführen zu großen integer-addition. Große Ganzzahlen dargestellt werden, in einer üblichen Weise als eine Reihe von 32-bit-Worten. Zum Beispiel, können wir

Speicher-Objekt-Zuordnung in Opencl für ein dynamisches array in der Struktur

Anzahl der Antworten 2 Antworten
Erstellt habe ich folgende Struktur 'Daten' in C typedef struct data { double *dattr; int d_id; int bestCent; }Data; Den 'dattr' ein array in der oben beschriebenen Struktur, die immer dynamischer werden. Nehme an, dass ich 10

GPGPU-Programmierung mit OpenGL ES 2.0

Anzahl der Antworten 4 Antworten
Ich versuche zu tun, etwas Bildverarbeitung auf der GPU, z.B. median, Unschärfe, Helligkeit, etc. Die Allgemeine Idee ist, etwas zu tun, wie dieser Rahmen aus GPU Gems 1. Ich in der Lage bin zu schreiben, die GLSL

Wann flüchtigen mit CUDA shared Memory

Anzahl der Antworten 1 Antworten
Unter welchen Umständen sollten Sie die volatile keyword mit einer CUDA-kernel shared memory? Ich verstehe, dass volatile teilt dem compiler mit, nie die cache-Werte, aber meine Frage ist über das Verhalten bei einem shared array: __shared__ float

Ist es möglich, die Verwendung von OpenCL für die PowerVR SGX530-GPU-Gerät?

Anzahl der Antworten 3 Antworten
Ist es möglich, die Verwendung von OpenCL für die PowerVR SGX530-GPU-Gerät? Ich muss schreiben, bilderkennungs-software, die läuft auf Droid X smartphone. Ich wäre sehr dankbar, wenn jemand könnte-links, Verweise, Zitate, Beispiel-code. InformationsquelleAutor Roman Kagan | 2010-11-13

Fehler der Kompilierung der Cuda - expected primary-expression

Anzahl der Antworten 4 Antworten
dieses Programm scheint in Ordnung sein, aber ich bin noch immer ein erro, einen Vorschlag? Programm: #include "dot.h" #include <cuda.h> #include <cuda_runtime.h> #include <stdio.h> int main(int argc, char** argv) { int *a, *b, *c; int *dev_a, *dev_b,

drucken von cuda-Kerneln

Anzahl der Antworten 4 Antworten
Schreibe ich ein cuda-Programm und versucht etwas zu drucken innerhalb des cuda-kernels mit der printf-Funktion. Aber wenn ich bin kompilieren Sie das Programm, dann bin ich immer ein Fehler error : calling a host function("printf") from a

Wie um zu überprüfen, für die GPU auf CentOS Linux

Anzahl der Antworten 5 Antworten
Es wird vorgeschlagen, dass unter Linux die GPU mit dem Befehl lspci | grep VGA. Es funktioniert gut auf Ubuntu, aber wenn ich versuche, das gleiche auf CentOS, sagt lspci-Befehl nicht gefunden. Wie kann ich prüfen, ob

Ändern der Registrierung, und erhöhen Sie die GPU-timeout, windows 7

Anzahl der Antworten 1 Antworten
Im Versuch, erhöhen Sie den timeout auf der GPU von der Standard-Einstellung von 2 Sekunden etwas länger. Ich fand den folgenden link aber es scheint Ihr leicht in windows 7, wie ich cant nichts zu sehen in

Einfachen OpenCL-Programm kompiliert und ausgeführt, aber die Ausgabe ist falsch

Anzahl der Antworten 1 Antworten
Schrieb ich einfach ein OpenCL-Programm basierend auf dem SDK, und es kompiliert und läuft, aber die Ausgabe ist falsch. Gibt es etwas, was ich falsch mache? Anregungen für das lernen zu Debuggen C und OpenCL ist sehr

Generieren von Zufallszahlen innerhalb von Cuda-kernel in einen unterschiedlichen Bereich

Anzahl der Antworten 2 Antworten
Ich versuche zu generieren, Zufallszahl, Zufallszahlen innerhalb des cuda-Kernels. Ich wünschte, Sie zum generieren der Zufallszahlen aus der Gleichverteilung und in der integer-form, beginnend von 1 bis 8. Die Zufallszahlen anders sein würde, für jeden der threads.

wie zu verwenden gpu::Stream in OpenCV?

Anzahl der Antworten 1 Antworten
OpenCV hat gpu::Stream Klasse kapselt eine Warteschlange von asynchronen aufrufen. Einige Funktionen überlastungen mit zusätzlichen gpu::Stream parameter. Abgesehen von gpu-basics-similarity.cpp Beispiel-code, es gibt sehr wenig Informationen in der OpenCV-Dokumentation, wie und Wann gpu::Stream. Zum Beispiel, es ist

CUDA 7.5 installation: nicht unterstützter compiler-Fehler

Anzahl der Antworten 4 Antworten
Habe ich gerade versucht die Installation von CUDA 7.5 auf meinem laptop. Ich deaktiviert lightdm und hat sudo sh cuda7.5.run. Die Treiber-installation übergeben, aber dann bekam ich eine Fehlermeldung Unsupported compiler ... und die installation schlägt fehl.

Gibt es eine Begrenzung für OpenCL lokalen Speicher?

Anzahl der Antworten 3 Antworten
Heute habe ich Hinzugefügt, vier weitere __local Variablen zu meinem kernel dump Zwischenergebnisse. Aber nur indem die vier Variablen zu den kernel-Unterschrift und Beifügung der entsprechenden Kernel-Parameter rendert alle Ausgaben des Kernels "0"en. Keines der cl-Funktionen einen

Gibt es eine Möglichkeit heraus zu finden und/oder limitiert die GPU-Auslastung durch Prozess in Windows?

Anzahl der Antworten 2 Antworten
Ich würde gerne starten, CPU-und GPU-intensiven Prozess auf einige Maschinen, doch müssen diese Prozesse nicht stören Benutzers Aufgaben. So muss ich mich einschränken, oder zumindest erkennen, GPU-Auslastung durch meine Prozesse. Diese Prozesse sind closed-source, also kann ich

Wie sollte ein sehr einfaches Makefile Aussehen für Cuda-Kompilierung unter linux

Anzahl der Antworten 4 Antworten
Ich kompilieren wollen, eine sehr einfache Hallo-Welt-Niveau Cuda-Programm unter Linux. Ich habe drei Dateien: kernel: helloWorld.cu main-Methode: helloWorld.cpp gemeinsamen header: "helloWorld".h Schreiben Sie mir ein einfaches Makefile zum kompilieren dieser mit nvcc und g++? Dank, Gabor Bitte

So rufen Sie eine host-Funktion in einen CUDA-kernel?

Anzahl der Antworten 4 Antworten
Als der folgende Fehler impliziert der Aufruf einer host-Funktion ('rand') ist nicht erlaubt, im kernel, und ich Frage mich, ob es eine Lösung für Sie, wenn ich muss, das zu tun. error: calling a host function("rand") from

Fehler mit Tensorflow mit der GPU

Anzahl der Antworten 1 Antworten
Ich habe versucht eine Reihe von verschiedenen Tensorflow Beispiele, die funktioniert gut auf der CPU, sondern generiert den gleichen Fehler, wenn ich versuche, Sie zu laufen auf der GPU. Ein kleines Beispiel ist dieses: import tensorflow as

Reduziert die Anzahl der Register in der CUDA-Kernel

Anzahl der Antworten 5 Antworten
Habe ich einen kernel, der verwendet 17 Registern, die Reduzierung auf 16 bringen würde, die mir 100% Auslastung. Meine Frage ist: gibt es Methoden, die verwendet werden können, um die Anzahl zu reduzieren oder Register verwendet, ohne

Wie berechnet sich der speedup der GPU-Programm?

Anzahl der Antworten 2 Antworten
Motivation: ich wurden mit der Aufgabe betraut mit der Messung der Karp-Flatt-Metrik und parallele Effizienz meiner CUDA-C-code, der erfordert die Berechnung des speedup. Insbesondere brauche ich zum zeichnen alle diese Metriken als eine Funktion der Anzahl der

Wie misst man die inneren kernel-Zeit in NVIDIA CUDA?

Anzahl der Antworten 2 Antworten
Möchte ich die Zeit Messen innere Kern der GPU, wie, wie zu Messen Sie es in NVIDIA CUDA? z.B. __global__ void kernelSample() { some code here get start time some code here get stop time some code

Dabei readback von Direct3D-Texturen und Oberflächen

Anzahl der Antworten 1 Antworten
Ich brauche, um herauszufinden, wie man die Daten von D3D-Texturen und Oberflächen back to system memory. Was ist der Schnellste Weg, solche Dinge zu tun und wie? Auch wenn ich nur einen benötigen subrect, wie kann man

Double-precision-floating-point-in CUDA

Anzahl der Antworten 4 Antworten
Tut CUDA-Unterstützung von double-precision-floating-point-zahlen? Auch, was sind die Gründe für das gleiche? InformationsquelleAutor der Frage cuda-dev | 2010-05-12

Numpy, BLAS-und CUBLAS

Anzahl der Antworten 2 Antworten
Numpy werden kann "verlinkten/kompiliert" gegen verschiedene BLAS-Implementierungen (MKL, ACML, ATLAS, GotoBlas, etc). Das ist nicht immer einfach zu konfigurieren aber es ist möglich. Ist es auch möglich, "link/compile" numpy gegen NVIDIA ' s CUBLAS Umsetzung? Ich konnte

Wie viele threads (oder in einem work-item) kann zur gleichen Zeit laufen?

Anzahl der Antworten 1 Antworten
Ich bin neu in GPGPU-Programmierung arbeite ich mit NVIDIA-Implementierung von OpenCL. Meine Frage war, wie zu compute die Grenzen der GPU-Gerät (Anzahl der threads). Von dem, was ich verstanden, es gibt eine Reihe von arbeiten-Gruppe (entspricht der

Wie kann ich flush GPU-Speicher mit CUDA (physische reset nicht verfügbar ist)

Anzahl der Antworten 4 Antworten
Meine CUDA Programm stürzte während der Ausführung, vor der Speicher wurde geleert. Als Ergebnis Gerätespeicher blieb besetzt. Ich auf eine GTX 580, für die nvidia-smi --gpu-reset wird nicht unterstützt. Platzierung cudaDeviceReset() in der Anfang des Programms ist

Wie funktioniert die CUDA-Gerät zuweisen von IDs zu den GPUs?

Anzahl der Antworten 3 Antworten
Wenn ein computer mehrere CUDA-fähige GPUs, jeder GPU erhält eine device ID. Standardmäßig CUDA Kernel ausführen auf device ID 0. Sie können cudaSetDevice(int device) wählen Sie ein anderes Gerät an. Sagen wir, ich habe zwei Grafikkarten in

GPU-Programmierung CUDA oder OpenCL?

Anzahl der Antworten 2 Antworten
Ich bin ein Neuling auf GPU-Programmierung. Ich habe einen laptop mit NVIDIA GeForce GT 640 Karte. Ich bin konfrontiert mit 2 Dilemmata, Vorschläge sind herzlich willkommen. Wenn ich mich für CUDA -- Ubuntu oder Windows Klar CUDA

Auswahl zwischen GeForce- oder Quadro-Grafikprozessoren für maschinelles Lernen über TensorFlow

Anzahl der Antworten 1 Antworten
Gibt es keine spürbaren Unterschied in TensorFlow Leistung, wenn mit Quadro-GPUs vs GeForce-GPUs? z.B. nutzen-double-precision-Operationen oder sonst etwas, das dazu führen würde, dass ein Tropfen auf GeForce-Karten? Ich bin zu kaufen ein GPU für TensorFlow, und wollte

CUDA Apps Timeout & amp; nach einigen Sekunden ausfallen - wie umgehen Sie das?

Anzahl der Antworten 8 Antworten
Habe ich bemerkt, dass CUDA-Anwendungen neigen dazu, eine grobe maximale Laufzeit von 5-15 Sekunden, bevor Sie werden scheitern und beenden. Ich weiß, es ist ideal, um keine CUDA-Anwendung ausführen, die lange aber davon aus, dass es die

Komprimierungsbibliothek mit Nvidias CUDA

Anzahl der Antworten 3 Antworten
Kennt jemand ein Projekt, das die standard-Komprimierungsverfahren (wie Zip, GZip, BZip2, LZMA,...) mit NVIDIA ' s CUDA-Bibliothek? Ich Frage mich, ob algorithmen, die eine Vielzahl von parallelen Aufgaben (wie Kompression) wäre nicht viel schneller laufen auf der

Wie erhalte ich OpenCL SDK?

Anzahl der Antworten 7 Antworten
Ich war durchlesen http://www.khronos.org/ web-site und fand nur Kopfzeilen für OpenCL (nicht OpenGL, die ich don ' T care about). Wie bekomme ich OpenCL SDK? InformationsquelleAutor der Frage Roman Kagan | 2009-07-27

Beste Vorgehensweise für GPGPU / CUDA / OpenCL in Java?

Anzahl der Antworten 8 Antworten
General-purpose computing on graphics processing units (GPGPU) ist ein sehr attraktives Konzept zu nutzen, die Leistung der GPU für jede Art von computing. Ich würde gerne verwenden GPGPU für die Bildverarbeitung, Partikel, schnell und geometrische Operationen. Gerade

Wie benutzt man OpenCL auf Android?

Anzahl der Antworten 7 Antworten
Für plattform-Unabhängigkeit (desktop -, cloud -, mobile -, ...) wäre es toll zu verwenden, die OpenCL für GPGPU-Entwicklung, wenn die Geschwindigkeit nicht egal. Ich weiß, Google schiebt RenderScript als alternative, aber es scheint nur für Android verfügbar

CUDA: Wie viele gleichzeitige Threads insgesamt?

Anzahl der Antworten 3 Antworten
Ich habe eine GeForce GTX 580, und ich möchte, um eine Aussage über die Gesamtzahl der threads, die können (im Idealfall) tatsächlich parallel ausgeführt werden, zu vergleichen mit 2-oder 4-multi-core-CPUs. deviceQuery gibt mir folgende möglicherweise relevante Informationen:

Was ist der Unterschied zwischen OpenCL und OpenGLs Compute Shader?

Anzahl der Antworten 2 Antworten
Ich weiß OpenCL erhält die Kontrolle über den GPU-Speicher-Architektur und ermöglicht so eine bessere Optimierung, aber, verlassen von diesem abgesehen, können wir die Verwendung von Compute Shadern für Vektor-Operationen (addition, Multiplikation, inversion, etc.)? InformationsquelleAutor der Frage Maiss

CUDA-Modell - was ist Warpgröße?

Anzahl der Antworten 3 Antworten
Was ist die Beziehung zwischen der maximalen Arbeit, die der Größe der Gruppe und der warp-Größe? Lassen Sie uns sagen, mein Gerät hat 240 CUDA streaming-Prozessoren (SP) und gibt die folgenden Informationen zurück - CL_DEVICE_MAX_COMPUTE_UNITS: 30 CL_DEVICE_MAX_WORK_ITEM_SIZES:

Wann cudaDeviceSynchronize aufrufen?

Anzahl der Antworten 3 Antworten
Wann ist die Berufung auf den cudaDeviceSynchronize Funktion wirklich gebraucht?. Soweit ich das verstanden habe aus der CUDA-Dokumentation, CUDA Kernel werden asynchron, so scheint es, dass wir rufen cudaDeviceSynchronize nach jedem kernel starten. Allerdings habe ich versucht

NVIDIA vs AMD: GPGPU Leistung

Anzahl der Antworten 10 Antworten
Ich würde gerne hören von Menschen, die Erfahrung mit Codierung für beide. Ich selbst habe nur Erfahrung mit NVIDIA. NVIDIA CUDA scheint zu sein, viel beliebter als die Konkurrenz. (Nur das zählen Frage-tags in diesem forum, 'cuda'

nvidia-smi Flüchtige GPU-Nutzung Erklärung?

Anzahl der Antworten 1 Antworten
Ich weiß, dass nvidia-smi -l 1 geben wird, die GPU-Nutzung jeder zweite (ähnlich dem folgenden). Jedoch würde ich mich über eine Erklärung, was Volatile GPU-Util wirklich bedeutet. Ist, dass die Anzahl der verwendeten SMs über Gesamt-SMs, oder

OpenGL vs. OpenCL, welche zu wählen und warum?

Anzahl der Antworten 10 Antworten
Welche Funktionen OpenCL eindeutig zu wählen, über OpenGL mit GLSL für die Berechnungen? Trotz der Grafik die zugehörige Terminologie und inpractical Datentypen, gibt es tatsächlich einen VORBEHALT zu OpenGL? Beispielsweise parallel Funktion Auswertung kann durchgeführt werden durch

Wie man Arrays innerhalb eines Kernels dynamisch zuordnet?

Anzahl der Antworten 5 Antworten
Brauche ich dynamisch reservieren einige arrays innerhalb der kernel-Funktion. Wie kann ich das tun? Mein code ist etwas wie das: __global__ func(float *grid_d,int n, int nn){ int i,j; float x[n],y[nn]; //Do some really cool and heavy computations

Schnellste Art von 6 int-Arrays fester Länge

Anzahl der Antworten 22 Antworten
Beantwortung zu einem anderen Stack-Überlauf Frage (diese eine) stieß ich auf eine interessante sub-problem. Was ist die Schnellste Methode zum Sortieren eines Arrays von 6 ints? Als die Frage, ist sehr gering: wir können nicht davon ausgehen