Tag: gpu

Abkürzung für „Graphics Processing Unit“. Für die Programmierung von traditionellen grafischen Anwendungen finden Sie in der tag-Eintrag „Grafik-Programmierung“. Für general-purpose-Programmierung mit GPUs, sehen die tag-Eintrag für „gpgpu“. Für bestimmte GPU-Programmierung Technologien finden Sie die beliebtesten tag-Einträge für „opencl“, „cuda“ – und „Schub“.

Mit Delphi nutzen von GPGPU-Technologie?

Anzahl der Antworten 4 Antworten
GPGPU ist das Prinzip der parallelen Prozessoren auf Grafikkarten für einen massiven Anstieg der Leistung. Hat jemand irgendwelche Ideen über die Verwendung von GPGPU in Delphi, entweder OpenCL oder CUDA? CUDA war/ist NVidia only, aber Sie haben

Python-und gpu-OpenCV-Funktionen

Anzahl der Antworten 2 Antworten
Ich möchte wissen, ob es möglich ist, zu verwenden opencv-gpu-Funktionen, wie die von hier? Oder muss ich wickeln Sie es in python Klasse. Es ist ein Ansatz diskutiert: stackoverflow.com/questions/42125084/... Möglich, Duplikat der Zugriff auf OpenCV, CUDA-Funktionen von

OpenGL: Ist es effizienter zu nutzen GL_QUADS oder GL_TRIANGLES?

Anzahl der Antworten 2 Antworten
Ich weiß, dass OpenGL veraltet und entledigte GL_QUADS in den neueren Versionen. Ich habe gehört, dass dies aufgrund der Tatsache, dass moderne GPUs nur Dreiecke Rendern mit so ruft ein quad würde nur die GPU härter arbeiten,

Fehler beim erstellen gpu-google-Instanz

Anzahl der Antworten 2 Antworten
Habe ich versucht die Schaffung GPU-Instanz in der Google-Cloud-Plattform, aber jedes mal, wenn ich versuche, eine Instanz zu schaffen, die es zeigt "Sie haben Ihr limit erreicht 0 GPUs NVIDIA K80". Ich versuche zum erstellen einer Instanz

textur für YUV420 zu-RGB-Konvertierung in OpenGL ES

Anzahl der Antworten 1 Antworten
Habe ich zum konvertieren und anzeigen, YUV420P Bilder in RGB-Farbraum mit dem AMD GPU auf Freescale iMX53-Prozessor (OpenGL ES 2.0, EGL). Linux OS, kein X11. Um dies zu erreichen ich sollte in der Lage sein, um eine

Holen Sie sich die Temperatur von NVidia-GPU mit NVAPI

Anzahl der Antworten 4 Antworten
Ich habe versucht, für die letzten paar Tage, um die Temperatur meiner GPU mit C++ über die NVAPI ich habe den folgenden code #include "stdafx.h" #include "nvapi.h" int _tmain(int argc, _TCHAR* argv) { NvAPI_Status ret = NVAPI_OK;

Lösung des dichten lineare Systeme AX = B mit CUDA

Anzahl der Antworten 0 Antworten
Kann ich das neue cuSOLVER Bibliothek (CUDA-7) zu lösen, lineare Systeme der form AX = B wo A, X und B sind NxN dichten Matrizen ? Ja. Im Rahmen der cuSOLVER können Sie QR-ZERLEGUNG, siehe QR-ZERLEGUNG zum

C# - CPU-und GPU-Temp

Anzahl der Antworten 4 Antworten
Ich bin in den Prozess der Erstellung eines persönlichen monitoring-Programm für die system-performance, und ich habe Probleme, herauszufinden, wie C# ruft die CPU-und GPU-Temperatur. Ich habe bereits das Programm abrufen der CPU-Last und Frequenz Informationen(sowie diverse andere

Tensorflow nicht mit GPU

Anzahl der Antworten 3 Antworten
Ich versuche, führen Sie das Beispiel seq2seq von Tensorflow, aber es wird nicht die GPU nutzen. Hier sind die Schritt, den ich nahm, um zu installieren Tensorflow auf einem Linux-system mit Tesla K20x git clone --recurse-submodules https://github.com/tensorflow/tensorflow

Gewusst wie: Debuggen von CUDA mit Nsight eclipse mit nur einer GPU

Anzahl der Antworten 3 Antworten
Ich erhalte eine Fehlermeldung: "alle cuda-Geräte dienen zur Anzeige und kann nicht verwendet werden, während des Debuggens" (Mit Ubuntu) Gibt es eine Möglichkeit zu nutzen Nsight eclipse mit nur einer GPU für die Fehlersuche? Ich habe gesehen,

Speedup GPU vs. CPU für matrix-Operationen

Anzahl der Antworten 3 Antworten
Frage ich mich, wie viel GPU-computing würde mir helfen, die Geschwindigkeit meiner Simulationen. Den kritischen Teil meiner code-matrix-Multiplikation. Grundsätzlich ist der code der aussieht, wie der folgende python-code mit Matrizen der Ordnung 1000 und lange Schleifen. import

keras version zu verwenden, mit tensorflow-gpu-1.4

Anzahl der Antworten 4 Antworten
Ich bin mit ubuntu-16, mit python 3, tf-GPU mit keras. Ich herabgestuft tf 1.4 wegen der cuda-Fehler, wie beschrieben hier Aber jetzt bin ich immer diese Fehlermeldung TypeError: softmax() got an unexpected keyword argument 'Achse' Scheint, dass

Erstellen Sie eine verknüpfte Liste mit CUDA

Anzahl der Antworten 4 Antworten
Ist es möglich, erstellen Sie eine verknüpfte Liste, die auf einer GPU mit CUDA? Ich bin versucht, dies zu tun und ich bin encoutering einige Schwierigkeiten. Wenn ich nicht zuordnen dynamische Speicher in einen CUDA-kernel, dann wie

Kann Ihr Programm eine Reine GPU-Spiel?

Anzahl der Antworten 9 Antworten
Ich bin ein CS-master-student, und im nächsten semester werde ich zu Beginn der Arbeit an meiner Dissertation. Ich habe Mühe mit der Erarbeitung der Dissertation Idee, aber ich beschloss, es zu werden in Bezug auf Computer-Grafiken, wie

Wie effizient Rendern und video-streams mit GPU?

Anzahl der Antworten 5 Antworten
Ich planen, zu entwickeln, ein Werkzeug für Echtzeit-video-manipulation mit C++, Qt und OpenGL. Video-overlay ist keine option, da Shader verwendet werden soll, für-frame-Bearbeitung. Im moment Stelle ich mir folgende Abfolge von Schritten: Video zu decodieren (CPU) Vorverarbeiten

Code für Human-Erkennung mit OpenCV GPU

Anzahl der Antworten 1 Antworten
Es ist schwer zu sagen, was hier gefragt. Diese Frage ist mehrdeutig, unklar, unvollständig, zu breit, oder der rhetorischen und nicht sinnvoll zu beantworten, die in seiner aktuellen form. Für Hilfe bei der Klärung dieser Frage, so

Zum deaktivieren der GPU in keras mit tensorflow?

Anzahl der Antworten 2 Antworten
Möchte ich vergleichen Bearbeitungszeit von meinem code mit und ohne gpu. Mein backend von keras ist Tensorflow. Es verwendet eine GPU automatisch. Ich verwende ein Modell von keras/examples/mnist_mlp.py für den Vergleich. Ich habe in der Zeit der

CUDA runtime error (59) : device-side behaupten ausgelöst

Anzahl der Antworten 2 Antworten
Habe ich Zugang zu Tesla K20c, ich bin mit ResNet50 auf CIFAR10 Datensatz... Dann bekomme ich die Fehlermeldung: THCudaCheck FAIL file=/opt/conda/conda-bld/pytorch_1524584710464/work/aten/src/THC/generated/../generic/THCTensorMathPointwise.cu line=265 error=59 : device-side assert triggered Traceback (most recent call last): File "main.py", line 109, in

Caffe/pyCaffe: legen Sie alle GPUs

Anzahl der Antworten 3 Antworten
ist möglich, alle GPUs für Caffe (vor allem pyCaffe)? Etwas wie: caffe train -solver examples/mnist/lenet_solver.prototxt -gpu all Verwandte: stackoverflow.com/q/33446612/1714410 InformationsquelleAutor gulliver | 2015-11-15

Welche Grafik Karte für Windows Azure Virtuelle Maschinen mit?

Anzahl der Antworten 2 Antworten
Denke ich über einige Grafik-intensive Programme, die auf Windows Azure virtual machine, aber nicht sicher, welche Art von hardware Sie haben. Nicht alle VM haben die gleiche GPU? Was ist Ihre Erfahrung? InformationsquelleAutor Albert Cheng | 2013-04-14

Cuda-block/Gitter-Abmessungen: Wann dim3?

Anzahl der Antworten 1 Antworten
Brauche ich etwas Aufklärung in Bezug auf die Nutzung von dim3, um die Anzahl der threads in meinem CUDA-kernel. Ich habe ein Bild in einem 1D-float-array, welches ich kopieren auf das Gerät mit: checkCudaErrors(cudaMemcpy( img_d, img.data, img.row

Tut FFMPEG nutzen CUDA oder andere hardware-Beschleunigung noch?

Anzahl der Antworten 4 Antworten
Einfache Frage, aber ich habe Probleme bei der Suche nach der Antwort. Wir werden der Entscheidung über eine transcoding-engine, die vorzugsweise open source) und es scheint mir, dass FFMPEG nutzt nicht die hardware-Beschleunigung, aber ich bin mir

Schnellste Bibliothek Für Die Bildverarbeitung

Anzahl der Antworten 3 Antworten
Entwickeln wir derzeit ein system für die Analyse der hohen Qualität Infrarot-Bild-streams, um zu bestimmen, die Temperatur mit Hilfe eines chromaticity-Diagramm. Kann jeder jeden schlagen eine Bibliothek für die Bildverarbeitung, welches die Architektur einer GPU, so können

Wann flüchtigen mit CUDA shared Memory

Anzahl der Antworten 1 Antworten
Unter welchen Umständen sollten Sie die volatile keyword mit einer CUDA-kernel shared memory? Ich verstehe, dass volatile teilt dem compiler mit, nie die cache-Werte, aber meine Frage ist über das Verhalten bei einem shared array: __shared__ float

nvcc fatal : Wert 'sm_61' ist nicht definiert für option 'gpu-Architektur' Fehler mit theano

Anzahl der Antworten 2 Antworten
Ich war die Einrichtung von python und theano, für die Verwendung mit gpu auf; ubuntu 14.04, GeForce GTX 1080 die bereits installierte NVIDIA-Treiber (367.27) und CUDA-toolkit (7.5) erfolgreich für das system, aber auf Tests mit theano gpu-Implementierung,

Wie ist die GPU-und Speicher-Auslastung, definiert in der nvidia-smi Ergebnisse?

Anzahl der Antworten 2 Antworten
Ich bin derzeit mit einem tool ausgeliefert, mit der nvidia Treiber "nvidia-smi" für die performance-überwachung auf der GPU. Wenn wir von 'nvidia-smi -a", es geben die Informationen der aktuellen GPU-Informationen, einschließlich der GPU core und memory die

libopencv_gpu.so.2.4: cannot open shared object file: No such file or directory

Anzahl der Antworten 2 Antworten
Ich versuche zu kompilieren, der code (houghlines.cpp von der gpu Proben): #include <cmath> #include <iostream> #include "opencv2/core/core.hpp" #include "opencv2/highgui/highgui.hpp" #include "opencv2/imgproc/imgproc.hpp" #include "opencv2/gpu/gpu.hpp" #include <stdlib.h> #include <stdio.h> using namespace std; using namespace cv; using namespace cv::gpu; static

Element-Weise Operationen in C++

Anzahl der Antworten 3 Antworten
Gibt es eine bereits vorhandene Bibliothek, das möchte ich erstellen array-ähnlichen Objekten, welche folgende Eigenschaften haben: Laufzeit Größe Spezifikation (gewählt am instantition, nicht vergrößert oder verkleinert, danach) Operatoren überladen zu führen element Weise Vorgänge (z.B. c=a+b wird

Ist es möglich, die Verwendung von OpenCL für die PowerVR SGX530-GPU-Gerät?

Anzahl der Antworten 3 Antworten
Ist es möglich, die Verwendung von OpenCL für die PowerVR SGX530-GPU-Gerät? Ich muss schreiben, bilderkennungs-software, die läuft auf Droid X smartphone. Ich wäre sehr dankbar, wenn jemand könnte-links, Verweise, Zitate, Beispiel-code. InformationsquelleAutor Roman Kagan | 2010-11-13

wie cast thrust::device_vector<int> raw-pointer

Anzahl der Antworten 1 Antworten
Habe ich einen Schub device_vector. Ich will wirken in einem raw-pointer, so dass ich übergeben Sie es an einen kernel. Wie kann ich das tun? thrust::device_vector<int> dv(10); //CAST TO RAW kernel<<<bl,tpb>>>(pass raw) InformationsquelleAutor Programmer | 2012-06-20

Kann ich eine PCI-E 3.0 x16 gpu in einem PCI-E 1.0 x16-Steckplatz?

Anzahl der Antworten 1 Antworten
Ich habe ein altes motherboard das Asus P5K Deluxe. Ich muss meine aktuelle GPU ( NVIDIA 8800 GTX ), aber alle neuen GPU ' s scheinen eine PCI-E 3.0 slot. Sind die 3.0 abwärtskompatibel mit 1.0-slots? Gibt

CPU SIMD-vs. GPU-SIMD?

Anzahl der Antworten 2 Antworten
GPU verwendet, die SIMD Paradigma, das heißt, den gleichen Teil des Codes parallel ausgeführt werden, und angewendet, um verschiedene Elemente eines Datensatzes. Jedoch, CPU auch nutzt SIMD, und bieten instruction-level parallelism. Zum Beispiel, soweit ich weiß, SSE-Anweisungen

nvidia-smi GPU-Leistung zu Messen macht keinen Sinn

Anzahl der Antworten 1 Antworten
Ich bin mit Nvidia GTX Titan X zu tun, deep-learning-experiment. Ich bin mit nvidia-smi überwacht den GPU-Status "wird ausgeführt", aber die perf(ormance) Zustand ist das tool nicht sinnvoll. Ich check out der nvidia-smi-Handbuch, es sagt der folgende:

Maximale Anzahl von threads gleichzeitig ausführen kann in java auf einer CPU

Anzahl der Antworten 3 Antworten
Bitte ich verwirrt über etwas. Was ich weiß ist, dass die maximale Anzahl der threads, die gleichzeitig ausgeführt werden können auf einer normalen CPU von einem modernen computer reicht von 8 bis zu 16 threads. Auf der

maximale Anzahl von threads pro block

Anzahl der Antworten 2 Antworten
habe ich die folgenden Informationen: Maximum number of threads per block: 512 Maximum sizes of each dimension of a block: 512 x 512 x 64 bedeutet dies, dass die maximale Anzahl von threads in einem 2d-thread-block ist

Warum Opencv GPU-code langsamer ist als die CPU?

Anzahl der Antworten 5 Antworten
Ich bin mit opencv242 + VS2010 von einem notebook. Ich habe versucht zu tun, einige einfache test der GPU-block in OpenCV, aber es zeigte die GPU ist 100-mal langsamer als die CPU-codes. In diesem code, ich habe

Einfache CUBLAS-Matrix-Multiplikation Beispiel?

Anzahl der Antworten 2 Antworten
Ich bin auf der Suche nach einem sehr nackten Knochen-matrix-Multiplikation Beispiel für CUBLAS, dass sich M-mal N und Stelle die Ergebnisse in P für den folgenden code, mit high-performance-GPU-Betrieb: float M[500][500], N[500][500], P[500][500]; for(int i = 0;

Laufen OpenGL auf AWS-GPU-instances, die mit CentOS

Anzahl der Antworten 2 Antworten
Ich ausführen müssen, einige off-screen-rendering-Programm auf AWS EC2-GPU-Instanz mit CentOS. Während jedoch fand ich, dass Ubuntu sehr einfach zu setup, kann ich nicht zulassen, CentOS funktionieren. Ziel ist es, einige wesentliche Tools/test-Tools, die in EC2-GPU-Instanz (ohne screen

Warum verwenden wir die CPUs für raytracing statt GPUs?

Anzahl der Antworten 1 Antworten
Nachdem ich einige der Forschung auf rasterisation und ray-tracing. Ich habe herausgefunden, dass es nicht viel Informationen darüber, wie CPUs arbeiten für die ray-tracing auf dem internet verfügbar. Ich stieß und Artikel über Pixar und wie Sie

Wie bekommen die GPU-Informationen in C#?

Anzahl der Antworten 3 Antworten
Ich versuche zu machen, eine software, überprüfen Sie einige Informationen über den Nutzer ist Video-Grafik-Karten (zB: GPU-Taktfrequenz, Bus-Breite und etc). Ich habe gesehen, diese Informationen in TechPowerUp GPU-Z-software und die Namen von einigen der SDK, sehen Sie

Android-Force-GPU-Rendering aktivieren und deaktivieren???

Anzahl der Antworten 3 Antworten
Baue ich eine app, die erfordert eine Menge von Zeichnung auf der Leinwand. Ich merke, dass die app ist ein bisschen laggy in Geräten mit hoher Auflösung (nexus 7 zum Beispiel). Ich sah, dass es eine Kraft

GPU Pixel-und Texel-schreiben Geschwindigkeit

Anzahl der Antworten 2 Antworten
Viele embedded/mobile-GPUs bietet den Zugriff auf performance-Register genannt Pixel Schreibgeschwindigkeit und Texel Schreibgeschwindigkeit. Könnten Sie erklären, wie diese Begriffe interpretiert werden können, und definiert von der eigentlichen GPU-hardware-Sicht? Sind Sie sicher, dass texel Schreibgeschwindigkeit nicht gelesen? InformationsquelleAutor

Wie man die Speicherbandbreite von Speicher-Takt/Speicher-Geschwindigkeit

Anzahl der Antworten 3 Antworten
Zur info, Hier sind die specs, die ich von Nvidia http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-680/specifications http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan/specifications Beachten Sie, dass die Geschwindigkeit des Speichers/Speicher-Takt sind die gleiche Sache auf Ihrer website und sind sowohl gemessen in Gbps. Dank! InformationsquelleAutor Blue_Black | 2013-02-24

Tensor-Flow: Ran out of memory versuchen zu reservieren

Anzahl der Antworten 3 Antworten
Ich arbeite mit Tensor-Flow-version 0.7.1, 64-bit GPU-aktiviert, installiert mit pip und auf einem PC mit Ubuntu 14.04. Mein Problem ist, dass Tensor-Flow-ist der Speicher beim erstellen mein Netzwerk, obwohl basierend auf meinen Berechnungen, sollte es genügend Platz

Graphen algorithmen auf der GPU

Anzahl der Antworten 2 Antworten
den aktuellen GPU-threads sind irgendwie eingeschränkt (Speicher-limit -, limit-Daten, Strukturen, keine Rekursion...). glaubst du, es wäre möglich zu implementieren Graphentheorie problem auf der GPU. zum Beispiel vertex cover? dominiert eingestellt? unabhängigen Satz? max-clique?.... ist es auch möglich,

Malloc Speicher Korruption in C

Anzahl der Antworten 4 Antworten
Ich habe ein problem mit malloc. Habe ich eine Funktion namens jacobi_gpu wich ist viele Male aufgerufen : int main(int argc, char* argv){ /* ... */ int totalrot=0; while(nrot>0){ iter++; nrot=jacobi_gpu(a,q, tol, dimmat); totalrot+=nrot; printf("iter =%3d nrot=%3d\n",iter,

Installieren von Cuda ohne root

Anzahl der Antworten 3 Antworten
Ich weiß, dass ich installieren kann Cuda mit den folgenden: wget http://developer.download.nvidia.com/compute/cuda/7_0/Prod/local_installers/cuda_7.0.28_linux.run chmod +x cuda_7.0.28_linux.laufen ./cuda_7.0.28_linux.run-Extrakt=`pwd`/nvidia_installers cd nvidia_installers sudo ./NVIDIA-Linux-x86_64-346.46.laufen sudo modprobe nvidia sudo ./cuda-linux64-rel-7.0.28-19326674.laufen Nur Fragen, wenn ich kann Cuda installieren ohne root? Dank, Der GPU-Treiber

Zurücksetzen der GPU und Treiber nach CUDA Fehler

Anzahl der Antworten 4 Antworten
Manchmal Fehler in meinem CUDA-Programme verursachen, die von desktop-Grafikkarten zu brechen (in Windows). In der Regel bleibt der Bildschirm etwas lesbar, aber bei der Grafik ändern, wie z.B. beim ziehen eines Fensters, viele semi-zufällige farbigen Pixel und

OpenCV 2.4.3 rc und CUDA 4.2: "OpenCV Error: Keine GPU-Unterstützung"

Anzahl der Antworten 1 Antworten
Hochgeladen habe ich mehrere screenshots in diesem album: http://imgur.com/a/w4jHc Ich versuche, GPU und läuft in OpenCV in Visual Studio 2008. Ich bin mit einem der OpenCV-GPU-Beispiel-codes bgfg_segm.cpp. Allerdings, wenn ich kompilieren (kein Compiler-Fehler) wirft er eine "OpenCV

Max Anzahl der threads, die eingeleitet werden können, in einem einzigen CUDA-kernel

Anzahl der Antworten 1 Antworten
Ich bin verwirrt über die maximale Anzahl der threads an, die gestartet werden können in eine Fermi-GPU. Meiner GTX 570 Gerät Abfrage-sagt der folgende. Maximum number of threads per block: 1024 Maximum sizes of each dimension of