Was ist der Unterschied und die Beziehung zwischen 'cuda' 'cudnn' 'cunn' und 'cutorch' in der Fackel?
Sehe ich viele Fackel-codes verwenden:
require cudnn
require cunn
require cutorch
Was sind diese Paket verwendet? Was ist Ihre Beziehung mit Cuda?
Du musst angemeldet sein, um einen Kommentar abzugeben.
Alle 3 sind für CUDA-GPU-Implementierungen für torch7.
cutorch ist das cuda-backend für torch7, bietet verschiedene support für CUDA-Implementierungen in der Fackel, wie ein CudaTensor für Tensoren im GPU-Speicher. Auch fügt einige nützliche Funktionen bei der Interaktion mit der GPU.
cunn bietet zusätzliche Module, die über die nn-Bibliothek, die hauptsächlich die Umwandlung diejenigen nn-Module der GPU-CUDA-Versionen transparent. Dies macht es leicht zu wechseln neuronale Netze zur GPU und Umgekehrt über cuda!
cuDNN ist ein wrapper von NVIDIA cuDNN Bibliothek, die eine optimierte Bibliothek für CUDA mit Verschieden schnellen GPU-Implementierungen, wie für convolutional networks und RNN-Module.
Nicht sicher, was 'cutorch' ist aber aus meinem Verständnis:
Cuda: Bibliothek zur Verwendung von GPUs.
cudnn: Bibliothek für Neuronale Net-Kram auf GPUs (vermutlich nutzt Cuda zu sprechen, um die GPUs)
Quelle: https://www.quora.com/What-is-CUDA-and-cuDNN