Definition

Was ist cuDNN?

| Autor / Redakteur: Tutanch / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

cuDNN ist eine von Nvidia bereitgestellte Bibliothek für das Deep Learning mit neuronalen Netzwerken. Die Bibliothek ermöglicht hohe Verarbeitungsgeschwindigkeiten durch die Nutzung von Grafikprozessoren (GPUs) und unterstützt zahlreiche Deep Learning Frameworks.

Die Abkürzung cuDNN steht für Nvidia CUDA Deep Neural Network Library. Es handelt sich um eine Bibliothek für neuronale Netzwerke des Unternehmens Nvidia, die die Rechenleistung moderner Grafikprozessoren für das Deep Learning nutzt. Die Bibliothek stellt für diese Prozessoren optimierte Standardprozeduren bereit. Sie ist ein Teil des Nvidia Deep Learning SDKs und basiert auf CUDA. CUDA bedeutet Compute Unified Device Architecture und wurde von Nvidia entwickelt. Mit der CUDA-Programmiertechnik lassen sich einzelne Programmteile durch Grafikprozessoren bearbeiten.

Aufgrund der hochgradig parallelisierbaren Abläufe in einer GPU erzielt die Technik eine große Rechenleistung. Im Vergleich zu einer CPU arbeitet eine GPU bei Deep-Learning-Vorgängen wesentlich schneller. Weltweit nutzen viele Framework-Entwickler und KI-Wissenschaftler cuDNN. Die Bibliothek bietet den Vorteil, dass Wissenschaftler und Programmierer sich auf die Entwicklung von Anwendungen und das Training neuronaler Netze konzentrieren können, ohne die Rechenleistung der CPUs oder GPUs optimieren zu müssen.

Für zahlreiche Deep Learning Frameworks wie Caffee, Keras, TensorFlow oder PyTorch kommt cuDNN zum Einsatz und sorgt in Kombination mit grafischen Prozessoren für deren hohe Performance. Betriebssysteme wie Linux, Windows oder macOS unterstützen die cuDNN-Bibliothek. Die Nutzung der Software ist frei. Sie ist für akademische und kommerzielle Zwecke oder für die Forschung einsetzbar.

Die wichtigsten Funktionen von cuDNN

cuDNN bietet zahlreiche Funktionen und ermöglicht eine einfache Integration verschiedener Implementierungen neuronaler Netzwerke. Unter anderem werden anpassbare Datenlayouts, gruppierte und erweiterte Faltungen, Korrelationsfunktionen und die Vorwärts- oder Rückwärts-Neuronenaktivierung unterstützt. Darüber hinaus bietet cuDNN eine kontextbasierte API, die Multi-Threading und Interoperabilität mit CUDA-Streams bereitstellt. Zu den weiteren Funktionen zählen die Batch-Normalisierung und Tensor-Transformationsfunktionen.

Die aktuellste cuDNN-Version

cuDNN wird kontinuierlich weiterentwickelt und ist in verschiedenen Versionen verfügbar. Die aktuell Version ist cuDNN 7.4.1 (Stand Ende 2018). Anwender des Deep Learning Frameworks, die cuDNN ab Version 7.4 verwenden, profitieren von zahlreichen neuen Funktionen und einer gesteigerten Performance der Volta- and Turing-Architekturen. Im Vergleich zur Version 6 gestattet cuDNN 7.4 unter Nutzung aktueller GPUs das bis zu dreimal schnellere Training neuronaler Netze.

cuDNN im Nvidia Deep Learning SDK

Die Bibliothek cuDNN ist nur eine Komponente des Deep Learning Software Development Kits (SDK) von Nvidia. Das Nvidia Deep Learning SDK stellt zahlreiche leistungsfähige Tools bereit, um GPU-beschleunigte Deep-Learning-Anwendungen zu entwerfen und zu implementieren. Dazu zählen Tools und Bibliotheken für die Inferenz der Künstlichen Intelligenz (KI), für die Videoanalyse oder für die Multi-GPU-Kommunikation. Den Entwicklern stehen die Tools und Bibliotheken für Deep Learning Frameworks wie Caffe2, MXNet, PyTorch, TensorFlow, Cognitive Toolkit und weitere zur Verfügung. Für diese Frameworks liefert die cuDNN-Bibliothek die benötigten Funktionen für ein Multi-GPU-beschleunigtes Training der neuronalen Netze. Das Deep Learning SDK setzt das CUDA-Toolkit voraus.

Wichtige Bestandteile des NVIDIA Deep Learning SDKs sind:

  • die cuDNN-Bibliothek
  • die Multi-GPU-Kommunikation (Multi-GPU Communication – NCCL)
  • die Deep Learning Inference Engine (TensorRT)
  • die Deep Learning Videoanalyse (DeepStream SDK)
  • das Deep Learning GPU Trainings-System (DIGITS)
  • die cuBLAS lineare Algebra
  • die cuSPARSE Matrix-Operationen

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Das Cognitive Toolkit legt den Fokus auf Sprache

Spracherkennung mit neuronalen Netzen

Das Cognitive Toolkit legt den Fokus auf Sprache

Das Microsoft Cognitive Toolkit, vormals als Computational Network Toolkit (CNTK) bekannt, ist ein Deep Learning Framework für das Erstellen, Trainieren und Evaluieren von neuronalen Netzen. Im Vergleich zu Googles TensorFlow ist die Open-Source-Lösung von Microsoft eher auf Spracherkennung ausgelegt. Doch letztlich ähneln sich viele Algorithmen oder sind gar identisch. lesen

Das kann das Deep Learning Framework Torch

Deep Learning

Das kann das Deep Learning Framework Torch

Torch ist ein wissenschaftliches Deep Learning Framework mit beachtlichem Support an Algorithmen für das maschinelle Lernen. Auf Grund der einfachen Skriptsprache Lua und der C/CUDA-Implementierung ist das Open-Source-Paket sehr anwenderfreundlich und sorgt für beschleunigte Prozesse. lesen

So schnell ist das Deep Learning Framework Caffe

Künstliche Intelligenz

So schnell ist das Deep Learning Framework Caffe

Das Deep Learning Framework Caffe ist auf Modularität, Skalierbarkeit und Schnelligkeit ausgelegt. Dadurch lassen sich unter anderem Modelle für Künstliche Intelligenz innerhalb nur weniger Stunden anstatt mehrerer Tage trainieren. lesen

Die Power9-CPU von IBM ist ein weiterer KI- Meilenstein

Vier Mal höhere Deep-Learning-Rechenleistung

Die Power9-CPU von IBM ist ein weiterer KI- Meilenstein

IBM hat den neuen „IBM Power Systems Server“ mit seinem ebenfalls neu designten „Power9“-Prozessor speziell für rechenintensive KI-Workloads entwickelt. Mit ihm können die Trainingszeiten im Bereich Deep Learning um das bis zu Vierfache beschleunigt werden. lesen

Nvidia stellt Volta-GPU-Plattform vor

Für KI und High Performance Computing

Nvidia stellt Volta-GPU-Plattform vor

Im Rahmen der GPU Technology Conference in San José hat Nvidia seine neue GPU-Rechenarchitektur „Volta“ präsentiert. Sie soll massive Fortschritte in den Bereichen Künstliche Intelligenz (KI) und High Performance Computing (HPC) ermöglichen. lesen

IBM und Nvidia reduzieren Trainingszeit beim Deep Learning

Power AI Version 2

IBM und Nvidia reduzieren Trainingszeit beim Deep Learning

Mit einer neuen Version der KI-Software „Power AI“ will IBM die Leistung von Deep-Learning-Plattformen verzehnfachen und die Entwicklung von KI-Lösungen vereinfachen. Die beachtliche Beschleunigung beruht auf einer Hardware-Brücke zwischen der IBM-CPU Power 9 und der neuen GPU Volta von Nvidia. lesen

Nvidia und Facebook starten KI-Deep-Learning-Framework

Caffe2 auf Open-Source-Basis

Nvidia und Facebook starten KI-Deep-Learning-Framework

Mit dem KI-Deep-Learning-Framework Caffe2 haben Nvidia und Facebook das erste Ergebnis ihrer Zusammenarbeit im Bereich Künstliche Intelligenz präsentiert. Es soll vor allem durch hohe Performance punkten. lesen

So spürt Deep Learning Datenmuster auf

Big Data und Deep Learning

So spürt Deep Learning Datenmuster auf

Die Zunahme an unstrukturierten Daten wie etwa Bildern, Blogs und Sprachbotschaften macht es ratsam, diese Massendaten automatisch erkennen zu lassen. Deep Learning, ein Unterbereich des Machine Learning, hilft bei der Erkennung dieser Daten und findet Muster in natürlicher Sprache, in Bildern und vielem mehr. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45631593 / Definitionen)