Definition

Was ist TensorFlow?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

TensorFlow ist ein von Google ursprünglich für den internen Gebrauch entwickeltes Framework für maschinelles Lernen und Künstliche Intelligenz. Es ist unter Open-Source-Lizenz veröffentlicht und kann beispielsweise im Umfeld der Spracherkennung oder Bildverarbeitung eingesetzt werden.

Bei TensorFlow handelt es sich um eine plattformunabhängige Programmbibliothek unter Open-Source-Lizenz, die sich für Aufgaben rund um maschinelles Lernen und Künstliche Intelligenz (KI) einsetzen lässt. Ursprünglich entwickelte Google die Software für den internen Bedarf. Das Framework bietet vielfältige Einsatzmöglichkeiten und gestattet es, lernende neuronale Netze zu erstellen. Es zeichnet sich durch seine gute Skalierbarkeit aus und ist auf unterschiedlichen Systemen vom Smartphone bis zu Clustern mit vielen Servern betreibbar.

Derzeit (Stand Anfang 2018) stellt es eines der wichtigsten Frameworks zur Programmierung von neuronalen Netzen, Algorithmen des maschinellen Lernens und Modellen des Deep Learnings dar. Die auf C++ basierende Software richtet sich an erfahrene KI-Anwender mit soliden Programmierkenntnissen. Über sogenannte Keras (High Level APIs) ist es möglich, die Implementierung von Standardmodellen zu vereinfachen. Mittlerweile hat sich TensorFlow zu einem Quasi-Standard für Deep Learning und die Programmierung neuronaler Netze entwickelt. Die Software steht in Konkurrenz zu anderen Frameworks für maschinelles Lernen wie Caffe, Torch, Microsoft Cognitive Toolkit oder PaddlePaddle. Google nutzt TensorFlow intensiv für interne Anwendungen wie die Google-Spracherkennung, Google-Fotos, die Google-Suche, Google Mail, Google Translate oder den Kartendienst Google Maps.

Die Vorteile von TensorFlow

Der Einsatz von TensorFlow für maschinelles Lernen und Künstliche Intelligenz bietet eine Vielzahl an Vorteilen. Die Software zeichnet sich durch ihre Leistungsfähigkeit und gute Skalierbarkeit aus. Im Gegensatz zu anderen Programmbibliotheken aus dem Bereich künstliche Intelligenz, die oft mit vordefinierten Modellen geliefert werden, ist TensorFlow in der Lage, eigene Modelle zu entwickeln und diese zu bearbeiten. Auch wenig getestete Modelle lassen sich mit dem Framework einfach trainieren.

TensorFlow ist auf vielen unterschiedlichen Plattformen wie Smartphones, Embedded Devices, Einzelrechnern, Server und großen verteilten Systeme lauffähig und erfordert keine Übersetzung des Codes in andere Programmiersprachen. Beliebige neuronale Netze kann TensorFlow mithilfe von gerichteten und zyklenfreien Graphen darstellen.

Die grundlegende Funktionsweise von TensorFlow

Für die Funktion von TensorFlow ist der sogenannte Graph das grundlegende Element. Es handelt sich beim Graphen um eine mithilfe eines gerichteten Diagramms abstrahierte Darstellung eines mathematischen Problems. Das Diagramm setzt sich aus Kanten und Knoten zusammen, die untereinander verbunden sind. Die Knoten repräsentieren in TensorFlow mathematische Operationen und Daten. Durch die Verbindung der Knoten entsteht ein Graph, der das mathematische Modell für das neuronale Netz bereitstellt.

TensorFlow Lite für mobile Devices

Seit der Veröffentlichung von TensorFlow Version 1.5 ist zusätzlich eine schlanke Variante des Open-Source-Frameworks verfügbar. Es nennt sich TensorFlow Lite und bringt Künstliche Intelligenz und Machine Learning auf mobile Geräte wie Smartphones und auf Embedded Devices. Unter anderem ist es für die mobilen Betriebssysteme iOS und Android geeignet. Mit TensorFlow Lite ist es nicht möglich, Modelle zu trainieren. Es ist für das Anwenden von bereits trainierten Modellen konzipiert. Auf Geräten mit dem Betriebssystem Android verwendet TensorFlow Lite die seit Android 8.1 integrierte Neural Network API (NNAPI). Sie stellt die Basisfunktionen für Berechnungen zur Verfügung und erlaubt die Nutzung der GPU.

Die Tensor Processing Unit (TPU)

Speziell für maschinelles Lernen und Künstliche Intelligenz mit TensorFlow hat Google Chips entwickelt. Die sogenannten TPUs (Tensor Processing Units) unterstützen und beschleunigen maschinelles Lernen, da sie die Algorithmen der Programmbibliothek von TensorFlow sehr effizient und schnell ausführen. Laut Aussagen von Google verwendet das Unternehmen die Tensor Processing Units in seinen eigenen Data Centern bereits seit einiger Zeit. Sie liefern bezogen auf den Energieverbrauch eine bessere Performance für maschinelles Lernen. Die zweite Generation der TPUs stellt bis zu 180 Teraflops Rechenleistung zur Verfügung. Im Clusterverbund mit 64 TPUs sind sogar bis zu 11,5 Petaflops möglich.

Anwendungsbereiche für TensorFlow

TensorFlow ist im Bereich des maschinellen Lernens und der Künstlichen Intelligenz für einen sehr breiten Anwendungsbereich geeignet. Neben der internen Verwendung bei Google selbst basieren bereits zahlreiche KI-Anwendungen in der Industrie, Wirtschaft, Medizin und dem Finanzsektor auf TensorFlow. Dank der Open-Source-Lizenz haben die Entwickler die Möglichkeit, das Framework für beliebige Zwecke einzusetzen. Die Bandbreite der Anwendungsmöglichkeiten reicht von der Suche nach Gesichtern über die Spracherkennung bis zur Früherkennung von Hautkrebs.

Sobald entsprechendes Know-how und Programmierkenntnisse vorhanden sind, ist TensorFlow für beliebige KI-Anwendungen einsetzbar. Google verwendet das Framework für Google Services wie Google Bilder, Google Maps, Google Translate und andere. Auch das KI-Projekt DeepMind greift auf die Bibliotheken von TensorFlow zurück.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Graph-Datenbanken

E-Book von BigData-Insider

Graph-Datenbanken

Aus dem täglichen Umgang mit dem Internet ist die Nutzung von verknüpften Daten nicht mehr wegzudenken. Seien es Freundschaftskreise auf Facebook und LinkedIn, Taxi-Anforderungen auf Uber oder Empfehlungen auf Amazon und Ebay – immer tritt im Hintergrund eine Datenbank in Aktion, die verwandte Daten sucht und miteinander in Beziehung setzt. Dabei handelt es sich in den meisten Fällen um eine Graph-Datenbank. lesen

Universelle Analytik für alle Daten in Echtzeit

Nachbericht Splunk .conf19 Las Vegas

Universelle Analytik für alle Daten in Echtzeit

Splunk, ein Spezialist für IT-Betriebs-Analytik und Security, hat in Las Vegas auf seiner zehnten Anwenderkonferenz .conf19 vor rund 11.000 Besuchern eine Reihe von neuen und aktualisierten Analytik- und KI-Werkzeugen vorgestellt: „Data to everything“. Neben neuen Angeboten für IT-, AI- und DevOps stieß vor allem die Erweiterung des Preismodells auf großes Interesse. lesen

Google startet TensorFlow Enterprise

KI und Machine Learning für Großunternehmen

Google startet TensorFlow Enterprise

Google macht das KI- und Machine-Learning-Framework Tensorflow Enterprise-fähig. Große Unternehmen können bei der Entwicklung von KI-Anwendungen somit von Langzeit-Support, Leistung auf Cloud-Niveau und verwalteten Diensten profitieren. lesen

So gelingt der Start in die KI ohne zusätzliche Ausgaben

[Gesponsert]

Maschinelles Lernen auf bestehenden Infrastrukturen

So gelingt der Start in die KI ohne zusätzliche Ausgaben

IT-Manager benötigen keine neue Infrastruktur, um das volle Potential der KI auszuschöpfen. Sie können ohne zusätzliche Ausgaben sinnvolle Szenarien aufbauen und testen, gewinnbringend nutzen und bei Bedarf unkompliziert skalieren. lesen

KI – der richtige Einsatz in der Qualitätssicherung

Qualitätsmanagement mit Künstlicher Intelligenz

KI – der richtige Einsatz in der Qualitätssicherung

Mit Künstlicher Intelligenz (KI) entstehen neue Möglichkeiten für die Bilderkennung. Der Mensch als Individuum kann immer besser simuliert werden, was dazu führt, dass Fehlergenauigkeit und Geschwindigkeit und somit die Qualität in diesem Feld stark gestiegen sind. lesen

Künstliche Intelligenz im Eigenbau

Übersicht KI- und ML-Stacks, Teil 2

Künstliche Intelligenz im Eigenbau

Eine kaum noch überschaubare Vielzahl an KI/ML-Frameworks, -Bibliotheken und -Diensten buhlt um die Gunst innovativer Unternehmen. So wird Big Data zur Goldgrube. lesen

KI-Engines im Bündel mit Hardware

Übersicht KI- und ML-Stacks, Teil 1

KI-Engines im Bündel mit Hardware

Künstliche Intelligenz (KI) „fällt nicht vom Himmel“. Leistungsstarke KI-Lösungen entstehen auf der Basis gut abgestimmter KI- und Machine Learning Stacks. Davon gibt es zum Glück einige. Etablierte Softwareentwicklungshäuser sind in Sachen KI und Machine Learning (ML) mittlerweile fest im Sattel. Inzwischen wollen andere Unternehmen auch mit ins Boot. lesen

Der leistungsfähigste KI-Prozessor und ein passendes KI-Computing-Framework

Huawei-Chef Eric Xu: „Und heute haben wir geliefert.“

Der leistungsfähigste KI-Prozessor und ein passendes KI-Computing-Framework

Am vergangenen Freitag hat Huawei mit „Ascend 910“ den bisher leistungsfähigsten KI-Prozessor vorgestellt. Es ist bestimmt für das Training von Anwendungen Künstlicher Intelligenz. Außerdem hat der Konzern „Mindspore“ präsentiert, ein Framework, das es insbesondere Wissenschaftler erleichtern soll, KI-Anwendungen zu entwickeln – für alle KI-Hardware. Die Software soll 2020 Open Source werden. lesen

Huawei launcht KI-Prozessor und Computing Framework

Ascend 910 und MindSpore

Huawei launcht KI-Prozessor und Computing Framework

Mit dem Ascend 910 hat Huawei den nach eigenen Angaben leistungsstärksten KI-Prozessor der Welt veröffentlicht. Zeitgleich präsentierte das Unternehmen mit MindSpore auch ein umfangreiches KI-Computing-Framework. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45128621 / Definitionen)