Definition

Was ist TensorFlow?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

TensorFlow ist ein von Google ursprünglich für den internen Gebrauch entwickeltes Framework für maschinelles Lernen und Künstliche Intelligenz. Es ist unter Open-Source-Lizenz veröffentlicht und kann beispielsweise im Umfeld der Spracherkennung oder Bildverarbeitung eingesetzt werden.

Bei TensorFlow handelt es sich um eine plattformunabhängige Programmbibliothek unter Open-Source-Lizenz, die sich für Aufgaben rund um maschinelles Lernen und Künstliche Intelligenz (KI) einsetzen lässt. Ursprünglich entwickelte Google die Software für den internen Bedarf. Das Framework bietet vielfältige Einsatzmöglichkeiten und gestattet es, lernende neuronale Netze zu erstellen. Es zeichnet sich durch seine gute Skalierbarkeit aus und ist auf unterschiedlichen Systemen vom Smartphone bis zu Clustern mit vielen Servern betreibbar.

Derzeit (Stand Anfang 2018) stellt es eines der wichtigsten Frameworks zur Programmierung von neuronalen Netzen, Algorithmen des maschinellen Lernens und Modellen des Deep Learnings dar. Die auf C++ basierende Software richtet sich an erfahrene KI-Anwender mit soliden Programmierkenntnissen. Über sogenannte Keras (High Level APIs) ist es möglich, die Implementierung von Standardmodellen zu vereinfachen. Mittlerweile hat sich TensorFlow zu einem Quasi-Standard für Deep Learning und die Programmierung neuronaler Netze entwickelt. Die Software steht in Konkurrenz zu anderen Frameworks für maschinelles Lernen wie Caffe, Torch, Microsoft Cognitive Toolkit oder PaddlePaddle. Google nutzt TensorFlow intensiv für interne Anwendungen wie die Google-Spracherkennung, Google-Fotos, die Google-Suche, Google Mail, Google Translate oder den Kartendienst Google Maps.

Die Vorteile von TensorFlow

Der Einsatz von TensorFlow für maschinelles Lernen und Künstliche Intelligenz bietet eine Vielzahl an Vorteilen. Die Software zeichnet sich durch ihre Leistungsfähigkeit und gute Skalierbarkeit aus. Im Gegensatz zu anderen Programmbibliotheken aus dem Bereich künstliche Intelligenz, die oft mit vordefinierten Modellen geliefert werden, ist TensorFlow in der Lage, eigene Modelle zu entwickeln und diese zu bearbeiten. Auch wenig getestete Modelle lassen sich mit dem Framework einfach trainieren.

TensorFlow ist auf vielen unterschiedlichen Plattformen wie Smartphones, Embedded Devices, Einzelrechnern, Server und großen verteilten Systeme lauffähig und erfordert keine Übersetzung des Codes in andere Programmiersprachen. Beliebige neuronale Netze kann TensorFlow mithilfe von gerichteten und zyklenfreien Graphen darstellen.

Die grundlegende Funktionsweise von TensorFlow

Für die Funktion von TensorFlow ist der sogenannte Graph das grundlegende Element. Es handelt sich beim Graphen um eine mithilfe eines gerichteten Diagramms abstrahierte Darstellung eines mathematischen Problems. Das Diagramm setzt sich aus Kanten und Knoten zusammen, die untereinander verbunden sind. Die Knoten repräsentieren in TensorFlow mathematische Operationen und Daten. Durch die Verbindung der Knoten entsteht ein Graph, der das mathematische Modell für das neuronale Netz bereitstellt.

TensorFlow Lite für mobile Devices

Seit der Veröffentlichung von TensorFlow Version 1.5 ist zusätzlich eine schlanke Variante des Open-Source-Frameworks verfügbar. Es nennt sich TensorFlow Lite und bringt Künstliche Intelligenz und Machine Learning auf mobile Geräte wie Smartphones und auf Embedded Devices. Unter anderem ist es für die mobilen Betriebssysteme iOS und Android geeignet. Mit TensorFlow Lite ist es nicht möglich, Modelle zu trainieren. Es ist für das Anwenden von bereits trainierten Modellen konzipiert. Auf Geräten mit dem Betriebssystem Android verwendet TensorFlow Lite die seit Android 8.1 integrierte Neural Network API (NNAPI). Sie stellt die Basisfunktionen für Berechnungen zur Verfügung und erlaubt die Nutzung der GPU.

Die Tensor Processing Unit (TPU)

Speziell für maschinelles Lernen und Künstliche Intelligenz mit TensorFlow hat Google Chips entwickelt. Die sogenannten TPUs (Tensor Processing Units) unterstützen und beschleunigen maschinelles Lernen, da sie die Algorithmen der Programmbibliothek von TensorFlow sehr effizient und schnell ausführen. Laut Aussagen von Google verwendet das Unternehmen die Tensor Processing Units in seinen eigenen Data Centern bereits seit einiger Zeit. Sie liefern bezogen auf den Energieverbrauch eine bessere Performance für maschinelles Lernen. Die zweite Generation der TPUs stellt bis zu 180 Teraflops Rechenleistung zur Verfügung. Im Clusterverbund mit 64 TPUs sind sogar bis zu 11,5 Petaflops möglich.

Anwendungsbereiche für TensorFlow

TensorFlow ist im Bereich des maschinellen Lernens und der Künstlichen Intelligenz für einen sehr breiten Anwendungsbereich geeignet. Neben der internen Verwendung bei Google selbst basieren bereits zahlreiche KI-Anwendungen in der Industrie, Wirtschaft, Medizin und dem Finanzsektor auf TensorFlow. Dank der Open-Source-Lizenz haben die Entwickler die Möglichkeit, das Framework für beliebige Zwecke einzusetzen. Die Bandbreite der Anwendungsmöglichkeiten reicht von der Suche nach Gesichtern über die Spracherkennung bis zur Früherkennung von Hautkrebs.

Sobald entsprechendes Know-how und Programmierkenntnisse vorhanden sind, ist TensorFlow für beliebige KI-Anwendungen einsetzbar. Google verwendet das Framework für Google Services wie Google Bilder, Google Maps, Google Translate und andere. Auch das KI-Projekt DeepMind greift auf die Bibliotheken von TensorFlow zurück.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

So gelingt der Start in die KI ohne zusätzliche Ausgaben

[Gesponsert]

Maschinelles Lernen auf bestehenden Infrastrukturen

So gelingt der Start in die KI ohne zusätzliche Ausgaben

IT-Manager benötigen keine neue Infrastruktur, um das volle Potential der KI auszuschöpfen. Sie können ohne zusätzliche Ausgaben sinnvolle Szenarien aufbauen und testen, gewinnbringend nutzen und bei Bedarf unkompliziert skalieren. lesen

KI – der richtige Einsatz in der Qualitätssicherung

Qualitätsmanagement mit Künstlicher Intelligenz

KI – der richtige Einsatz in der Qualitätssicherung

Mit Künstlicher Intelligenz (KI) entstehen neue Möglichkeiten für die Bilderkennung. Der Mensch als Individuum kann immer besser simuliert werden, was dazu führt, dass Fehlergenauigkeit und Geschwindigkeit und somit die Qualität in diesem Feld stark gestiegen sind. lesen

Künstliche Intelligenz im Eigenbau

Übersicht KI- und ML-Stacks, Teil 2

Künstliche Intelligenz im Eigenbau

Eine kaum noch überschaubare Vielzahl an KI/ML-Frameworks, -Bibliotheken und -Diensten buhlt um die Gunst innovativer Unternehmen. So wird Big Data zur Goldgrube. lesen

KI-Engines im Bündel mit Hardware

Übersicht KI- und ML-Stacks, Teil 1

KI-Engines im Bündel mit Hardware

Künstliche Intelligenz (KI) „fällt nicht vom Himmel“. Leistungsstarke KI-Lösungen entstehen auf der Basis gut abgestimmter KI- und Machine Learning Stacks. Davon gibt es zum Glück einige. Etablierte Softwareentwicklungshäuser sind in Sachen KI und Machine Learning (ML) mittlerweile fest im Sattel. Inzwischen wollen andere Unternehmen auch mit ins Boot. lesen

Der leistungsfähigste KI-Prozessor und ein passendes KI-Computing-Framework

Huawei-Chef Eric Xu: „Und heute haben wir geliefert.“

Der leistungsfähigste KI-Prozessor und ein passendes KI-Computing-Framework

Am vergangenen Freitag hat Huawei mit „Ascend 910“ den bisher leistungsfähigsten KI-Prozessor vorgestellt. Es ist bestimmt für das Training von Anwendungen Künstlicher Intelligenz. Außerdem hat der Konzern „Mindspore“ präsentiert, ein Framework, das es insbesondere Wissenschaftler erleichtern soll, KI-Anwendungen zu entwickeln – für alle KI-Hardware. Die Software soll 2020 Open Source werden. lesen

Huawei launcht KI-Prozessor und Computing Framework

Ascend 910 und MindSpore

Huawei launcht KI-Prozessor und Computing Framework

Mit dem Ascend 910 hat Huawei den nach eigenen Angaben leistungsstärksten KI-Prozessor der Welt veröffentlicht. Zeitgleich präsentierte das Unternehmen mit MindSpore auch ein umfangreiches KI-Computing-Framework. lesen

Schenker stellt Systeme für lokales KI-Training vor

AI Station und AI Laptop

Schenker stellt Systeme für lokales KI-Training vor

Mit den neuen AI-Station- und AI-Laptop-Produktlinien bietet Hardware-Hersteller Schenker Systeme an, die auf das lokale Training von KIs spezialisiert sind. Sie basieren auf Ubuntu und bringen eine Vielzahl nötiger KI-Programmbibliotheken gleich mit. lesen

So gelingt der Einstieg in die Data Science

Kommentar von Benjamin Aunkofer, Datanomiq

So gelingt der Einstieg in die Data Science

Big Data, Data Science und Machine Learning sind die Buzzwords dieser Jahre und Daten sind der Rohstoff für ... Lassen wir das! Wer bei BigData-Insider liest, der weiß längst, welche Rolle Daten als Rohstoff und Kapital einnehmen und wie gefragt gerade Datenexperten sind. In diesem Artikel wollen wir den Job des Data Scientists mal strukturiert durchleuchten und dann Chancen für einen Quereinstieg ausloten. Auch auf den Data Engineer gehen wir dabei ein. lesen

Was ist neu an TensorFlow 2.0?

Machine Learning

Was ist neu an TensorFlow 2.0?

Googles TensorFlow 2.0, eines der weltweit beliebtesten Open Source Frameworks für maschinelles Lernen, wurde unter anderem mit einer neuen Architektur, einfacherem Model Building mit Keras, vereinfachten API und neuer TF-Lite-1.0-Version umfassend aktualisiert. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45128621 / Definitionen)