Künstliche Intelligenz und Machine Learning wandern aus

Hunger! ML und KI brauchen Unmengen an Energie

| Autor / Redakteur: Christian Kallenbach* / Ulrike Ostler

Die Übersetzungsanwendung "DeepL" läuft auf einem Supercomputer, der im isländischen Rechenzentrum von Verne Global steht.
Die Übersetzungsanwendung "DeepL" läuft auf einem Supercomputer, der im isländischen Rechenzentrum von Verne Global steht. (Bild: ©2011 Fred Rollison Photography)

Die KI-Welle hat gerade erst angefangen. Doch die Rechnung ist denkbar einfach: Je intelligenter die Maschine, desto mehr muss sie rechnen. Und dafür braucht sie eine Menge Strom sowie eine verlässliche Infrastruktur.

Es ist Mai 1997, und Garri Kasparow schaut dem wichtigsten Match seiner langjährigen Karriere entgegen. Nur ist sein Gegner dieses Mal kein anderer Spieler, sondern ein Programm. Der Ausgang ist bekannt: Der damals amtierende Schachweltmeister Garri Kasparow verliert gegen den Computer „Deep Blue“ von IBM in einem Wettkampf unter Turnierbedingungen. Ein Staunen ging nicht nur durch die Welt der Schachspieler. Dieser Kampf hatte epische Ausmaße, schien es hier doch nicht um weniger als den Kampf Mensch gegen Maschine zu gehen.

Nicht zuletzt deshalb wird das Treffen als Meilenstein in der Entwicklung der künstlichen Intelligenz (KI) angesehen. Deep Blue war zwar noch kein eigenständig lernendes System per se, das IBM-Team änderte nämlich während des Wettkampfes die Codes und eliminierte so Fehler. Aber das Prinzip des Machine Learning war gegeben: Dem Programm wurden neue Informationen für seine Analysen in Echtzeit gefüttert. Dadurch ließ sich Deep Blue trainieren und war damit lernfähig.

Digitale Assistenten machen es vor: KI ist schon längst Realität

In den 20 Jahren seit Deep Blue hat sich viel getan: Künstliche Intelligenzen wie „Giraffe“, „Alphago“ oder auch digitale Haushaltsroboter mit Emotionen wie „Aibo“ zeigen, dass Anwendungen aus dem Bereich künstliche Intelligenz sowie Machine Learning realisierbar sind. Zunehmend wird KI für Suchalgorithmen, Übersetzungsanwendungen, Robotik, autonomes Fahren sowie für die Sprach- und Bilderkennung eingesetzt.

Der Autor ist Christian Kallenbach, Director of Business Development bei Verne Global.
Der Autor ist Christian Kallenbach, Director of Business Development bei Verne Global. (Bild: Verne Global)

In der Medizin beispielsweise sind Roboter präziser als ihre menschlichen Kollegen – zum Beispiel bei bestimmten Arbeitsschritten, in denen wenige Millimeter Leben kosten können. Auch in der Logistik sowie in der Automobilindustrie übernehmen Roboter schon seit Jahren erfolgreich diverse Tätigkeiten, wie zum Beispiel Schweißen oder Lackieren. Es ist zu erwarten, dass die kommenden Jahre eine Explosion von Deep-Neural-Network (DNN)-Anwendungen in der Robotik bringen wird, beispielsweise bei Drohnen.

Smarte Spracherkennungsdienste, digitale Assistenten wie „Google Home“ oder „Alexa“ von Amazon, optische Objekterkennung für autonomes Fahren oder Gesichtserkennung wie bei Facebook erleichtern Nutzern den Alltag. Die Bedeutung dieser Anwendungen wird in den nächsten Jahren zunehmen.

Das prognostizierte Wachstum

Daher ist es nicht überraschend, dass steigendes Interesse von Unternehmen aus dem Bereich künstliche Intelligenz besteht. Vor allem DNN-Anwendungen revolutionieren die Art und Weise, wie wir arbeiten, leben und kommunizieren.

Der Markt für Machine Learning, Cognitive Computing sowie Artificial Intelligence steht jedoch noch am Anfang. Waren solche Anwendungen vor Jahren noch Forschungseinrichtungen und größeren Technologieunternehmen vorbehalten, finden selbstlernende Programme jetzt nach und nach in Alltagslösungen Verwendung, eben bei Sprach- und Gesichtserkennung oder Chatbots.

Prognosen des Digitalverbands Bitkom zufolge wächst der globale Umsatz mit Hardware, Software und Services rund um Cognitive Computing und Machine Learning im Jahr 2017 um 92 Prozent auf 4,3 Milliarden Euro. Bis zum Jahr 2020 wird sich das Weltmarktvolumen dann voraussichtlich mehr als verfünffachen – auf 21,2 Milliarden Euro.

Je intelligenter die Maschine, desto größer der Energiebedarf

Was bedeutet das für Unternehmen? Künstliche Intelligenz und Machine Learning haben einen Preis, und zwar den massiv steigenden Stromverbrauch. Die Energieversorgung macht einen nicht zu unterschätzenden Teil der Betriebskosten eines Rechenzentrums aus; aktuellen Studien von Gartner und IDC zufolge kann sie den zweitgrößten Kostenfaktor darstellen.

Bei Strompreisen wie in Deutschland, die zu den höchsten weltweit gehören, ist das ein wichtiger Faktor, den es zu berücksichtigen gilt. Laut Borderstep Institut verbrauchten Rechenzentren an deutschen Standorten im Jahr 2015 zwölf Milliarden Kilowattstunden Strom. 2020 sollen es schon 14,3 Milliarden Kilowattstunden sein, und bis 2025 prognostiziert das Institut einen Stromverbrauch von 16,4 Milliarden Kilowattstunden im Jahr.

Ein Beispiel für den Umgang mit dem enormen Strombedarf ist „DeepL“. Das deutsche Technologieunternehmen hat erst vor kurzem sein gleichnamiges Übersetzungs-Tool vorgestellt. Der neue „DeepL Translator“ ist ein von KI getriebener Übersetzungsdienst. Das Unternehmen lässt dafür im Rechenzentrum von Verne Global in Island rechnen.

Das Beispiel DeepL

DeepL trainiert auf einem Supercomputer die neuronalen Übersetzungsnetzwerke auf Basis von gesammelten Datensätzen. Während des Trainings schauen sich die Netzwerke eine Vielzahl von Übersetzungen an und lernen selbständig, wie man mit der richtigen Grammatik und Struktur übersetzen kann.

Der Supercomputer wird von vielen als der präziseste und natürlichste maschinelle Übersetzungsdienst der Welt angesehen. Dabei arbeitet der neue Translator DeepL wie ein Gehirn. Mit Hilfe von KI kann er Texte verstehen und übersetzen. Dafür muss er aber beträchtliche Datenmengen verarbeiten. Die neuronale Architektur beherrscht 5.1 petaFLOPS – das sind 5.100.000.000 000.000.000.000 Operationen pro Sekunde. Rechenleistungen wie diese stellen Rechenzentren vor neue Herausforderungen.

Ausfallsicher, aber vor allem günstig: KI und HPC benötigen eine spezialisierte Umgebung

Hochleistungsanwendungen wie DeepL erfordern eine besonders auf High Performance Computing (HPC) abgestimmte Umgebung. Neben spezialisierter technischer Expertise benötigt HPC eine Infrastruktur, die zuverlässig, flexibel und ausfallsicher ist.

Der Standort auf Island wird zu 100 Prozent mit erneuerbaren Energien wie Wasserkraft und Geothermie betrieben. Diese regenerativen Quellen stehen jederzeit und schnell zur Verfügung, weshalb sich die Rechenleistung beliebig skalieren lässt. Ein weiterer unabdingbarer Faktor ist der günstige und stabile Energiepreis, den HPC-Anwendungen wegen ihrer Rechen- und Stromintensität benötigen.

So leisten aktuelle Entwicklungen wie Internet of Things, Big Data und künstliche Intelligenz Rechenzentren in kühlen Klimazonen Vorschub, die auf die besonderen Bedürfnisse rechenintensiver Anwendungen vorbereitet sind und den stromhungrigen Daten günstige und erneuerbare Energie entgegensetzen können. Dies betrifft vor allem Branchen wie Industrie, Automotive und Forschung.

* Christian Kallenbach ist Director of Business Development bei Verne Global.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45034004 / Infrastruktur)