Deepmind spielt Go und reguliert das Cooling Google zügelt Stromhunger im Datacenter mithilfe von KI

Autor Ulrike Ostler |

Die englischsprachige Fachpresse ist voll davon: Google senkt den Energieverbrauch im Rechenzentrum durch den Einsatz von Künstlicher Intelligenz (KI) seines Startup-Aufkaufs Deepmind. Der Energiebedarf für die Kühlung soll sich bereits um 40 Prozent reduziert haben.

Anbieter zum Thema

Das ist keine Aufnahme aus einem Wasserwerk; die Aufnahme zeigt einen Teil der Verrohrung in einem der Google-Rechenzentren.
Das ist keine Aufnahme aus einem Wasserwerk; die Aufnahme zeigt einen Teil der Verrohrung in einem der Google-Rechenzentren.
(Bild: Google)

Rund 4.402.836 Megawattstunden Strom hat Google nach eigenen Angaben im Jahr 2014 verbraucht, etwa so viel wie 1.4 Millionen deutsche Privathaushalte im selben Zeitraum verbrauchten. Den größten Anteil daran dürften die Rechenzentren des Internet-Giganten haben; immerhin gehen rund 40 Prozent des weltweiten Internet-Verkehrs durch Google-Rechner.

Zwar gelten die Google-Datacenter als vergleichsweise energieschonend und nutzen zunehmend erneuerbare Energien, doch neuronale Netze, sprich: Künstliche Intelligenz, englisch: Artificial Intelligence, oder auch maschinelles Lernen, könnten die Energie-Effizienz noch erhöhen.

Im Google-Blog von Rich Evans, Research Engineer bei Deepmind und Jim Gao, Datacenter Engineer bei Google, heißt es: „Das Herunterfahren des Energieverbrauchs war während der vergangenen zehn Jahre eines der Hauptanliegen; wir haben bei Google supereffiziente Server gebaut, haben effizientere Wege für die Datacenter-Kühlung gefunden, haben in grüne Energiequellen investiert und haben nach wie vor das Ziel in diesem Punkt auf 100 Prozent zu kommen.“

Wo liegt das Problem?

Größere Durchbrüche aber seien so selten wie oftmals weit weg gewesen, so die Blog-Autoren. „Deshalb sind wir auch so aufgeregt über die Ergebnisse des maschinellen Lernens von Deepmind und wollen die Erkenntnisse mit vielen teilen. In Google-eigenen Rechenzentren konnten wir den Energie-Aufwand für das Kühlen um bis zu 40 Prozent reduzieren.“

Ein solches Ergebnis wäre in jeder großen Energie-intensiven Umgebung ein Riesenerfolg, erläutern die Blogger. Doch in den bereits ausgeklügelten und durchdachten Google-Rechenzentren sei das ein phänomenaler Schritt nach vorne.

Wie in anderen Rechenzentren auch besteht bei Google die Aufgabe darin, die Hitze, die die Rechner erzeugen, loszuwerden und die Rechner durch Kühlen vor Überhitzung zu schützen. Wie in den meisten Datacenter kommen also auch bei Google industrielles Equipment wie Pumpen, Chiler, und Kühltürme zum Einsatz. Das aber führe zu folgenden Problemen, führen die Blog-Autoren aus:

  • Das Equipment muss mit anderem der Rechenzentrumsinfrastruktur interagieren, auf nicht-linearem Wege. Das passt weder mit tabellen-orientiertem Ingenieurswesen zusammen noch mit dem intuitivem menschlichem Verstehen.
  • Zudem können diese Systeme nur sehr schwer angepasst werden, wenn sich interne oder externe Änderungen, wie Wetterwechsel ergeben. Regelwerke und heuristische Verfahren greifen in den Szenarien nicht.
  • Auch bei Google hat jedes Rechenzentrum seine individuelle Architektur und Umgebung. Ein individuell angepasstes System ist auf die anderen übertragbar.

Eine vereinfachte Darstellung des Modells: Man nehme ein Bündel Daten, finde die verborgenen Interaktionen und stelle dann Empfehlungen zur Verfügung, die die Energie-Effizienz erhöhen.
Eine vereinfachte Darstellung des Modells: Man nehme ein Bündel Daten, finde die verborgenen Interaktionen und stelle dann Empfehlungen zur Verfügung, die die Energie-Effizienz erhöhen.
(Bild: Google)

Der neue Ansatz

Die Schlussfolgerung: Es muss ein intelligentes Framework als Basis her, das hilft, die Interaktionen im Rechenzentrum zu verstehen. An diesem Punkt der Überlegungen angekommen, habe man vor zwei Jahren begonnen zu evaluieren, wie maschinelles Lernen dabei helfen könne, Rechenzentren effizienter zu betreiben.

Das britische Startup Deepmind kam im Januar 2014 für 400 Millionen Pfund in den Besitz von Google und sorgte mit seinen vielfältig verwendbaren Algorithmen schon für Aufsehen. Mitgründer und CEO Demis Hassabis ist jetzt für die AI-Aktivitäten bei Google verantwortlich, der Entwicklung von „AlphaGo“ inklusive. Das ist das erste Computerprogramm, das jemals einen Go-Spieler schlug.

Seit ein paar Monaten nun arbeiten Deepmind-Forscher mit einem Datacenter-Team von Google zusammen. Das neuronale Netz wurde dabei anhand verschiedener Szenarien im Datacenter-Betrieb trainiert und mit diversen Parametern gefüttert. Es sei dabei ein „adaptives Framework“ entstanden, das helfen könne, die Dynamik im Rechenzentrum zu verstehen und die Effizienz zu erhöhen, so die Google-Blogger.

Für das Training des neuronalen Netzes wurden historische Daten genutzt, die Google aus Tausenden Sensoren bereits gewonnen hat, etwa bei Messungen der Temperatur, des Stromverbrauchs und der Stromschwankungen, Geschwindigkeit der Pumpen, Luftfeuchtigkeit …. Maßgabe war der zukünftige, durchschnittliche PUE-Wert (PUE = Power Usage Effectiveness).

Die Grafik zeigt einen typischen Verlauf an einem Testtag. Das Absenken der Linie und damit des Stromverbrauchs zeigt, wann und mit welchem Erfolg die Empfehlungen des maschinellen Lernens umgesetzt wurden.
Die Grafik zeigt einen typischen Verlauf an einem Testtag. Das Absenken der Linie und damit des Stromverbrauchs zeigt, wann und mit welchem Erfolg die Empfehlungen des maschinellen Lernens umgesetzt wurden.
(Bild: Google)

Dann sollte das System anhand der eigenen Vorhersagen für jeweils eine Stunde lernen, in punkto Temperatur und Druck. Die Ausrichtung dieser Prognosen war es, anhand der eigenen Vorhersagen, Maßnahmen aufgrund eines hinterlegten PUE-Models zu empfehlen. Der begrenzte Zeitraum überschaubare Funktionsumfang der Simulation sollte nachweisen, dass das System gleichermaßen nicht über das Ziel hinausschießt.

Erst dann erfolgte das Ausrollen in einen Live-Betrieb. Jetzt wollen die Macher herausfinden, wo es der Software noch an notwendigen Informationen fehlt.

Das Ganze im Blick

Der Nutzen könnte laut Rich Evans, Research Engineer bei Deepmind und Jim Gao, Datacenter Engineer bei Google, jedoch weit über Energie- und Kosteneinsparungen bei Google hinausreichen. Sie verweisen auf einen Bericht des U.S. Department of Energy’s Lawrence Berkeley National Laboratory (Berkeley Lab), der im vergangenen Monat veröffentlicht wurde, und erneut den riesigen Energiehunger der (US-)Rechenzentren nachweist.

Obwohl die Computer selbst effizienter arbeiten, ist der Energieverbrauch gestiegen und steigt noch. Tatsächlich hat sich in den vergangenen fünf Jahren die Rechnerleistung, die für dieselbe elektrische Energie geliefert werden kann, um mehr als das 3,5fache erhöht. Das heißt: Es können mehr Youtube-Videos geschaut, mehr E-Mails empfangen und gesendet, mehr Suchanfragen gestellt und digitale Fotos gepostet werden für dieselbe Menge an Energie.

Im gesamten Energieverbrauch der US-Rechenzentren spiegelt sich das nicht wieder:

Im Jahr 2014 kamen die US-Datacenter auf 70 Milliarden Kilowattstunden – also auf den Strombedarf von 6 Millionen US-Haushalten. Dieser Zahl ging wiederum ein enormer Anstieg voraus:

  • von 2000 bis 2005 stieg der Stromverbaruch um 90 Prozent
  • von 2005 bis 2010 betrug das Wachstum 24 Prozent
  • von 2010 bis 2014 wuchs der Strombedarf um 4 Prozent
  • von 2014 bis 2020 soll sich der Stromverbrauch um noch einmal 4 Prozent erhöhen.

Artikelfiles und Artikellinks

(ID:44197069)