Kurz erklärt Wie generative KI sich auf die Umwelt auswirkt

Von Adam Zewe, MIT News 7 min Lesedauer

Anbieter zum Thema

Die rasche Entwicklung und der Einsatz leistungsstarker generativer KI-Modelle hat Folgen für die Umwelt. Dazu zählen ein wesentlich erhöhter Strom- und Wasserverbrauch.

Kann Generative KI nachhaltig sein? Denn sowohl Training als auch Inferenz von KI-Modellen haben aufgrund ihres gesteigerten Bedarfs an Rechenleistung und dem damit verbundenem Energie- und Kühlungsbedarf direkte Auswirkungen auf die Umwelt. Eine Studie des MIT hat erarbeitet, wie spürbar diese Auswirkungen sind.(Bild:   / CC0)
Kann Generative KI nachhaltig sein? Denn sowohl Training als auch Inferenz von KI-Modellen haben aufgrund ihres gesteigerten Bedarfs an Rechenleistung und dem damit verbundenem Energie- und Kühlungsbedarf direkte Auswirkungen auf die Umwelt. Eine Studie des MIT hat erarbeitet, wie spürbar diese Auswirkungen sind.
(Bild: / CC0)

In einer zweiteiligen Serie geht MIT News den ökologischen Auswirkungen der generativen KI näher nach. In diesem Artikel wird die Frage erläutert, was diese Technologie so ressourcenintensiv macht, und wie sich dies auf die Umwelt messbar auswirkt. In einem zweiten Teil soll untersucht werden, was Experten tun, um den CO2-Fußabdruck und andere Auswirkungen von generativer KI zu verringern.

Die allgemeine Begeisterung über die potenziellen Vorteile generativer KI – von der Verbesserung der Arbeitsproduktivität bis hin zur Förderung der wissenschaftlichen Forschung – ist kaum zu übersehen. Während das explosive Wachstum dieser neuen Technologie den schnellen Einsatz leistungsfähiger Modelle in vielen Branchen ermöglicht hat, sind allerdings die ökologischen Folgen dieses generativen KI-„Goldrauschs“ nach wie vor schwer einzugrenzen, geschweige denn abzumildern.

Die Rechenleistung, die zum Trainieren generativer KI-Modelle mit oft Milliarden von Parametern, wie z. B. GPT-4 von OpenAI, erforderlich ist, kann eine schwindelerregende Menge an Strom verbrauchen. Dies führt zu einem Anstieg der Kohlendioxidemissionen und der Belastung des Stromnetzes. Hinzu kommt der Einsatz dieser Modelle in realen Anwendungen. Schon jetzt ist es Millionen von Menschen möglich, generative KI in ihrem täglichen Leben zu nutzen. Diese praktische Bereitstellung und die anschließende Feinabstimmung der Modelle zur Verbesserung ihrer Leistung verbraucht ebenfalls große Mengen an Energie, lange nachdem ein Modell entwickelt worden ist.

In Rechenzentren kommt aufgrund dieses gesteigerten Bedarfs mittlerweile auch mehr Wasserkühlung als herkömmliche Lüfterkühlung zum Einsatz. Die Kühlung der Hardware, die für das Training, den Einsatz und die Feinabstimmung der generativen KI-Modelle verwendet wird, belastet die kommunale Wasserversorgung zusätzlich und kann dadurch lokale Ökosysteme stören. Hinzu kommt, dass die zunehmende Zahl generativer KI-Anwendungen auch die Nachfrage nach Hochleistungs-Computerhardware angekurbelt hat. Deren Herstellung und Transport verursacht zusätzliche indirekte Umweltauswirkungen.

„Wenn wir über die Umweltauswirkungen der generativen KI nachdenken, geht es nicht nur um den Strom, den man verbraucht, wenn man den Computer anschließt. Es gibt viel weitreichendere Konsequenzen, die sich auf die Systemebene erstrecken und auf der Grundlage unserer Handlungen fortbestehen“, sagt Elsa A. Olivetti, Professorin in der Abteilung für Materialwissenschaften und Ingenieurwesen und Leiterin der Dekarbonisierungsmission des neuen Klimaprojekts des MIT.

Olivetti ist Hauptautorin eines 2024 veröffentlichten Papiers mit dem Titel „The Climate and Sustainability Implications of Generative AI“, das von Forschenden des MIT im Rahmen eines institutsweiten Aufrufs zur Einreichung von Papieren verfasst wurde, die das transformative Potenzial der generativen KI sowohl in positiver als auch in negativer Hinsicht für die Gesellschaft untersuchen.

Fordernde Rechenzentren

Der Strombedarf von Rechenzentren ist ein wichtiger Faktor, der zu den Umweltauswirkungen der generativen KI beiträgt. Diese Rechenzentren werden zum Trainieren und Ausführen der Deep-Learning-Modelle hinter beliebten Tools wie ChatGPT und DALL-E verwendet.

Ein Rechenzentrum ist ein temperaturgeregeltes Gebäude, in dem die Computerinfrastruktur untergebracht ist. Dies umfasst unter anderem Server, Datenspeicherlaufwerke und Netzwerkausrüstung. Amazon verfügt beispielsweise über mehr als 100 Rechenzentren auf der ganzen Welt, von denen jedes etwa 50.000 Server beherbergt, die das Unternehmen zur Unterstützung von Cloud-Computing-Diensten nutzt.

Rechenzentren gibt es zwar schon seit den 1940er-Jahren (das erste wurde 1945 an der Universität von Pennsylvania gebaut, um den ersten digitalen Allzweckcomputer, den ENIAC, zu unterstützen). Doch mit dem Aufkommen der generativen KI hat sich das Tempo beim Bau von Rechenzentren dramatisch erhöht.

„Das Besondere an der generativen KI ist die Leistungsdichte, die sie erfordert. Im Grunde handelt es sich um reine Rechenleistung, aber ein generativer KI-Trainingscluster kann sieben- bis achtmal mehr Energie verbrauchen als eine typische Rechenleistung“, sagt Noman Bashir, Hauptautor des Impact Papers, der Computing and Climate Impact Fellow am MIT Climate and Sustainability Consortium (MCSC) und Postdoc im Computer Science and Artificial Intelligence Laboratory (CSAIL) ist.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Wissenschaftler haben geschätzt, dass der Strombedarf von Rechenzentren in Nordamerika von 2.688 Megawatt Ende 2022 auf 5.341 Megawatt Ende 2023 gestiegen ist, was teilweise auf die Anforderungen der generativen KI zurückzuführen ist. Weltweit stieg der Stromverbrauch von Rechenzentren auf 460 Terawatt im Jahr 2022. Damit wären Rechenzentren laut der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung der elftgrößte Stromverbraucher der Welt gewesen, zwischen Saudi-Arabien (371 Terawatt) und Frankreich (463 Terawatt).

Bis 2026 wird erwartet, dass der Stromverbrauch von Rechenzentren auf 1.050 Terawatt ansteigt (was die Rechenzentren auf den fünften Platz der weltweiten Liste bringen würde, zwischen Japan und Russland). Auch wenn nicht alle Berechnungen in Rechenzentren mit generativer KI verbunden sind, so ist diese Technologie doch ein wichtiger Treiber für den steigenden Energiebedarf.

„Die Nachfrage nach neuen Rechenzentren kann nicht auf nachhaltige Weise gedeckt werden. Das Tempo, in dem die Unternehmen neue Rechenzentren bauen, bedeutet, dass der Großteil des Stroms für deren Betrieb aus Kraftwerken mit fossilen Brennstoffen stammen muss“, sagt Bashir.

Der Energiebedarf für das Training und die Bereitstellung eines Modells wie OpenAIs GPT-3 ist schwer zu ermitteln. In einem Forschungspapier aus dem Jahr 2021 schätzten Wissenschaftler von Google und der University of California in Berkeley, dass allein der Trainingsprozess 1.287 Megawattstunden Strom verbraucht (genug, um etwa 120 durchschnittliche US-Haushalte ein Jahr lang zu versorgen) und etwa 552 Tonnen Kohlendioxid erzeugt.

Zwar müssen alle Machine-Learning-Modelle trainiert werden, aber ein Problem, das nur bei generativer KI auftritt, sind die schnellen Schwankungen im Energieverbrauch, die in den verschiedenen Phasen des Trainingsprozesses auftreten, erklärt Bashir. Die Betreiber von Stromnetzen müssen eine Möglichkeit haben, diese Schwankungen aufzufangen, um das Netz zu schützen, und sie setzen für diese Aufgabe in der Regel Dieselgeneratoren ein.

Die steigenden Umweltauswirkungen durch KI-Inferenz

Sobald ein generatives KI-Modell trainiert ist, verschwindet der Energiebedarf nicht mehr. Jedes Mal, wenn ein Modell verwendet wird, verbraucht die Computerhardware, die diese Vorgänge durchführt, Energie – etwa wenn jemand ChatGPT bittet, eine E-Mail zusammenzufassen. Die Forscher haben geschätzt, dass eine solche ChatGPT-Abfrage etwa fünfmal mehr Strom verbraucht als eine einfache Websuche.

„Aber ein normaler Benutzer denkt darüber nicht allzu viel nach“, sagt Bashir. „Die Benutzerfreundlichkeit generativer KI-Schnittstellen und der Mangel an Informationen über die Umweltauswirkungen meines Handelns bedeuten, dass ich als Nutzer keinen großen Anreiz habe, meine Nutzung generativer KI einzuschränken.“

Bei herkömmlicher KI wird der Energieverbrauch ziemlich gleichmäßig zwischen Datenverarbeitung, Modelltraining und Inferenz aufgeteilt. Inferenz bezeichnet den Prozess, bei dem ein trainiertes Modell verwendet wird, um Vorhersagen für neue Daten zu treffen. Bashir geht jedoch davon aus, dass der Strombedarf der generativen KI-Inferenz letztendlich dominieren wird, da diese Modelle in so vielen Anwendungen allgegenwärtig sind. Der für die Inferenz benötigte Strom werde demnach in dem Maße zunehmen, wie zukünftige Versionen der Modelle größer und komplexer werden.

Hinzu kommt, dass generative KI-Modelle eine besonders kurze Lebensdauer haben, die durch die steigende Nachfrage nach neuen KI-Anwendungen bedingt ist. Unternehmen bringen alle paar Wochen neue Modelle heraus. Der rasche Umstieg auf neue Modelle führt mit sich, dass die Energie, die für das Training früherer Versionen verwendet wurde, effektiv verloren ist, fügt Bashir hinzu. Diese neuen Modelle verbrauchen dabei oft mehr Energie für das Training, da sie in der Regel mehr Parameter haben als ihre Vorgänger.

Während der Strombedarf von Rechenzentren in der Forschungsliteratur vielleicht die meiste Aufmerksamkeit erhält, hat auch der Wasserverbrauch dieser Einrichtungen Auswirkungen auf die Umwelt. Gekühltes Wasser wird zur Kühlung eines Rechenzentrums verwendet, indem es die Wärme der Computerausrüstung aufnimmt. Man schätzt, dass für jede Kilowattstunde Energie, die ein Rechenzentrum verbraucht, zwei Liter Wasser zur Kühlung benötigt werden, sagt Bashir.

„Nur weil das Ganze ,Cloud Computing' genannt wird, bedeutet das nicht, dass die Hardware in der Cloud lebt. Rechenzentren sind in unserer physischen Welt präsent, und aufgrund ihres Wasserverbrauchs haben sie direkte und indirekte Auswirkungen auf die biologische Vielfalt“, sagt er. Die Computerhardware in den Rechenzentren hat ihre eigenen, weniger direkten Umweltauswirkungen.

Es ist zwar schwer abzuschätzen, wie viel Energie für die Herstellung eines Grafikprozessors (GPU) benötigt wird, der zur Bewältigung intensiver generativer KI-Arbeitslasten eingesetzt wird. Es ist aber generell davon auszugehen, dass dies mehr ist als für die Herstellung einer einfacheren CPU, da alleine schon der Herstellungsprozess komplexer ist. Der CO2-Fußabdruck eines Grafikprozessors wird durch die Emissionen im Zusammenhang mit dem Material- und Produkttransport noch verstärkt.

Das Marktforschungsunternehmen TechInsights schätzt, dass die drei großen Hersteller (NVIDIA, AMD und Intel) im Jahr 2023 ca. 3,85 Millionen Grafikprozessoren an Rechenzentren geliefert haben. 2022 waren es noch etwa 2,67 Millionen. Die Analysten gehen davon aus, dass diese Zahl für das Jahr 2024 um einen noch größeren Prozentsatz gestiegen ist.

Die Branche befindet sich auf einem nicht nachhaltigen Weg. Es gebe allerdings Möglichkeiten, eine verantwortungsvolle Entwicklung von generativer KI zu fördern, die ökologische Ziele unterstützt, so Bashir. Wie er, Olivetti und die übrigen an der Studie beteiligten MIT-Forscher argumentieren, erfordere dies aber eine umfassende Betrachtung aller ökologischen und gesellschaftlichen Kosten der generativen KI sowie eine detaillierte Bewertung des wahrgenommenen Nutzens.

„Wir brauchen eine kontextbezogene Methode, um die Auswirkungen neuer Entwicklungen in diesem Bereich systematisch und umfassend zu verstehen. Aufgrund der Geschwindigkeit, mit der sich die Verbesserungen vollzogen haben, hatten wir noch keine Gelegenheit, unsere Fähigkeiten zur Messung und zum Verständnis der Kompromisse aufzuholen“, sagt Olivetti.

Originalveröffentlichung auf MIT News vom 17. Januar 2024. Übersetzung aus dem Englischen von Sebastian Gerstl.

Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.

(ID:50306818)