Die rasche Entwicklung und der Einsatz leistungsstarker generativer KI-Modelle hat Folgen für die Umwelt. Dazu zählen ein wesentlich erhöhter Strom- und Wasserverbrauch.
Kann Generative KI nachhaltig sein? Denn sowohl Training als auch Inferenz von KI-Modellen haben aufgrund ihres gesteigerten Bedarfs an Rechenleistung und dem damit verbundenem Energie- und Kühlungsbedarf direkte Auswirkungen auf die Umwelt. Eine Studie des MIT hat erarbeitet, wie spürbar diese Auswirkungen sind.
In einer zweiteiligen Serie geht MIT News den ökologischen Auswirkungen der generativen KI näher nach. In diesem Artikel wird die Frage erläutert, was diese Technologie so ressourcenintensiv macht, und wie sich dies auf die Umwelt messbar auswirkt. In einem zweiten Teil soll untersucht werden, was Experten tun, um den CO2-Fußabdruck und andere Auswirkungen von generativer KI zu verringern.
Die allgemeine Begeisterung über die potenziellen Vorteile generativer KI – von der Verbesserung der Arbeitsproduktivität bis hin zur Förderung der wissenschaftlichen Forschung – ist kaum zu übersehen. Während das explosive Wachstum dieser neuen Technologie den schnellen Einsatz leistungsfähiger Modelle in vielen Branchen ermöglicht hat, sind allerdings die ökologischen Folgen dieses generativen KI-„Goldrauschs“ nach wie vor schwer einzugrenzen, geschweige denn abzumildern.
Die Rechenleistung, die zum Trainieren generativer KI-Modelle mit oft Milliarden von Parametern, wie z. B. GPT-4 von OpenAI, erforderlich ist, kann eine schwindelerregende Menge an Strom verbrauchen. Dies führt zu einem Anstieg der Kohlendioxidemissionen und der Belastung des Stromnetzes. Hinzu kommt der Einsatz dieser Modelle in realen Anwendungen. Schon jetzt ist es Millionen von Menschen möglich, generative KI in ihrem täglichen Leben zu nutzen. Diese praktische Bereitstellung und die anschließende Feinabstimmung der Modelle zur Verbesserung ihrer Leistung verbraucht ebenfalls große Mengen an Energie, lange nachdem ein Modell entwickelt worden ist.
In Rechenzentren kommt aufgrund dieses gesteigerten Bedarfs mittlerweile auch mehr Wasserkühlung als herkömmliche Lüfterkühlung zum Einsatz. Die Kühlung der Hardware, die für das Training, den Einsatz und die Feinabstimmung der generativen KI-Modelle verwendet wird, belastet die kommunale Wasserversorgung zusätzlich und kann dadurch lokale Ökosysteme stören. Hinzu kommt, dass die zunehmende Zahl generativer KI-Anwendungen auch die Nachfrage nach Hochleistungs-Computerhardware angekurbelt hat. Deren Herstellung und Transport verursacht zusätzliche indirekte Umweltauswirkungen.
„Wenn wir über die Umweltauswirkungen der generativen KI nachdenken, geht es nicht nur um den Strom, den man verbraucht, wenn man den Computer anschließt. Es gibt viel weitreichendere Konsequenzen, die sich auf die Systemebene erstrecken und auf der Grundlage unserer Handlungen fortbestehen“, sagt Elsa A. Olivetti, Professorin in der Abteilung für Materialwissenschaften und Ingenieurwesen und Leiterin der Dekarbonisierungsmission des neuen Klimaprojekts des MIT.
Olivetti ist Hauptautorin eines 2024 veröffentlichten Papiers mit dem Titel „The Climate and Sustainability Implications of Generative AI“, das von Forschenden des MIT im Rahmen eines institutsweiten Aufrufs zur Einreichung von Papieren verfasst wurde, die das transformative Potenzial der generativen KI sowohl in positiver als auch in negativer Hinsicht für die Gesellschaft untersuchen.
Fordernde Rechenzentren
Der Strombedarf von Rechenzentren ist ein wichtiger Faktor, der zu den Umweltauswirkungen der generativen KI beiträgt. Diese Rechenzentren werden zum Trainieren und Ausführen der Deep-Learning-Modelle hinter beliebten Tools wie ChatGPT und DALL-E verwendet.
Ein Rechenzentrum ist ein temperaturgeregeltes Gebäude, in dem die Computerinfrastruktur untergebracht ist. Dies umfasst unter anderem Server, Datenspeicherlaufwerke und Netzwerkausrüstung. Amazon verfügt beispielsweise über mehr als 100 Rechenzentren auf der ganzen Welt, von denen jedes etwa 50.000 Server beherbergt, die das Unternehmen zur Unterstützung von Cloud-Computing-Diensten nutzt.
Rechenzentren gibt es zwar schon seit den 1940er-Jahren (das erste wurde 1945 an der Universität von Pennsylvania gebaut, um den ersten digitalen Allzweckcomputer, den ENIAC, zu unterstützen). Doch mit dem Aufkommen der generativen KI hat sich das Tempo beim Bau von Rechenzentren dramatisch erhöht.
„Das Besondere an der generativen KI ist die Leistungsdichte, die sie erfordert. Im Grunde handelt es sich um reine Rechenleistung, aber ein generativer KI-Trainingscluster kann sieben- bis achtmal mehr Energie verbrauchen als eine typische Rechenleistung“, sagt Noman Bashir, Hauptautor des Impact Papers, der Computing and Climate Impact Fellow am MIT Climate and Sustainability Consortium (MCSC) und Postdoc im Computer Science and Artificial Intelligence Laboratory (CSAIL) ist.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Wissenschaftler haben geschätzt, dass der Strombedarf von Rechenzentren in Nordamerika von 2.688 Megawatt Ende 2022 auf 5.341 Megawatt Ende 2023 gestiegen ist, was teilweise auf die Anforderungen der generativen KI zurückzuführen ist. Weltweit stieg der Stromverbrauch von Rechenzentren auf 460 Terawatt im Jahr 2022. Damit wären Rechenzentren laut der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung der elftgrößte Stromverbraucher der Welt gewesen, zwischen Saudi-Arabien (371 Terawatt) und Frankreich (463 Terawatt).
Bis 2026 wird erwartet, dass der Stromverbrauch von Rechenzentren auf 1.050 Terawatt ansteigt (was die Rechenzentren auf den fünften Platz der weltweiten Liste bringen würde, zwischen Japan und Russland). Auch wenn nicht alle Berechnungen in Rechenzentren mit generativer KI verbunden sind, so ist diese Technologie doch ein wichtiger Treiber für den steigenden Energiebedarf.
„Die Nachfrage nach neuen Rechenzentren kann nicht auf nachhaltige Weise gedeckt werden. Das Tempo, in dem die Unternehmen neue Rechenzentren bauen, bedeutet, dass der Großteil des Stroms für deren Betrieb aus Kraftwerken mit fossilen Brennstoffen stammen muss“, sagt Bashir.
Der Energiebedarf für das Training und die Bereitstellung eines Modells wie OpenAIs GPT-3 ist schwer zu ermitteln. In einem Forschungspapier aus dem Jahr 2021 schätzten Wissenschaftler von Google und der University of California in Berkeley, dass allein der Trainingsprozess 1.287 Megawattstunden Strom verbraucht (genug, um etwa 120 durchschnittliche US-Haushalte ein Jahr lang zu versorgen) und etwa 552 Tonnen Kohlendioxid erzeugt.
Zwar müssen alle Machine-Learning-Modelle trainiert werden, aber ein Problem, das nur bei generativer KI auftritt, sind die schnellen Schwankungen im Energieverbrauch, die in den verschiedenen Phasen des Trainingsprozesses auftreten, erklärt Bashir. Die Betreiber von Stromnetzen müssen eine Möglichkeit haben, diese Schwankungen aufzufangen, um das Netz zu schützen, und sie setzen für diese Aufgabe in der Regel Dieselgeneratoren ein.
Die steigenden Umweltauswirkungen durch KI-Inferenz
Sobald ein generatives KI-Modell trainiert ist, verschwindet der Energiebedarf nicht mehr. Jedes Mal, wenn ein Modell verwendet wird, verbraucht die Computerhardware, die diese Vorgänge durchführt, Energie – etwa wenn jemand ChatGPT bittet, eine E-Mail zusammenzufassen. Die Forscher haben geschätzt, dass eine solche ChatGPT-Abfrage etwa fünfmal mehr Strom verbraucht als eine einfache Websuche.
„Aber ein normaler Benutzer denkt darüber nicht allzu viel nach“, sagt Bashir. „Die Benutzerfreundlichkeit generativer KI-Schnittstellen und der Mangel an Informationen über die Umweltauswirkungen meines Handelns bedeuten, dass ich als Nutzer keinen großen Anreiz habe, meine Nutzung generativer KI einzuschränken.“
Bei herkömmlicher KI wird der Energieverbrauch ziemlich gleichmäßig zwischen Datenverarbeitung, Modelltraining und Inferenz aufgeteilt. Inferenz bezeichnet den Prozess, bei dem ein trainiertes Modell verwendet wird, um Vorhersagen für neue Daten zu treffen. Bashir geht jedoch davon aus, dass der Strombedarf der generativen KI-Inferenz letztendlich dominieren wird, da diese Modelle in so vielen Anwendungen allgegenwärtig sind. Der für die Inferenz benötigte Strom werde demnach in dem Maße zunehmen, wie zukünftige Versionen der Modelle größer und komplexer werden.
Hinzu kommt, dass generative KI-Modelle eine besonders kurze Lebensdauer haben, die durch die steigende Nachfrage nach neuen KI-Anwendungen bedingt ist. Unternehmen bringen alle paar Wochen neue Modelle heraus. Der rasche Umstieg auf neue Modelle führt mit sich, dass die Energie, die für das Training früherer Versionen verwendet wurde, effektiv verloren ist, fügt Bashir hinzu. Diese neuen Modelle verbrauchen dabei oft mehr Energie für das Training, da sie in der Regel mehr Parameter haben als ihre Vorgänger.
Während der Strombedarf von Rechenzentren in der Forschungsliteratur vielleicht die meiste Aufmerksamkeit erhält, hat auch der Wasserverbrauch dieser Einrichtungen Auswirkungen auf die Umwelt. Gekühltes Wasser wird zur Kühlung eines Rechenzentrums verwendet, indem es die Wärme der Computerausrüstung aufnimmt. Man schätzt, dass für jede Kilowattstunde Energie, die ein Rechenzentrum verbraucht, zwei Liter Wasser zur Kühlung benötigt werden, sagt Bashir.
„Nur weil das Ganze ,Cloud Computing' genannt wird, bedeutet das nicht, dass die Hardware in der Cloud lebt. Rechenzentren sind in unserer physischen Welt präsent, und aufgrund ihres Wasserverbrauchs haben sie direkte und indirekte Auswirkungen auf die biologische Vielfalt“, sagt er. Die Computerhardware in den Rechenzentren hat ihre eigenen, weniger direkten Umweltauswirkungen.
Es ist zwar schwer abzuschätzen, wie viel Energie für die Herstellung eines Grafikprozessors (GPU) benötigt wird, der zur Bewältigung intensiver generativer KI-Arbeitslasten eingesetzt wird. Es ist aber generell davon auszugehen, dass dies mehr ist als für die Herstellung einer einfacheren CPU, da alleine schon der Herstellungsprozess komplexer ist. Der CO2-Fußabdruck eines Grafikprozessors wird durch die Emissionen im Zusammenhang mit dem Material- und Produkttransport noch verstärkt.
Das Marktforschungsunternehmen TechInsights schätzt, dass die drei großen Hersteller (NVIDIA, AMD und Intel) im Jahr 2023 ca. 3,85 Millionen Grafikprozessoren an Rechenzentren geliefert haben. 2022 waren es noch etwa 2,67 Millionen. Die Analysten gehen davon aus, dass diese Zahl für das Jahr 2024 um einen noch größeren Prozentsatz gestiegen ist.
Die Branche befindet sich auf einem nicht nachhaltigen Weg. Es gebe allerdings Möglichkeiten, eine verantwortungsvolle Entwicklung von generativer KI zu fördern, die ökologische Ziele unterstützt, so Bashir. Wie er, Olivetti und die übrigen an der Studie beteiligten MIT-Forscher argumentieren, erfordere dies aber eine umfassende Betrachtung aller ökologischen und gesellschaftlichen Kosten der generativen KI sowie eine detaillierte Bewertung des wahrgenommenen Nutzens.
„Wir brauchen eine kontextbezogene Methode, um die Auswirkungen neuer Entwicklungen in diesem Bereich systematisch und umfassend zu verstehen. Aufgrund der Geschwindigkeit, mit der sich die Verbesserungen vollzogen haben, hatten wir noch keine Gelegenheit, unsere Fähigkeiten zur Messung und zum Verständnis der Kompromisse aufzuholen“, sagt Olivetti.
Originalveröffentlichung auf MIT News vom 17. Januar 2024. Übersetzung aus dem Englischen von Sebastian Gerstl.
Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.