Company Topimage

08.09.2021

Nachhaltigkeit ist keine Science-Fiction

Heute vor 55 Jahren, am 8. September 1966, brach ein Raumschiff in Galaxien vor, die nie ein Mensch zuvor gesehen hatte. Technologie ist in den Erzählungen um die Enterprise nie Selbstzweck – und auch keine Wunderwaffe, die CO2-Emissionen eliminiert. Aber sie kann helfen, den Einfluss menschlicher Aktivitäten auf die Umwelt zu verringern.

Seit besagtes Raumschiff unter der Leitung eines gewissen James Tiberius Kirk aufbrach, um fremde Galaxien, neues Leben und neue Zivilisationen zu erforschen, haben unter anderem schnurlose Kommunikatoren, tragbare PADDs und Sprachsteuerung den Sprung in die Realität geschafft. Trotz aller visionärer Erfindungen: Technologie war in den Erzählungen um die Enterprise nie Selbstzweck, sondern eingebettet in eine größere Story mit philosophischer Dimension.

Technologie ist auch keine Wunderwaffe, die aktuelle Probleme dieses Planeten aus der Welt „beamt“ und Treibhausgasemissionen eliminiert. Aber durch den innovativen Einsatz von Cloud Computing, Datenwissenschaft, künstlicher Intelligenz und maschinellem Lernen sowie Tools zum ortsungebundenen Arbeiten lässt sich der Einfluss menschlicher Aktivitäten auf die Umwelt verringern. Viele Unternehmen können so nicht nur ihren CO2-Ausstoß reduzieren, sondern auch einen besseren Überblick darüber bekommen, wo sie noch Nachholbedarf haben.

Cloud-Technologien sind bei diesen Überlegungen eine feste Größe. Dass Unternehmen durch die Verkleinerung der Rechenzentren ihre CO2-Emissionen verringern können, spielt seit dem Aufkommen der Virtualisierung eine Rolle. Durch die Einführung von Cloud-fähigen Technologien können sie nun auch ihre Prozesse optimieren, statt nur ihre Dienste in einem herkömmlichen Rechenzentrum zu zentralisieren. Anders ausgedrückt: Die Reduzierung der CO2-Emissionen wird auch durch die Umstellung auf Cloud-native Architekturen begünstigt.

Wie, nicht wo: Der Cloud-native Ansatz

Beim Cloud-nativen Ansatz geht es um die Frage, wie Anwendungen erstellt und bereitgestellt werden, nicht wo. Eine solche Architektur ermöglicht es, dass Anwendungen dynamisch in einer Umgebung der Wahl (wie öffentlichen, privaten und hybriden Clouds) laufen – und nutzt so die Vorteile des Cloud-Computing-Modells voll aus.

So entstehen täglich neue Cloud-basierte Geschäftsmodelle und Anwendungen, die gleichzeitig innovativ und nachhaltig sind. Man denke nur an mobiles Bezahlen, den Emissionshandel oder Non-Profit-Organisationen wie „Plant-a-Tree“.

Zentralisieren, um zu optimieren

Die Zentralisierung von Systemen führt zur Optimierung, und die Optimierung führt zu einer geringeren Abhängigkeit von bestehenden Infrastrukturen.

Durch die Zentralisierung von Anwendungen und Diensten mithilfe der Wolke werden nur wenige, unbedingt erforderliche Rechenzentren (mit Failover-Standorten zur Notfallwiederherstellung) angelegt. Dies weist jeder Instanz Verarbeitungsleistung nur bei Bedarf zu, fördert die Skalierbarkeit und senkt die Emissionen drastisch.

Intelligente, innovative Entwicklung

Von ihrer Art her werden Cloud-native Anwendungen und Dienste unterschiedlich entwickelt und sind auf neue Technologien angewiesen. Die meisten dieser Anwendungen werden auf Kubernetes oder Docker containerisiert. Container sind die ideale Technologie, um ereignisgesteuerte Microservices bereitzustellen und zu betreiben, die eine Publish-and-Subscribe-Kommunikation lose gekoppelter und unabhängiger kleiner Dienste ermöglichen.

Microservices wiederum sind die bevorzugte Anwendungsarchitektur für eine moderne Unternehmensarchitektur. Da sie weiterhin REST-Aufrufe an andere Mikrodienste tätigen, müssen sie auf Ereignisse reagieren und diese aussenden. In ereignisorientierter Hinsicht müssen sie sowohl Produzent als auch Verbraucher sein, um eine starke Entkopplung zu erzwingen.

Im Allgemeinen werden diese Anwendungen beziehungsweise Dienste in einer serverlosen Computer-Umgebung ausgeführt, die oft als FaaS (function-as-a-service) bezeichnet wird. Bei diesem Modell erfolgt die Abrechnung nur auf Grundlage der Zeit, die der Dienst verbraucht. Da viele dieser Dienste nicht kontinuierlich ausgeführt werden, kann ein Anbieter die Zuweisung von Ressourcen dynamisch verwalten, was wiederum Verzögerungen reduziert.

Und dann sind da noch die aufkommenden Edge-Cloud-Computing-Architekturen. Bei ihnen wird ein Teil der für die Ausführung von Anwendungen erforderlichen Rechenleistung an den Netzwerkrand, auf den physischen Client oder das Endgerät verlagert.

Letzteres wird oft als „Intelligent Edge“ bezeichnet und beschreibt intuitivere IoT-Geräte, die Aufgaben wie die Ausführung eines Maschinenlernmodells, die Durchführung von Aggregationen oder die Vorverarbeitung übernehmen können.

In Kombination bilden diese Millionen an IoT-Geräten, die den „Intelligent Edge“ ausmachen, ein umfangreiches, intelligentes Netzwerk, das Aufgaben ausführen kann, die üblicherweise nur in riesigen Rechenzentren möglich sind. Dadurch nimmt die schiere Anzahl der Rechenzentren ab, und damit auch das für ihre Versorgung benötigte CO2.

Daten und Analytik, Wissen und Macht

All dies ist jedoch irrelevant, wenn man die tatsächlichen Auswirkungen nicht visualisieren und veranschaulichen kann – und genau hier kommen Daten und Analytik ins Spiel. Zu erkennen, wie viel CO2 ein Unternehmen verursacht, ist Wissen – aber eine granulare Sicht darauf zu schaffen, wo es verursacht wird, wie viel Energie verschwendet wird und wo sich der Einsatz optimieren lässt, ist wahre Macht.

Einige Anbieter sind inzwischen über die Erstellung von Überwachungs-Dashboards hinausgegangen, mit denen Unternehmen vor allem ihr Gewissen beruhigen können. Heutzutage gibt es vollständige datenwissenschaftliche Plattformen, die große Mengen an historischen und Echtzeit-Daten aufnehmen.

Sie sind in der Lage, in Echtzeit Modelle für maschinelles Lernen und künstliche Intelligenz auf diesen Daten auszuführen und so, auf Grundlage der vordefinierten Modelle, ihren Kunden eine quantifizierbare Ansicht mit Optionen und Vorschlägen anzubieten. Die Unternehmen können dann bestimmen, wo sich ihr CO2-Fußabdruck reduzieren lässt.

Die Anwendungsmöglichkeiten sind endlos. So bekommt beispielsweise ein Kraftwerk anhand der Daten einen Überblick darüber, wie es den Energieverbrauch optimieren kann. Oder ein intelligentes Gebäude erhält einen ereignisgesteuerten Auslöser, der bestimmen hilft, wann eine Klimaanlage ein- oder ausgeschaltet werden sollte.

Zwar tragen Entwicklung und Training der wissenschaftlich fundierten Datenmodelle, die diese Ereignisse ermitteln und steuern, anfänglich zu den CO2-Emissionen bei – aber zum einen finden die Trainings nicht häufig statt und vor allem hebt zum anderen die Gesamtbilanz dies unter dem Strich auf.

Bei der CO2-Einsparung sind mehrere Aspekte zu berücksichtigen. Da ist zum einen die Entwicklung der Applikationen in Richtung „Cloud-nativ“, die immer mehr Gebrauch von entsprechenden Funktionen machen. Stichwort Skalierbarkeit: Applikationen werden nicht mehr nach Spitzenlast ausgelegt und haben damit über weite Strecken eine niedrige Auslastung. Sie skalieren auf Basis der Anforderungen – und im Falle von Serverless-Computing wird die Anwendung sogar erst gestartet, wenn es eine Anfrage gibt.

Zum anderen kann man die Ressourcen umso besser verteilen, je mehr Anwender ein Rechenzentrum nutzen. Das hat damit zu tun, dass sich Lastprofile von vielen Anwendern tendenziell ausmitteln und sich damit die Auslastung der Hardware verbessert. Ein großes Rechenzentrum braucht damit im Schnitt weniger Ressourcen als zwei kleine.

Darüber hinaus geht man in den großen Rechenzentren der Hyperscaler effizienter mit Ressourcen wie Energie um, da jede eingesparte Kilowattstunde sofort Auswirkung auf den Gewinn der Unternehmen hat.

Intelligent optimieren: Über die Technologie hinaus

Zusammengefasst lässt sich also festhalten: Der Schlüssel, um wirklich Treibhausgasemissionen senken und nachhaltiger agieren zu können, liegt darin, als Unternehmen smarter zu agieren und die Optimierung in allen Bereichen voranzutreiben. Wenn man Fahrzeugen, Schiffen, Gebäuden, Kraftwerken und sogar Städten hilft, intelligenter zu werden, dann geschieht dies nicht zum Selbstzweck. Vielmehr geht es darum, dass daraus dann echte Optimierungen entstehen, die Vorteile für unsere Welt haben – und beispielsweise helfen, den CO2-Ausstoß zu verringern.

Die Technologie dazu ist alles andere als Science-Fiction, die Daten dazu gibt es ebenfalls bereits. Jetzt gilt es, sie zu nutzen. Man muss sich ja nicht gleich die Ziele der Enterprise-Saga setzen. Dort findet 2063 – also in genau 42 (!) Jahren – der erste überlichtschnelle Flug durchs All statt...

 

Autoren: Ulrich Hatzinger (Manager Technical Solutions Consultants – Central Europe), und Alessandro Chimera (Director Digitalisation Strategy), TIBCO Software