Nachbericht AWS Summit EMEA AWS für Analytics – vom Speicherplatz zur Serverless-Architektur

Autor / Redakteur: Karin Johanna Quack / Nico Litzel

Anwenderkonferenz im Zeichen der Covid-19-Pandemie: Amazon Web Services lud in diesem Jahr zum virtuellen „AWS Summit EMEA“ – ohne Lightshow und Musik und ohne Marketing-Geschrei. Die Botschaft lautete: Die Cloud lohnt sich umso mehr, wenn man nicht nur die Infrastruktur, sondern auch die Services des Anbieters in Anspruch nimmt.

Anbieter zum Thema

Die Anwenderkonferenz „AWS Summit EMEA“ fand, angesichts der Covid-19-Pandemie, diesmal virtuell statt.
Die Anwenderkonferenz „AWS Summit EMEA“ fand, angesichts der Covid-19-Pandemie, diesmal virtuell statt.
(Bild: AWS)

Werner Vogels, Chief Technology Officer und Vizepräsident von Amazon.com
Werner Vogels, Chief Technology Officer und Vizepräsident von Amazon.com
(Bild: Amazon.com)

„Back to the Basics“ – unter diesem Motto stand der Keynote-Vortrag, den Chief Technology Officer Werner Vogels aus seinem Home-Office sendete. Der Tenor: Wenn Sie ein Haus bauen wollen, brauchen Sie erst mal ein solides Fundament. Das klingt jetzt vielleicht wenig aufregend, gewinnt aber durch die derzeitige Wirtschaftslage neue Aktualität.

Die IDC-Analystin Carla Arend hat sich intensiv mit den wirtschaftlichen Bedingungen der Cloud-Nutzung auseinandergesetzt – auch und gerade unter den Vorzeichen der Krise. „Unsere Kunden sehen die Cloud einerseits als Teil der Lösung“, sagt sie, „zum Beispiel wegen der Flexibilität, die sie ermöglicht.“

Carla Arend, Senior Program Director bei IDC
Carla Arend, Senior Program Director bei IDC
(Bild: IDC)

Andererseits wollten die Unternehmen aber gerade jetzt die Kosten optimieren: „Und wenn man zu schnell in die Cloud will, sich also vorher nicht um Basics wie Load Balancer und Connectivity bemüht, können die Kosten aus dem Ruder laufen. Dann ist die Cloud unter Umständen teurer als das, was man on premise machen kann.“

Das Fazit der Analystin lautet: „Es reicht nicht, Anwendungen aus dem Rechenzentrum in die Cloud zu verschieben. Man muss verstehen, dass es sich bei der Cloud um eine andere Architektur handelt.“

Viele Entscheidungen werden obsolet

Die tatsächlichen Vorteile der Cloud sind den Befürwortern bekannt: Der Kunde braucht keine Kapazitäten zu buchen, die er nicht benötigt, sondern zahlt nur für das, was er tatsächlich nutzt – und auch nur dann, wenn er es nutzt. Darüber hinaus bieten Cloud Provider heute eine ganze Reihe automatisierter Services an, die das eigene Personal entlasten oder bestimmte Anwendungen für kleinere und mittlere Unternehmen erst möglich machen.

Michael Hanisch, Head of Technology bei AWS in Deutschland
Michael Hanisch, Head of Technology bei AWS in Deutschland
(Bild: AWS)

„Mit Managed Services habe ich die Möglichkeit, viel von meinem operativen Overhead zu reduzieren“, bestätigt Michael Hanisch, Head of Technology bei AWS in Deutschland: „Patches aufspielen, Datenbanken neu starten, schauen, ob der Storage auch morgen noch reichen wird, oder Backups erstellen – das alles wird automatisiert, ohne dass ich etwas dafür tun muss.“ Anstatt beispielsweise Backups bei zehn verschiedenen Servern vorzunehmen, könnten sich die Datenbank-Administratoren darauf konzentrieren, Mehrwert zu generieren, indem sie Schemata verbesserten oder generell an der Modellierung arbeiteten.

Selbstverständlich stehe es dem Kunden frei, einfach seine SQL-Server-Maschine zu nehmen und in der AWS-Cloud zu betreiben, räumt Hanisch ein, „aber dann ändert sich erst mal nichts; man kann da noch ein bisschen automatisieren, aber die Einsparung ist sicher nicht so groß wie wenn ich gleich eine gemanagte Datenbank nehme“.

Jenseits der Container-Technik

Neben dem operationalen Aufwand lasse sich auch der initiale Overhead verringern, führt Hanisch weiter aus. „In der Cloud fällt ein Stück weit der Zwang weg, alles zu standardisieren. Ich muss mir nicht mehr für jeden Anbieter neu überlegen, wie ich die Hardware und den Storage plane, ob die Hardware zertifiziert ist, wer die Patches machen und wie das Backup-Konzept aussehen soll. Heute miete ich mir einfach einen SQL-Server, morgen dann eine Postgres-Datenbank und übermorgen vielleicht einen Key-Value-Store, weil der gerade besser zu meiner Anwendung passt.“

Auf die Frage, wo für AWS die Reise im Datenbankzug denn hingehe, nennt Hanisch spontan den Begriff „Serverless Computing“. Im Fokus stünden derzeit noch kleinere Einheiten – jenseits der bereits etablierten Container-Technik – und eine noch höhere Automatisierung: „Der Anwender soll die gesamte Compute-Leistung abstrahieren und nur in Funktionen denken. Es heißt dann nicht mehr: Ich brauche einen Server, auf dem A, B und C laufen, sondern: Ich brauche A, B und C mit einer bestimmten Verfügbarkeit, einem Mindestdurchsatz und einem definierten Sicherheitsniveau. Wo das dann läuft, ist mir erst mal egal.“

Auf die Analyse-Pipeline übertragen, sieht das so aus: Datenquellen sammeln, Daten „einsaugen“ (ingest), Daten aufbereiten, Zielsystem bestimmen plus die vielen nachgelagerten Prozesse, die aus den Daten nutzbringende Informationen machen – die gesamte Kette lässt sich, so Hanisch, aufbauen, „ohne einen einzigen Server zu verwalten“. Der Kunde müsse eigentlich nur noch die Geschäftslogik selbst entwerfen.

Ganz so einfach ist es vielleicht doch nicht. Gemeinsam mit dem Kunden und eventuell einem Beratungspartner muss sich AWS dann noch auf die Bausteine für die Gesamtarchitektur verständigen. Wie Hanisch betont, „beschäftigt sich Architektur immer auch mit Trade-offs“. Sprich: Wenn der Kunde wisse, was er erreichen will, gebe es immer noch viele verschiedene Möglichkeiten, das umzusetzen. „Manche davon sind mir vielleicht zu teuer, andere nicht schnell oder ausfallsicher genug etc.“ Der Kunde entscheide, welche Bestandteile seine Architektur haben soll und wo er die Prioritäten setzen wolle. AWS sorgt dafür, dass seine Ansprüche dann auch erfüllt werden.

Bei IaaS unterscheiden sich die Anbieter kaum

Die Cloud-Provider werden also immer mehr zu Lösungsanbietern. Das sieht auch die Marktbeobachterin Arend so. „Infrastructure as a Service wird zur Commodity; hier unterscheiden sich die Anbieter nicht groß.“ Die Unterschiede lägen vielmehr im Plattformbereich, zum Beispiel bei den Datenbank- und Developer-Tools. Hier könne der Kunde auch die größte Wertschöpfung erzielen: „Wenn Sie Ihre neuen Anwendungen direkt auf der Cloud-Plattform entwickeln, sparen Sie tatsächlich Kosten.“

Diese Medaille habe allerdings eine weniger schöne Seite, gibt die Analystin zu bedenken: „Da kommt man dann ein bisschen ins Lock-in hinein. Man kann die Anwendungen, die man auf der einen Plattform entwickelt hat, nur schwer auf eine andere übertragen. Aber genau da liegt eben auch die Zukunft.“

Bleibt die naive Frage, warum ein Unternehmen überhaupt mehr als einen Cloud-Anbieter benötigt, beziehungsweise warum ein Anbieterwechsel manchmal sinnvoll ist. „Tatsächlich haben viele Unternehmen mehrere Clouds im Einsatz, ohne dass sie das als Strategie formuliert hätten“, weiß Arend aus Erfahrung: „Das eine Projekt hat diese Cloud gewählt, das andere eine andere, und plötzlich muss man sich überlegen, ob man das so lässt oder ob man konsolidiert.“

Eine Multicloud-Umgebung kann aus Sicht der Analystin aber auch strategische Gründe haben, wenn beispielsweise ein wichtiger Kunde eine bestimmte Cloud bevorzug, der gewählte Anbieter nicht überall präsent ist oder in einer bestimmten Region ein Provider dominiert wie Ali Baba in China. Last, but not least gibt es da noch den Best-of-Breed-Ansatz; manche Anbieter haben auf bestimmten Anwendungsgebieten einen – tatsächlich oder nur angenommen – Vorteil und werden hier auch von den Kunden bevorzugt.

Aufholen beim Analytics-Mindshare

„Für Analytics nehmen die Unternehmen gern noch Google mit ins Boot“, hat Arend festgestellt: „Wenn sie in diesem Bereich etwas radikal anders machen wollten, haben viele von ihnen häufig gedacht, sie müssten zu Google gehen.“

Das kann Hanisch selbstverständlich nicht so stehen lassen. Und er liegt sicher nicht falsch, wenn er darauf verweist, dass Amazon mindestens zwei Jahrzehnte lang Erfahrung mit dem Business-kritischen Betrieb großer Datenbanksysteme für den Mutterkonzern hat. Tatsächlich war die Shopping-Plattform lange Zeit führend, was die Analyse des Kundenverhaltens und die stete Perfektionierung von Cross- und Upselling-Empfehlungen angeht.

Zudem bietet AWS in der Cloud heute einen ganzen Strauß unterschiedlicher Datenhaltungs- und -verarbeitungssysteme an – vom Data-Lake-Tool „Simple Storage Solution“, kurz „S3“, das dem Open-Source-Projekt „Hadoop“ sozusagen den Rang abgelaufen hat, über das SQL-basierende RDBMS „Aurora“ bis zum Data Warehouse „Redshift“, das aus der Non-SQL-Datenbank Postgres hervorgegangen ist. Hanisch beziffert die Zahl der AWS-eigenen Datenbankdienste mit insgesamt 14.

Dass AWS im Analytics-Bereich nun im Kommen sei, konstatiert auch IDC-Analystin Arend: „Google war lange Zeit automatisch gesetzt, wenn es um Analytics ging, weil sie TensorFlow und BigQuery haben und quasi aus diesem Bereich stammen. Mittlerweile hat AWS aber nicht nur den größten Marketshare im Cloud-Markt, vielmehr haben sie auch beim Mindshare aufgeholt. Sie können heute den Kunden ihre Kompetenzen im Analytics-Bereich besser nahebringen.“

CEO stellt Neuentwicklungen vor

Andy Jassy, CEO von Amazon Web Services (AWS)
Andy Jassy, CEO von Amazon Web Services (AWS)
(Bild: AWS)

Chief Executive Officer Andy Jassy ließ es sich zum Abschluss der virtuellen Konferenz denn auch nicht nehmen, einige der jüngsten AWS-Entwicklungen im Analytics-Umfeld persönlich vorzustellen. So beispielweise „Aqua“ (Advanced Query Accelerator), einen Hardware-beschleunigten Cache, der sich als Schicht zwischen den „S3“-Datalake und das „Redshift“-Warehouse legt, um die Datenabfrage erheblich zu beschleunigen. Das Werkzeug soll noch im Laufe dieses Jahres generell verfügbar sein.

Auch im Machine-Learning-Umfeld hat AWS Neues in petto. „Contact Lens for Amazon Connect” ist eine Sammlung von Machine-Learning-Analysefunktionen für die Mitarbeiter von Kundenkontakt-Zentren. Mit ihrer Hilfe sollen sich innerhalb der Amazon-Connect-Konsole die Gespräche und Chats mit Kunden automatisiert auf emotionale Situationen, Trends und Übereinstimmungen untersuchen lassen. Wie AWS verspricht, lässt sich demnächst auch bei Problemen während der Anrufe automatisch der oder die Vorgesetzte benachrichtigen, sodass sie eingreifen kann, bevor die Stimmung kippt.

(ID:46663074)