Amazon Web Services (AWS) unterstützt seine Anwender im Big-Data- und Analyticsbereich mit erhöhter Leistungsfähigkeit, macht den „Amazon ElastiCache“-Dienst „Serverless“ verfügbar und erweitert die Skalierungs-Möglichkeiten mit „Amazon Aurora Limitless“. Neue Versionen des Chips für ML-Training und der ARM-basierten Graviton-CPU sind schneller und verbrauchen weniger Strom. Der Managed Service „Amazon Bedrock“ wird massiv ausgebaut, um Modelle sicherer und individueller angepasst machen zu können. Der neue KI-Assistent „Amazon Q“ ist für die Erstellung von Präsentationen in Amazon QuickSight erweitert worden.
Die Jahreskonferenz AWS re:Invent wurde von mehr als 50.000 Besuchern vor Ort sowie zahlreichen weiteren virtuellen Besuchern beehrt.
(Bild: AWS)
Amazon Web Services (AWS) ist bemüht, seinen Kunden vor allem in ihren Analytik- und KI-Projekten mehr Leistung zur Verfügung zu stellen. Adam Selipsky, der CEO von AWS, stellte zu Beginn zwei neue Chips vor, die zu höherer Leistung verhelfen sollen, dabei aber gleichzeitig weniger Energie verbrauchen. Der Server-Prozessor AWS Graviton4 liefert bis zu 30 Prozent bessere Performance mit 50 Prozent mehr Kernen und 75 Prozent mehr Speicherbandbreite im Vergleich zur bisherigen Graviton3-Generation – auf AWS-Graviton-Prozessoren laufen bereits über 150 AWS-Instanz-Typen. Die neuen EC2-Instanzen für Graviton4 heißen R8g. Selipsky erwähnte in diesem Zusammenhang explizit den deutschen Softwarehersteller SAP. „SAP hat mit Graviton4-Prozessoren ein um 35 Prozent besseres Preis-Leistung-Verhältnis erzielt als mit bisherigen Prozessoren und konnte schon mit der Vorgänger-Generation seinen CO2-Ausstoß um 45 Prozent reduzieren.“
Der zweite Chip ist der Trainum2-Prozessor, der für das Trainieren von ML- und KI-Modellen herangezogen wird. Die zweite Generation liefert bis zu vier Mal mehr Training-Performance als die bisherige Generation. Und man kann bis zu 100.000 solcher Chips in Amazon EC2 UltraClusters miteinander verbinden, um die größten KI Foundation Models darauf zu trainieren. Dabei soll Trainium2 auch noch doppelt so energieeffizient sein wie der Vorgänger. Der bereits im vergangenen Jahr angekündigte Inferentia2-Chip soll ebenfalls vier Mal mehr Datendurchsatz und zehn Mal weniger Latenzzeit bieten. Das soll den Inferenzvorgang bei Machine Learning entsprechend beschleunigen.
UltraClusters-Supercomputer
CEO Adam Selipsky begrüßte den CEO von Nvidia, Jensen Huang, auf der Bühne, um den Chip „Grace Hopper“ und einen gemeinsamen Supercomputer in der Cloud vorzustellen.
(Bild: AWS)
Auf dieser Hardware-Ebene der EC2-UltraClusters kommt auch Nvidia als enger Technologiepartner ins Spiel. Selipsky begrüßte den Nvidia-CEO Jensen Huang auf der Bühne. Der ließ sich nicht die Gelegenheit entgehen, seine neue CPU-GPU „GH200 NVL32 Grace Hopper“ vorzustellen. Mit diesem und dem DGX-Computer wollen Nvidia und AWS den ersten Cloud-Supercomputer namens „Project Ceiba“ bauen, der nicht weniger als 65 Exaflops Rechenleistung liefern soll. Die nötigen EC2-Instanzen heißen P5e und nutzen den AWS Elastic Fabric Adapter (EFA) als Interconnect, um große Trainings-Workloads im Machine Learning besser zu skalieren.
Instanz für In-Memory-Datenbanken
Eine weitere neue EC2-Instanz mit dem Namen U7i soll sehr große In-Memory-Datenbanken, wie sie für Trainingsdaten nötig sind, besser unterstützen. Zu diesen Datenbanken zählen SAP HANA, Oracle und SQL Server. Es gibt drei große, auf Intel Sapphire Rapids basierende Instanzen 16tb, 24tb und 32tb sowie eine kleinere Instanz mit dem Kürzel 12tb. Jeff Barr hat in seinem Blog eine übersichtliche Tabelle eingebaut. Als eine der ersten AWS-Regionen wird auch „Europe (Frankfurt)“ damit versorgt.
Serverless-Optionen
Eine weitere Möglichkeit, Anwendungen kostengünstig zu beschleunigen, stellte Peter DeSantis mit drei weiteren Serverless-Diensten vor. Die neue Limitless-Funktion lässt Schreibzugriffe für die SQL-kompatible Datenbank Amazon Aurora automatisch skalieren, um Millionen von Schreibvorgängen pro Sekunde zu verarbeiten und Petabyte an Daten zu verwalten.
Eine neue Serverless-Option ist nun für Amazon ElastiCache verfügbar. Damit lassen sich hochverfügbare Pufferspeicher anlegen und automatisch dem Bedarf von Anwendungen anpassen. Amazon ElastiCache Serverless steht für Memcached 1.6.22 und Redis 7.1 bereit. Die neue Serverless-Funktion für Amazon Redshift verwendet KI, um Workloads vorherzusagen und automatisch zu skalieren, sodass sich Preis-Leistungs-Ziele optimieren lassen. Genesys, MIO Partners, Peloton, Quantiphi und Tuya Smart seien bereits unter den Kunden für Serverless-Datenbanken zu finden.
Zero-ETL
Schon 2022 blies Selipsky zum Angriff auf die lästige ETL-Misere, die Admins zu komplizierten Konfigurationen von Servern und Datenmengen zwingt. Nach den ersten Zero-ETL-Erfolgen unterstützen nun auch Amazon Connect (Callcenter-Service), Amazon DynamoDB , Amazon RDS for MySQL und Amazon Aurora PostgreSQL den Datentransfer ohne ETL-Aufwand in Amazon Redshift. Im Falle von DynamoDB zusätzlich auch in Amazon OpenSearch Service. Da Redshift für Data-Warehouse-Zwecke verwendet wird, ist es auf möglichst reibungslose Datenintegrationen angewiesen. Diese Integrationen sind teils verfügbar, teils in Preview.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
KI-Assistent Amazon Q
Auf dem Feld der Analytik hat Amazon viele Erweiterungen und Neuheiten gezeigt, doch die hilfreichste dürfte wohl die verbreitete Einführung des KI-Assistenten Amazon Q sein. Der bereits für QuickSights verfügbare Q-Assistent ist laut Selipsky deutlich ausgebaut – und mit AWS-Daten trainiert worden, um in der Lage zu sein, Erkenntnisse als eine Geschichte zu erzählen. „Damit sind Dashboards schneller und intelligenter zu erstellen als zuvor“, sagte der CEO. Den Vorgang habe man sich als Frage-und-Antwort-Spiel vorzustellen, was es ermögliche, Antworten zu erhalten, die nicht als Dashboards oder Reports geliefert werden. Für die automatische Erstellung von Executive Summarys dürften viele Nutzer dankbar sein. Weitere branchenspezifische Q-Einsatzbereiche sind Amazon Connect und Amazon Q Code Transformation, und weitere sollen laut Selipsky folgen. Q Code Transformation sei es gelungen, tausend alte Java-Applikation binnen zwei Tagen auf die Java-Version 17 zu migrieren – ein Beitrag zur Modernisierung und Absicherung alter Java-Apps.
Auch das Data Warehouse Amazon Redshift erhält Schützenhilfe von Q und anderen KI-Funktionen, um Effizienz und Produktivität zu steigern. Auf Eingaben in natürlicher Sprache hin erteilt Redshift Q Empfehlungen für SQL-Statements. Redshift skaliert seine Kapazität proaktiv und automatisch, um individuell angepasste Leistungsoptimierungen zu liefern.
Eine wichtige Entwicklung im KI-Sektor ist die Umwandlung von Daten in Vektordaten. Dadurch werden sie für Trainingsschritte leichter verwendbar als etwa Textdaten. Mit der neuen Vektorsuche in Amazon DocumentDB lassen sich in dieser Datenbank „Millionen von Vektoren binnen Millisekunden speichern, indizieren und durchsuchen“, lautet die Nachricht von AWS. Wichtig zu wissen ist auch, dass die Vektorsuche kompatibel zu MongoDB ist, einer verbreiteten Opensource-Datenbank.
Machine Learning und KI
Nachdem Selipsky die oben genannten Machine-Learning-Chips vorgestellt hatte, lag es nahe, auch auf die Neuerungen im Bereich Künstlicher Intelligenz einzugehen. Und das waren eine ganze Menge. Der Umfang des AWS-Engagements in Sachen KI zeigt sich nicht zuletzt in den bis zu vier Milliarden US-Dollar, die das Unternehmen in den LLM-Entwickler Anthropic mit seinem LL-Modell „Claude“, das seit dem 21. November 2023 in Version 2.1 vorliegt, investieren wird. Dario Amodei, CEO und Mitbegründer von Anthropic, erklärte auf der Bühne, dass seine Firma hart daran arbeite, dass das Risiko von Falschaussagen bzw. „Halluzinationen“ bereits um 50 Prozent gegenüber Version 1 reduziert worden sei. Außerdem seien Angriffe von außen nun zehnmal weniger erfolgreich.
Constantin Gonzalez, Principal Solutions Architect bei AWS, meint dazu: „Bereits jetzt gehört Claude zu den besten KI-Modellen, die ich bisher genutzt habe. Dario Amodei erzählte, wie die Large Language Models (LLMs) hinter Claude auf AWS trainiert werden und dass AWS der primäre Cloud-Anbieter für Anthropics kritische Unternehmens-Anwendungen ist.“ Swami Sivasubramanian, der für KI zuständige Vice President, kündigte für demnächst „Feintuning für Claude-Modelle“ an.
Diese Präferenz könnte missverstanden werden. AWS bietet auf seiner KI-Plattform Amazon Bedrock ganz demokratisch alle kompatiblen LLMs an, darunter auch das eigene namens „Titan“. Um Titan-Modelle auf Bedrock im Hinblick auf Korrektheit zu verbessern, bietet AWS nun verschiedene Neuheiten an. Denn es gelte, Copyright-Verletzungen und Zweifelsfälle zu vermeiden. Dafür bietet AWS nun „Guardrails for Amazon Bedrock” als Preview an. „Guardrails“ hatte AWS bereits zuvor vorgestellt, um „sichere Interaktionen” zwischen KI-Anwendungen und Nutzern zu gewährleisten.
Zu den Neuerungen für Bedrock gehören Knowledge Bases, die Retrieval Augmented Generation (RAG) unterstützen, zweitens Agenten, die verbesserte Steuerung der Orchestrierung und Einblick in die Logik des LLMs erlauben und drittens die Möglichkeit, Funktionsmodelle mit Feintuning und „Continued Pre-Training“ an Nutzeranforderungen anzupassen und abzusichern. Hier verwendet der Nutzer seine eigenen Datenquellen zusätzlich zu den vortrainierten Daten der Modell-Hersteller. Das ist ein wichtiger Schritt, denn nur durch die eigenen Daten differenzieren sich künftig KI-Nutzer. Um die Datensicherheit zu erhöhen, will AWS „in Kürze“, wie Selipsky sagte, die Option anbieten, persönliche Daten (PII) aus der Ein- und Ausgabe von Modellen zu eliminieren.
KI-VP Swami Sivasubramanian stellte unter großem Applaus den neuen „Titan Image Generator“ vor, der Bilder in Fotostudio-Qualität erzeugen soll, inklusive Wasserzeichen.
(Bild: AWS)
Auf großen Beifall stieß der neue Amazon Titan Image Generator, der, ähnlich wie mit DALL-E, künstliche Bilder entwerfen kann und die sich, mit einem Wasserzeichen versehen, veröffentlichen lassen. Das Wasserzeichen soll die Nutzung von KI kenntlich machen, um widerrechtliche Nutzung, wie z. B. „Fake News“ zu verhindern oder auffindbar zu machen.
Außerdem gibt es nun „Amazon Titan Multimodal Embeddings“ sowie die zwei Text-Modelle „Amazon Titan Text Lite“ und „Amazon Titan Text Express“. Um Modelle einfacher aufrufen oder anzupassen, bietet AWS zwei einfache API-Aktionen für Amazon Bedrock an: InvokeModel und CreateModelCustomizationJob. Eine verbesserte Unterstützung für die Behebung von Sicherheitslücken, für den Entwurf von Infrastruktur als Code, sowie für Visual Studio 2022 bietet die jüngste Version des KI-Entwicklerwerkzeugs Amazon CodeWhisperer.