Nachbericht AWS Summit 2025 AWS-Kunden setzen auf Agentic AI

Von Michael Matzer 5 min Lesedauer

Anbieter zum Thema

Der alljährliche AWS Summit fand dieses Jahr auf dem Hamburger Messegelände in nicht weniger als vier Hallen statt. Dementsprechend mehr Aussteller und Vorträge fanden Platz, um die rund 10.000 Besucher zu informieren – alles an nur einem Tag.

AWS lud zum Summit dieses Jahr auf das Hamburger Messegelände ein. (Bild:  © Hamburg Messe und Congress/Jürgen Nerger)
AWS lud zum Summit dieses Jahr auf das Hamburger Messegelände ein.
(Bild: © Hamburg Messe und Congress/Jürgen Nerger)

„AWS-Kunden setzen inzwischen verstärkt auf Agentic AI, also Agenten, die für komplexe Aufgaben eingesetzt werden“, berichtet Jonathan Weiss, Leiter des Forschungs- und Entwicklungsstandorts von Amazon in Berlin. „Die Agenten für Code-Entwicklung setzen sowohl wir selbst ein als auch unsere Kunden.“ Zu diesen Kunden zählen namhafte Firmen wie BMW oder Zalando.

Neue Werkzeuge

„Wir nutzen für Agentic AI das Model Context Protocol MCP von Anthropic, damit Agenten mit Code-Werkzeugen kommunizieren können. Mit MCP lassen sich eine API und ein MCP-Server erstellen sowie hosten.“ MCP lässt sich mit Amazon SageMaker und Amazon Bedrock mit verschiedenen KI-Modellen nutzen.

Bildergalerie

Kurz vor dem AWS Summit hat AWS ein Software Development Kit (SDK) namens Strands vorgestellt, das auf Github zu erkunden ist. „Wir nutzen intern das quelloffene Developer-Framework Strands“, berichtet Weiss, „denn es erlaubt je nach Use Case den Multi-Agenten-Einsatz für Coding, Testing, Applikationen und Infrastruktur ebenso wie Troubleshooting und Wartung.“

Die AWS-Kunden wollen laut Weiss ihre bestehenden Geschäftsprozesse neu denken. „Hierfür lässt sich das Entwicklungs-Framework Strands verwenden, unter anderem etwa für die Orchestrierung von Agenten oder für das Verbinden von Agenten zwecks Kommunikation.“ Strands nutze ebenso wie SageMaker Unified Studio und Amazon Q Developer (Q Developer). Kürzlich wurde die Modernisierung der Amazon Q CLI (Command Line Interface) verlautbart.

Weiss weiter: „Unsere Kunden wollen Innovation, aber auch Produktivität und Effizienz. Wir bieten ihnen schnellere Entwicklung mit Amazon Q Developer sowie mit AWS Transform die Modernisierung von alten Anwendungen. Mit der Java-Modernisierung, die wir auch selbst nutzen, haben wir beispielsweise allein intern bei Amazon 4.500 Entwicklerjahre sowie 260 Millionen US-Dollar eingespart. Mit der Java-Modernisierung von AWS Transform kann man automatisiert Software-Projekte auf die aktuellste Java Version aktualisieren. Damit profitiert diese von der modernisierten JVM (Java Virtual Machine), die auf einer modernen CPU viel schneller läuft, was viel höhere Leistung erlaubt. Zugleich profitiert die Sicherheit in der Ausführungsumgebung von einer moderneren JVM.“

Kevin Miller, VP für Global Datacenters bei AWS, nannte eine mögliche Ersparnis von 40 Prozent der Lizenzkosten, wenn eine Applikation von .NET auf Linux umgestellt würde, und ein potenzielles Plus von 30 Prozent bei der Performance. Inzwischen gibt es Transformationsdienste auch für VMware und für Mainframe-Code auf zOS. Letztere Funktion war Ende 2023 angekündigt worden und ist seit Kurzem verfügbar.

Die Vorteile von KI zeige sich nach den Worten von Jonathan Weiss beispielsweise beim AWS-Kunden BT (British Telecom) Group, etwa in der Applikationsentwicklung. „Ein wichtiger Parameter ist die Akzeptanzquote hinsichtlich Code und Lines of Code“, berichtet der Chefentwickler. „Effizienz und Produktivität in der Softwareentwicklung konnten bei der BT Group um etwa zwölf Prozent gesteigert werden.“

Agentische KI im Einsatz

Der Online-Retailer Zalando extrahiert laut Weiss automatisiert Metadaten aus Artikelbeschreibungen mit KI, um damit die Artikelsuche zu verbessern. „In Amazon Bedrock können Kunden KI-Modelle austauschen, um einen Proof of Concept zu bauen und mit geeigneten Benchmarks testen, so etwa die Kosten oder die Performance“, sagte Weiss.

Einen größeren deutschen Anwender stellte Stefan Höchbauer, der Managing Director für AWS in Deutschland und Zentraleuropa, vor. Schon auf dem AWS Summit 2024 stellte der bayerische Autohersteller BMW detailliert seine Fortschritte in der Nutzung einer leistungsfähigen KI-Infrastruktur vor, um die Entwicklung neuer Modelle vollständig im Rechner erledigen zu können. „Agentische KI kommt bei BMW bei 50.000 BMW-Mitarbeitern zum Einsatz, mit Dutzenden von Apps“, sagte Höchbauer.

Er betonte, dass sich Innovation und Sicherheit nicht ausschließen. AWS kooperiere und ko-innoviere mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI), „um Cybersecurity und digitale Souveränität voranzubringen.“ AWS setzt in der KI-Entwicklung auf Amazon Bedrock GuardRails. Mit dessen Techniken könnten Anwender mehrere Sicherheitskonzepte wie Rollen, Rechte und Richtlinien umsetzen. Das gilt auch für KI-Agenten.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Need for Speed

Kevin Miller berichtete von mehreren Optionen, wie Kunden ihre AWS-Services und Applikationen beschleunigen könnten. Die erste besteht in der Nutzung einer EC2-Instanz, die die neuen Graviton-4-Prozessoren nutzt. Diese sollen 45 Prozent schneller sein als ihre Vorgänger und 60 Prozent weniger Strom verbrauchen, wenn sie etwa Inferenzvorgänge beschleunigen. Dass Graviton-CPUs inzwischen die Hälfte aller EC2-Instanzen ausmachen, geht natürlich zu Lasten von Intel-CPUs.

Um das Training neuer Modelle zu beschleunigen, bietet AWS den Trainium-Chip an. Dessen Version 2 sei vier Mal schneller als der Vorgänger und drei Mal energieeffizienter. Als Beispiel nannte Miller das Training einer der Claude-Modelle von Anthropic. Im Juni will Amazon die P7-Instanzen, die auf Nvidias aktueller B200-GPU („Blackwell“) basieren, verfügbar machen. Die B200-GPUs sind mit 20 PFLOPS Rechenleistung leistungsfähiger als ihre H100-basierten Vorgänger.

Im Storage-Bereich hat AWS die beiden Funktionen S3 Tables und S3 Metadata in den Fokus gestellt, die sich im SageMaker Lakehouse nutzen lassen. Diese neuen Funktionen ersetzen besonders im Bereich der Tabellen viele manuelle Arbeiten und unterstützen die Tabellenformate Apache Iceberg und Parquet. „Mit S3 Tables lassen sich Performance und Latenz positiv beeinflussen“, meint Michael Hanisch, Technologieexperte bei AWS Deutschland. „S3 Metadata bietet einen leistungsfähigen und skalierbaren Mechanismus für die Verwaltung von Objekten in Amazon S3 Buckets.“

DataZone für ein Data Mesh

SageMaker Lakehouse integriert Daten aus S3 Buckets mit den oben genannten Funktionen für Tabellen und Metadaten, aus einer Datenbank nach Wahl des Kunden und aus dem Katalog von Amazon DataZone. Hanisch weiter: „Das ist ein Service, um ein Data Mesh aufzubauen, um eine Business-Sicht auf Daten zu verwalten. Amazon DataZone stellt Sagemaker Lakehouse die Datenquellen dort zur Verfügung, wo sie gebraucht werden, also ein Datenverwaltungsservice, mit dem Kunden Daten, die in AWS, vor Ort und in Drittanbieterquellen gespeichert sind, schneller und einfacher katalogisieren, ermitteln, teilen und verwalten können.“

„Mit Amazon DataZone“, ergänzt die entsprechende Webseite, „können Administratoren und Datenverwalter, die die Datenbestände eines Unternehmens überwachen, den Zugriff auf Daten mithilfe detaillierter Kontrollen verwalten und steuern. Diese Kontrollen sollen sicherstellen, dass der Zugriff mit den richtigen Rechten und dem richtigen Kontext erfolgt.“

Konsistente globale Datenbanken

In diesem Zusammenhang erwähnte Kevin Miller eine interessante neue Datenbankfunktion. „Der Faktor Zeit spielt für bestimmte Anwendungsfälle wie etwa Börsen oder Medien eine immer wichtigere Rolle, sodass geringe Latenzzeiten erstrebenswert sind. Das ist etwa der Fall, wenn Datenbanken über AZ-Regionen hinweg konsistent gehalten werden sollen. Deshalb bietet Amazon jetzt für Aurora DSQL und DynamoDB globale Tabellen an, die automatisch konsistent gehalten werden.“ Damit das funktioniert, habe Amazon seinen Netzwerk-Backbone 2024 und 2025 um 80 Prozent ausgebaut.

(ID:50456853)