Nachbericht AWS re:Invent Amazon Web Services stellt KI-Assistenten „Amazon Q“ vor

Von Michael Matzer 6 min Lesedauer

Anbieter zum Thema

Amazon Web Services (AWS) unterstützt seine Anwender im Big-Data- und Analyticsbereich mit erhöhter Leistungsfähigkeit, macht den „Amazon ElastiCache“-Dienst „Serverless“ verfügbar und erweitert die Skalierungs-Möglichkeiten mit „Amazon Aurora Limitless“. Neue Versionen des Chips für ML-Training und der ARM-basierten Graviton-CPU sind schneller und verbrauchen weniger Strom. Der Managed Service „Amazon Bedrock“ wird massiv ausgebaut, um Modelle sicherer und individueller angepasst machen zu können. Der neue KI-Assistent „Amazon Q“ ist für die Erstellung von Präsentationen in Amazon QuickSight erweitert worden.

Die Jahreskonferenz AWS re:Invent wurde von mehr als 50.000 Besuchern vor Ort sowie zahlreichen weiteren virtuellen Besuchern beehrt.(Bild:  AWS)
Die Jahreskonferenz AWS re:Invent wurde von mehr als 50.000 Besuchern vor Ort sowie zahlreichen weiteren virtuellen Besuchern beehrt.
(Bild: AWS)

Amazon Web Services (AWS) ist bemüht, seinen Kunden vor allem in ihren Analytik- und KI-Projekten mehr Leistung zur Verfügung zu stellen. Adam Selipsky, der CEO von AWS, stellte zu Beginn zwei neue Chips vor, die zu höherer Leistung verhelfen sollen, dabei aber gleichzeitig weniger Energie verbrauchen. Der Server-Prozessor AWS Graviton4 liefert bis zu 30 Prozent bessere Performance mit 50 Prozent mehr Kernen und 75 Prozent mehr Speicherbandbreite im Vergleich zur bisherigen Graviton3-Generation – auf AWS-Graviton-Prozessoren laufen bereits über 150 AWS-Instanz-Typen. Die neuen EC2-Instanzen für Graviton4 heißen R8g. Selipsky erwähnte in diesem Zusammenhang explizit den deutschen Softwarehersteller SAP. „SAP hat mit Graviton4-Prozessoren ein um 35 Prozent besseres Preis-Leistung-Verhältnis erzielt als mit bisherigen Prozessoren und konnte schon mit der Vorgänger-Generation seinen CO2-Ausstoß um 45 Prozent reduzieren.“

Der zweite Chip ist der Trainum2-Prozessor, der für das Trainieren von ML- und KI-Modellen herangezogen wird. Die zweite Generation liefert bis zu vier Mal mehr Training-Performance als die bisherige Generation. Und man kann bis zu 100.000 solcher Chips in Amazon EC2 UltraClusters miteinander verbinden, um die größten KI Foundation Models darauf zu trainieren. Dabei soll Trainium2 auch noch doppelt so energieeffizient sein wie der Vorgänger. Der bereits im vergangenen Jahr angekündigte Inferentia2-Chip soll ebenfalls vier Mal mehr Datendurchsatz und zehn Mal weniger Latenzzeit bieten. Das soll den Inferenzvorgang bei Machine Learning entsprechend beschleunigen.

UltraClusters-Supercomputer

CEO Adam Selipsky begrüßte den CEO von Nvidia, Jensen Huang, auf der Bühne, um den Chip „Grace Hopper“ und einen gemeinsamen Supercomputer in der Cloud vorzustellen. (Bild:  AWS)
CEO Adam Selipsky begrüßte den CEO von Nvidia, Jensen Huang, auf der Bühne, um den Chip „Grace Hopper“ und einen gemeinsamen Supercomputer in der Cloud vorzustellen.
(Bild: AWS)

Auf dieser Hardware-Ebene der EC2-UltraClusters kommt auch Nvidia als enger Technologiepartner ins Spiel. Selipsky begrüßte den Nvidia-CEO Jensen Huang auf der Bühne. Der ließ sich nicht die Gelegenheit entgehen, seine neue CPU-GPU „GH200 NVL32 Grace Hopper“ vorzustellen. Mit diesem und dem DGX-Computer wollen Nvidia und AWS den ersten Cloud-Supercomputer namens „Project Ceiba“ bauen, der nicht weniger als 65 Exaflops Rechenleistung liefern soll. Die nötigen EC2-Instanzen heißen P5e und nutzen den AWS Elastic Fabric Adapter (EFA) als Interconnect, um große Trainings-Workloads im Machine Learning besser zu skalieren.

Instanz für In-Memory-Datenbanken

Eine weitere neue EC2-Instanz mit dem Namen U7i soll sehr große In-Memory-Datenbanken, wie sie für Trainingsdaten nötig sind, besser unterstützen. Zu diesen Datenbanken zählen SAP HANA, Oracle und SQL Server. Es gibt drei große, auf Intel Sapphire Rapids basierende Instanzen 16tb, 24tb und 32tb sowie eine kleinere Instanz mit dem Kürzel 12tb. Jeff Barr hat in seinem Blog eine übersichtliche Tabelle eingebaut. Als eine der ersten AWS-Regionen wird auch „Europe (Frankfurt)“ damit versorgt.

Serverless-Optionen

Eine weitere Möglichkeit, Anwendungen kostengünstig zu beschleunigen, stellte Peter DeSantis mit drei weiteren Serverless-Diensten vor. Die neue Limitless-Funktion lässt Schreibzugriffe für die SQL-kompatible Datenbank Amazon Aurora automatisch skalieren, um Millionen von Schreibvorgängen pro Sekunde zu verarbeiten und Petabyte an Daten zu verwalten.

Eine neue Serverless-Option ist nun für Amazon ElastiCache verfügbar. Damit lassen sich hochverfügbare Pufferspeicher anlegen und automatisch dem Bedarf von Anwendungen anpassen. Amazon ElastiCache Serverless steht für Memcached 1.6.22 und Redis 7.1 bereit. Die neue Serverless-Funktion für Amazon Redshift verwendet KI, um Workloads vorherzusagen und automatisch zu skalieren, sodass sich Preis-Leistungs-Ziele optimieren lassen. Genesys, MIO Partners, Peloton, Quantiphi und Tuya Smart seien bereits unter den Kunden für Serverless-Datenbanken zu finden.

Zero-ETL

Schon 2022 blies Selipsky zum Angriff auf die lästige ETL-Misere, die Admins zu komplizierten Konfigurationen von Servern und Datenmengen zwingt. Nach den ersten Zero-ETL-Erfolgen unterstützen nun auch Amazon Connect (Callcenter-Service), Amazon DynamoDB , Amazon RDS for MySQL und Amazon Aurora PostgreSQL den Datentransfer ohne ETL-Aufwand in Amazon Redshift. Im Falle von DynamoDB zusätzlich auch in Amazon OpenSearch Service. Da Redshift für Data-Warehouse-Zwecke verwendet wird, ist es auf möglichst reibungslose Datenintegrationen angewiesen. Diese Integrationen sind teils verfügbar, teils in Preview.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

KI-Assistent Amazon Q

Auf dem Feld der Analytik hat Amazon viele Erweiterungen und Neuheiten gezeigt, doch die hilfreichste dürfte wohl die verbreitete Einführung des KI-Assistenten Amazon Q sein. Der bereits für QuickSights verfügbare Q-Assistent ist laut Selipsky deutlich ausgebaut – und mit AWS-Daten trainiert worden, um in der Lage zu sein, Erkenntnisse als eine Geschichte zu erzählen. „Damit sind Dashboards schneller und intelligenter zu erstellen als zuvor“, sagte der CEO. Den Vorgang habe man sich als Frage-und-Antwort-Spiel vorzustellen, was es ermögliche, Antworten zu erhalten, die nicht als Dashboards oder Reports geliefert werden. Für die automatische Erstellung von Executive Summarys dürften viele Nutzer dankbar sein. Weitere branchenspezifische Q-Einsatzbereiche sind Amazon Connect und Amazon Q Code Transformation, und weitere sollen laut Selipsky folgen. Q Code Transformation sei es gelungen, tausend alte Java-Applikation binnen zwei Tagen auf die Java-Version 17 zu migrieren – ein Beitrag zur Modernisierung und Absicherung alter Java-Apps.

Auch das Data Warehouse Amazon Redshift erhält Schützenhilfe von Q und anderen KI-Funktionen, um Effizienz und Produktivität zu steigern. Auf Eingaben in natürlicher Sprache hin erteilt Redshift Q Empfehlungen für SQL-Statements. Redshift skaliert seine Kapazität proaktiv und automatisch, um individuell angepasste Leistungsoptimierungen zu liefern.

Eine wichtige Entwicklung im KI-Sektor ist die Umwandlung von Daten in Vektordaten. Dadurch werden sie für Trainingsschritte leichter verwendbar als etwa Textdaten. Mit der neuen Vektorsuche in Amazon DocumentDB lassen sich in dieser Datenbank „Millionen von Vektoren binnen Millisekunden speichern, indizieren und durchsuchen“, lautet die Nachricht von AWS. Wichtig zu wissen ist auch, dass die Vektorsuche kompatibel zu MongoDB ist, einer verbreiteten Opensource-Datenbank.

Machine Learning und KI

Nachdem Selipsky die oben genannten Machine-Learning-Chips vorgestellt hatte, lag es nahe, auch auf die Neuerungen im Bereich Künstlicher Intelligenz einzugehen. Und das waren eine ganze Menge. Der Umfang des AWS-Engagements in Sachen KI zeigt sich nicht zuletzt in den bis zu vier Milliarden US-Dollar, die das Unternehmen in den LLM-Entwickler Anthropic mit seinem LL-Modell „Claude“, das seit dem 21. November 2023 in Version 2.1 vorliegt, investieren wird. Dario Amodei, CEO und Mitbegründer von Anthropic, erklärte auf der Bühne, dass seine Firma hart daran arbeite, dass das Risiko von Falschaussagen bzw. „Halluzinationen“ bereits um 50 Prozent gegenüber Version 1 reduziert worden sei. Außerdem seien Angriffe von außen nun zehnmal weniger erfolgreich.

Constantin Gonzalez, Principal Solutions Architect bei AWS, meint dazu: „Bereits jetzt gehört Claude zu den besten KI-Modellen, die ich bisher genutzt habe. Dario Amodei erzählte, wie die Large Language Models (LLMs) hinter Claude auf AWS trainiert werden und dass AWS der primäre Cloud-Anbieter für Anthropics kritische Unternehmens-Anwendungen ist.“ Swami Sivasubramanian, der für KI zuständige Vice President, kündigte für demnächst „Feintuning für Claude-Modelle“ an.

Diese Präferenz könnte missverstanden werden. AWS bietet auf seiner KI-Plattform Amazon Bedrock ganz demokratisch alle kompatiblen LLMs an, darunter auch das eigene namens „Titan“. Um Titan-Modelle auf Bedrock im Hinblick auf Korrektheit zu verbessern, bietet AWS nun verschiedene Neuheiten an. Denn es gelte, Copyright-Verletzungen und Zweifelsfälle zu vermeiden. Dafür bietet AWS nun „Guardrails for Amazon Bedrock” als Preview an. „Guardrails“ hatte AWS bereits zuvor vorgestellt, um „sichere Interaktionen” zwischen KI-Anwendungen und Nutzern zu gewährleisten.

Zu den Neuerungen für Bedrock gehören Knowledge Bases, die Retrieval Augmented Generation (RAG) unterstützen, zweitens Agenten, die verbesserte Steuerung der Orchestrierung und Einblick in die Logik des LLMs erlauben und drittens die Möglichkeit, Funktionsmodelle mit Feintuning und „Continued Pre-Training“ an Nutzeranforderungen anzupassen und abzusichern. Hier verwendet der Nutzer seine eigenen Datenquellen zusätzlich zu den vortrainierten Daten der Modell-Hersteller. Das ist ein wichtiger Schritt, denn nur durch die eigenen Daten differenzieren sich künftig KI-Nutzer. Um die Datensicherheit zu erhöhen, will AWS „in Kürze“, wie Selipsky sagte, die Option anbieten, persönliche Daten (PII) aus der Ein- und Ausgabe von Modellen zu eliminieren.

KI-VP Swami Sivasubramanian stellte unter großem Applaus den neuen „Titan Image Generator“ vor, der Bilder in Fotostudio-Qualität erzeugen soll, inklusive Wasserzeichen.(Bild:  AWS)
KI-VP Swami Sivasubramanian stellte unter großem Applaus den neuen „Titan Image Generator“ vor, der Bilder in Fotostudio-Qualität erzeugen soll, inklusive Wasserzeichen.
(Bild: AWS)

Auf großen Beifall stieß der neue Amazon Titan Image Generator, der, ähnlich wie mit DALL-E, künstliche Bilder entwerfen kann und die sich, mit einem Wasserzeichen versehen, veröffentlichen lassen. Das Wasserzeichen soll die Nutzung von KI kenntlich machen, um widerrechtliche Nutzung, wie z. B. „Fake News“ zu verhindern oder auffindbar zu machen.

Außerdem gibt es nun „Amazon Titan Multimodal Embeddings“ sowie die zwei Text-Modelle „Amazon Titan Text Lite“ und „Amazon Titan Text Express“. Um Modelle einfacher aufrufen oder anzupassen, bietet AWS zwei einfache API-Aktionen für Amazon Bedrock an: InvokeModel und CreateModelCustomizationJob. Eine verbesserte Unterstützung für die Behebung von Sicherheitslücken, für den Entwurf von Infrastruktur als Code, sowie für Visual Studio 2022 bietet die jüngste Version des KI-Entwicklerwerkzeugs Amazon CodeWhisperer.

(ID:49848475)