AWS Summit 2023, Berlin AWS: Immer näher an der KI
Anbieter zum Thema
Viele Kunden setzten auf ambitionierte Projekte mit Künstlicher Intelligenz (KI) und Maschinenlernen. Amazon Web Services (AWS) geht deshalb näher an die Kunden, um Latenzzeiten zu verkürzen.

Amazon Web Services surft derzeit auf einer Erfolgswelle. Das zeigt nicht nur die Tatsache, dass der AWS Summit in Berlin am 4. Mai 2023 völlig ausverkauft war, sondern auch die am 27. April veröffentlichten Quartalszahlen sprechen für sich. Der Umsatz des AWS-Segments stieg im Vergleich zum Vorjahr um 16 Prozent auf 21,4 Milliarden US-Dollar. Damit agiert AWS deutlich erfolgreicher als viele andere Tech-Giganten, die sich in den letzten Monaten von zahlreichen Mitarbeitern getrennt haben.
In Berlin stellten nicht weniger als 85 AWS-Partner ihre eigenen Lösungen vor, die auf der Technologie des Hyperscalers aufbauen. Eine weitere große Veranstaltung ist bereits geplant. Der AWS Community Day DACH findet am 14. September in München statt.
Generative KI und Large Language Models
Der Hype um generative KI-Applikationen wie ChatGPT hat viele Kunden wachgerüttelt und sie wollen nun aus eigener Kraft ähnliches schaffen. Aber wenn es um den Aufbau und die Skalierung generativer KI-Anwendungen mit Foundation Models (FMs) sowie das entsprechende Training der KI geht, fallen sehr große Datenmengen an und trotzdem sollten die Latenzzeiten den Millisekundenbereich nicht überschreiten. Das ist schwer möglich, wenn die Entfernung zum Cloud-Standort mehr als 200 km beträgt.
AWS hat auf diese Herausforderung reagiert und bietet seinen zehntausenden Kunden in Deutschland jetzt zusätzlich zu den drei Availability Zones in Frankfurt neue Local Zones in München, Hamburg und Berlin sowie Wien an. Darüber hinaus befindet sich eine Amazon CloudFront Edge in Düsseldorf. Eine neue AWS-Region wurde im November in Zürich eröffnet. Der neue Hamburger Standort bietet dedizierte Verbindungen mit 1 Gbit/s und 10 Gbit/s, wobei für 10 Gbit/s eine MACsec-Verschlüsselung verfügbar ist. Die Nutzung dieses neuen Direct-Connect-Standorts zum Erreichen von Ressourcen, die in der Hamburger AWS Local Zone laufen, ist eine Lösung für Anwendungen, die eine Latenzzeit im einstelligen Millisekundenbereich oder lokale Datenverarbeitung erfordern.
Kooperation mit Nvidia bei neuen KI-Chips
AWS und Nvidia haben gemeinsam eine Infrastruktur für künstliche Intelligenz (KI) geschaffen, die für das Training immer komplexerer großer Sprachmodelle (LLMs) und die Entwicklung generativer KI-Anwendungen optimiert ist. Die gemeinsame Arbeit umfasst Amazon Elastic Compute Cloud (Amazon EC2) P5-Instances der nächsten Generation, die von NVIDIA H100 Tensor Core-Grafikprozessoren und der hochmodernen Netzwerk- und Skalierbarkeit von AWS angetrieben werden und eine Rechenleistung von bis zu 20 exaFLOPS für die Erstellung und das Training der größten Deep-Learning-Modelle liefern werden.
P5-Instances werden die ersten GPU-basierten Instances sein, die die Vorteile des Elastic Fabric Adapter (EFA)-Netzwerks der zweiten Generation von AWS nutzen, das einen Netzwerkdurchsatz von 3.200 Gbit/s mit niedriger Latenz und hoher Bandbreite bietet und es Kunden ermöglicht, bis zu 20.000 H100-GPUs in EC2 UltraClustern zu skalieren, um bei Bedarf auf die Leistung eines Supercomputers für KI zuzugreifen.
KI für bessere Interaktion und Produktivität
Generative KI (GenAI) und große Sprachmodelle (LLMs), wie sie bald über Amazon Bedrock und Amazon Titan verfügbar sind, verändern die Art und Weise, wie Entwickler und Unternehmen in der Lage sind, traditionell komplexe Herausforderungen im Zusammenhang mit der Verarbeitung und dem Verständnis natürlicher Sprache zu lösen. Amazon Bedrock ist ein vollständig verwalteter Service, der Foundation Models FMs von KI-Startups und Amazon über eine API zur Verfügung stellt.
Zu den Vorteilen, die LLMs bieten, gehört die Möglichkeit, leistungsfähigere und überzeugendere KI-Konversationserlebnisse für Kundendienstanwendungen zu schaffen und die Produktivität der Mitarbeiter durch intuitivere und genauere Antworten zu verbessern.
Für diese Anwendungsfälle ist es jedoch von entscheidender Bedeutung, dass die GenAI-Anwendungen, die die Konversationserlebnisse implementieren, zwei Schlüsselkriterien erfüllen: Begrenzung der Antworten auf Unternehmensdaten, um so Modellhalluzinationen (falsche Aussagen) zu vermeiden, und Filterung der Antworten entsprechend den Zugriffsrechten des Endbenutzers auf Inhalte.
Um die Antworten der GenAI-Anwendung auf Unternehmensdaten zu beschränken, verwendet AWS eine Technik namens Retrieval Augmented Generation (RAG). Eine Anwendung, die den RAG-Ansatz verwendet, ruft die für die Anfrage des Benutzers relevantesten Informationen aus der Wissensdatenbank oder den Inhalten des Unternehmens ab, bündelt sie als Kontext zusammen mit der Anfrage des Benutzers als Eingabeaufforderung und sendet sie dann an den LLM, um eine GenAI-Antwort zu erhalten. LLMs haben Beschränkungen in Bezug auf die maximale Wortanzahl für die Eingabeaufforderung, daher wirkt sich die Auswahl der richtigen Passagen unter Tausenden oder Millionen von Dokumenten im Unternehmen direkt auf die Genauigkeit des LLM aus.
Data Lakes auf S3
Laut Kevin Miller, Vice President & GM, S3 at Amazon Web Services, hosten immer mehr Kunden ihre Data Lakes auf dem Speicherstandard Amazon S3. „Data Lakes umfassen schon Exabytes. Unser Angebot S3 Storage Lens schafft den Überblick über Storage und das kostenlos. Es sind jetzt 34 neue Metriken für S3 Storage Lens integriert.“ Wenn der Data Lake wächst, sollte man die richtige Speicherklasse wählen. Die unbekannte Zugriffshäufigkeit macht es aber schwierig, die richtige Storage Klasse zu finden. Eine neu eingeführte S3 Storageklasse adressiert genau dieses Problem.
AWS-gestützte Data Lakes auf Amazon S3 können die Skalierung, Agilität und Flexibilität bewältigen, die für die Kombination verschiedener Daten- und Analyseansätze erforderlich sind. So können Kunden tiefere Einblicke zu gewinnen, als dies mit herkömmlichen Datensilos und Data Warehouses möglich ist.
Die AWS-Analyseservices wurden speziell entwickelt, um dabei zu helfen, mit dem am besten geeigneten Tool schnell Dateneinblicke zu gewinnen und die beste Leistung, Skalierung und Kosten für Ihre Anforderungen zu bieten. Amazon S3 auf Snowball Edge kann eine erweiterte Reihe von Amazon S3-APIs verwenden, um Anwendungen auf AWS zu erstellen und sie auf Snowball Edge Compute Optimized-Geräten bereitzustellen. Damit können Sie den Speicher mit AWS OpsHub verwalten und mehrere DDIL-Anwendungsfälle (Denied, Disrupted, Intermittent, Limited Impact) angehen.
(ID:49438272)