AWS Summit New York 2023 Amazon Web Services kündigt sieben KI-Innovationen an

Von Bernhard Lück Lesedauer: 3 min

Anbieter zum Thema

Amazon Web Services (AWS) hat beim AWS Summit New York 2023 Neuheiten im Bereich generativer KI angekündigt, dazu zählen zusätzliche Foundation-Modelle und Agents für Amazon Bedrock sowie ein Dienst, der mithilfe generativer KI automatisch klinische Dokumentationen erstellt.

Swami Sivasubramanian, Vice President of Database, Analytics, and Machine Learning bei Amazon Web Services auf dem AWS Summit New York 2023.
Swami Sivasubramanian, Vice President of Database, Analytics, and Machine Learning bei Amazon Web Services auf dem AWS Summit New York 2023.
(Bild: Amazon Web Services)

In seiner Keynote beim AWS Summit New York 2023 sagte Swami Sivasubramanian, Vice President of Database, Analytics, and Machine Learning bei Amazon Web Services (AWS), er gehe davon aus, dass die AWS-Dienste und -Funktionen die Nutzung generativer KI demokratisieren und den Zugang für alle Arten von Kunden in allen Geschäftsbereichen – von der Technik über das Marketing und den Kundendienst bis hin zu Finanzen und Vertrieb – erweitern werden.

Amazon beteilige sich seit seit mehr als 25 Jahren an der Entwicklung von KI- und ML-Technologien, und die jüngsten ML-Innovationen hätten die Möglichkeiten der generativen KI erst möglich gemacht. Diese sieben generativen KI-Updates wurden auf dem AWS Summit in New York angekündigt:

1.: Neuer Modellanbieter und zusätzliche Foundation-Modelle für Amazon Bedrock

Der neue Foundation-Modellanbieter Cohere wird Amazon Bedrock um sein Flaggschiff-Modell Command für die Texterstellung sowie um Cohere Embed, ein Modell für mehrsprachiges Textverständnis, erweitern. Darüber hinaus stellt Anthropic mit Claude 2 die neueste Version seines Sprachmodells zur Verfügung. Stability AI hat die Freigabe von SDXL 1.0, der jüngsten Version von Stable Diffusion, angekündigt. Sie könne detailliertere Bild- und Kompositionsdetails erzeugen und realistischere Kreationen für Filme, Fernsehen, Musik und Lehrvideos generieren.

2. Vollständig verwaltete Agents in Amazon Bedrock mit wenigen Klicks

Foundation-Modelle benötigen zusätzliche Programmierung, um komplexere Anfragen auszuführen. Sie haben z. B. keinen Zugriff auf Unternehmensdaten, etwa auf aktuelle Bestandsinformationen, und können nicht automatisch auf interne APIs zugreifen. Dank der Funktionalität „Agents for Amazon Bedrock“ sei es möglich, automatisch Aufgaben aufzuteilen und einen Orchestrierungsplan zu erstellen. Wenn ein Kunde beispielsweise ein Paar Schuhe zurückgeben möchte („Ich möchte diese schwarzen Schuhe gegen ein braunes Paar tauschen“), könne der Agent eine sichere Verbindung zu den Unternehmensdaten herstellen, diese automatisch in ein maschinenlesbares Format konvertieren, das Foundation-Modell mit den relevanten Informationen versorgen und dann die richtigen APIs aufrufen, um diese Anfrage zu bearbeiten.

3. Vector-Engine-Unterstützung für Amazon OpenSearch Serverless

Mit der Vector-Engine-Unterstützung für Amazon OpenSearch Serverless stehe Entwicklern jetzt eine einfache, skalierbare Lösung zur Verfügung, mit der sie ML-unterstützte Suchfunktionen und generative KI-Anwendungen erstellen können, ohne eine Vektordatenbank-Infrastruktur verwalten zu müssen.

4. Generative Business Intelligence (BI) für Amazon QuickSight

Amazon QuickSight kombiniert seine bestehenden ML-Innovationen nun mit den neuen, über Amazon Bedrock verfügbaren LLM-Fähigkeiten, um generative KI-Fähigkeiten bereitzustellen – generative BI. Diese Funktionen sollen dazu beitragen, Silos aufzubrechen, die Zusammenarbeit an Daten im gesamten Unternehmen zu vereinfachen und die datengestützte Entscheidungsfindung zu beschleunigen. Mithilfe alltäglicher natürlichsprachlicher Eingabeaufforderungen könnten Analysten Dashboards erstellen oder optimieren, und Geschäftsanwender könnten innerhalb von Sekunden Erkenntnisse mit aussagekräftigen Grafiken teilen.

5. Automatische klinische Dokumentationen mit AWS HealthScribe

AWS HealthScribe nutzt Spracherkennung und generative KI auf der Grundlage von Amazon Bedrock, um Protokolle zu erstellen und einfach zu überprüfende klinische Notizen zu generieren – AWS zufolge mit integrierten Sicherheits- und Datenschutzfunktionen zum Schutz sensibler Patientendaten.

6. Amazon-EC2: P5-Instanzen nutzen Nvidia-H100-GPUs für generatives KI-Training und Inferenz

Die jetzt allgemein verfügbaren Amazon-EC2-P5-Instanzen arbeiten mit Nvidias H100-Tensor-Core-GPUs, die für das Training von LLMs und die Entwicklung generativer KI-Anwendungen optimiert sind. Mit dem Zugriff auf H100-GPUs sollen Kunden ihre eigenen LLMs und Foundation-Modelle auf AWS schneller denn je erstellen können.

7. Sieben neue On-Demand-Schulungen zu generativer KI

Für Menschen, die sich für KI- und ML-Jobs der Zukunft qualifizieren möchten, hat AWS sieben neue On-Demand-Schulungen veröffentlicht. Sie sollen dabei helfen, generative KI zu verstehen, zu implementieren und zu nutzen. Amazon hat Schulungskurse entwickelt speziell für Entwickler, die Amazon CodeWhisperer verwenden möchten, für Ingenieure und Datenwissenschaftler, die generative KI durch Training und Bereitstellung von Foundation-Modellen nutzen möchten, für Führungskräfte, die verstehen möchten, wie generative KI ihre geschäftlichen Herausforderungen lösen kann, und für AWS-Partner, die ihren Kunden helfen wollen, das Potenzial generativer KI zu nutzen.

(ID:49632210)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung