AWS Amazon Bedrock mit neuen Funktionalitäten und erweiterter FM-Auswahl

Von Michael Matzer 5 min Lesedauer

Anbieter zum Thema

Amazon Web Services (AWS) hat für seine KI-Plattform Amazon Bedrock neue Funktionalitäten vorgestellt und die Verfügbarkeit angekündigter Funktionalitäten vermeldet. So ist Guardrails für Bedrock ebenso verfügbar wie der Titan Image Generator. Neu ist beispielsweise, dass Kunden mit Amazon Bedrock Custom Model Import ihre eigenen angepassten KI-Modelle mitbringen und auf Bedrock ausführen, aber auch alle verfügbaren großen Sprachmodelle (LLMs) mit Amazon Bedrock Model Evaluation bewerten lassen können.

Amazon macht für Generative KI mehrere Ressourcen verfügbar, darunter Amazon Bedrock.(Bild:  Amazon)
Amazon macht für Generative KI mehrere Ressourcen verfügbar, darunter Amazon Bedrock.
(Bild: Amazon)

Bei Amazon Bedrock handelt es sich um einen neuen Managed Service, mit dem Kunden einsatzbereite Anwendungen auf Basis von Generativer KI erstellen und skalieren können. Amazon Bedrock macht vortrainierte FMs (Foundation Models) von KI-Anbietern wie AI21 Labs („Jurassic-2“), Anthropic („Claude“) und Stability AI über eine Programmierschnittstelle zugänglich. Amazon Bedrock ist inzwischen allgemein verfügbar und wird sukzessive ausgebaut. AWS bietet auf Bedrock alle kompatiblen LLMs an, darunter auch das eigene namens „Titan“.

Custom Model Import

„Kunden können jetzt ihre eigenen Daten verwenden, um öffentlich verfügbare Modelle anzupassen und diese Modelle in Amazon Bedrock zu integrieren“, berichtet Constantin Gonzalez, Principal Solutions Architect bei AWS. „Das neue Leistungsmerkmal Amazon Bedrock Custom Model Import ermöglicht es Unternehmen, ihre eigenen benutzerdefinierten Modelle als vollständig verwaltete Anwendungsprogrammierschnittstelle (API) mit nur wenigen Klicks zu importieren und darauf zuzugreifen.“

Bildergalerie

Dadurch erhalten sie nahtlose Skalierbarkeit und die Möglichkeit, ihre Anwendungen zu schützen und die Prinzipien einer verantwortungsbewussten KI einzuhalten, indem sie die in Amazon Bedrock integrierten generativen KI-Tools wie Wissensdatenbanken, Guardrails, Agents und Model Evaluation nutzen, ohne all diese Funktionen selbst entwickeln zu müssen.

Beim Modellimport werden die beiden Hauptkomponenten eines LLM, nämlich seine Architektur und die individuellen Modelldaten, beispielsweise auf ihre Funktionsfähigkeit überprüft. „Darüber hinaus können Kunden mit Retrieval Augmented Generation (RAG) LLM-Anwendungen erzeugen, die genauere Antworten liefern und sich dabei auf Quellenangaben von kundenspezifischen Dokumenten beziehen. Auch Agenten, die einfache Aufgabenschritte erledigen, lassen sich erzeugen. Dazu kommt die Möglichkeit des Feintuning des Modells, bis es für den geplanten Anwendungszweck optimiert wurde“, erläutert Gonzalez. Durch den Import und die automatische Validierung sollen Kunden ihre Betriebskosten senken und die Anwendungsentwicklung beschleunigen.

Amazon Bedrock Custom Model Import ist ab sofort im Preview verfügbar und unterstützt aktuell drei der beliebtesten offenen Modellarchitekturen – das quelloffene Flan-T5, Llama und Mistral.

Amazon Bedrock Model Evaluation

Das Leistungsmerkmal „Model Evaluation“ bietet Unternehmen die schnellste Möglichkeit, Modelle auf Amazon Bedrock zu analysieren und zu vergleichen und das beste Modell für ihre Anwendung auszuwählen. „Dadurch wird der Evaluierungsprozess von Wochen auf Stunden verkürzt, sodass neue Anwendungen schneller auf den Markt gebracht werden können“, erklärt Gonzalez. Amazon Bedrock Model Evaluation sei ab sofort allgemein verfügbar.

AWS Guardrails für Bedrock

Um FM-Modelle auf Bedrock im Hinblick auf Korrektheit zu verbessern, bietet AWS verschiedene Funktionen an. Denn es gelte, beispielsweise Copyright-Verletzungen, Hate Speech und faktische Zweifelsfälle zu vermeiden. Dafür bietet AWS „Guardrails for Amazon Bedrock” an. „Guardrails“ hatte AWS bereits zuvor vorgestellt, um „sichere Interaktionen” zwischen KI-Anwendungen und Nutzern zu gewährleisten. Die Funktionalität ist ab sofort allgemein verfügbar

Guardrails for Bedrock ermögliche es Kunden, Generative KI auf sichere, vertrauenswürdige und verantwortungsvolle Weise zu implementieren, wobei Sicherheitsvorkehrungen zur Entfernung von persönlichen und sensiblen Informationen, Schimpfwörtern und bestimmten Wörtern sowie zur Blockierung schädlicher Inhalte implementiert werden. Dies baue auf den nativen Sicherheitsfunktionen von FMs auf und helfe Kunden, bis zu 85 Prozent der schädlichen Inhalte zu blockieren.

Hier verwendet der Nutzer seine eigenen Datenquellen zusätzlich zu den vortrainierten Daten der Modell-Hersteller. Das ist ein wichtiger Schritt, denn nur durch die eigenen Daten differenzieren sich künftig KI-Nutzer. Die Lösung funktioniere mit allen großen Sprachmodellen (LLMs) in Amazon Bedrock sowie mit fein abgestimmten Modellen sowie mit importierten Custom Models.

Amazon Titan Text Embeddings V2

Exklusiv für Amazon Bedrock werden Amazon-Titan-Modelle von AWS auf großen und vielfältigen Datensätzen für eine Vielzahl von Anwendungsfällen erstellt und trainiert, mit integrierter Unterstützung für den verantwortungsvollen Einsatz von KI. Mit dem Amazon-LLM „Titan Embeddings“ lassen sich Texteingaben wie Wörter, Phrasen oder ganze Absätze in numerische Darstellungen, sogenannte „Einbettungen“, übertragen, die die semantische Bedeutung des jeweiligen Textes enthalten. Obwohl dieses LLM also keinen Text erzeugt, ist es nützlich für die Suche und die Personalisierung, denn indem das Modell Embeddings vergleicht, ist das Modell in der Lage, schneller relevantere und kontextbezogene Ergebnisse zu liefern, als wenn es Wörter vergleichen würde.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Das Tool, das für die Arbeit mit RAG-Anwendungsfällen optimiert ist, eignet sich laut Amazon für eine Vielzahl von Aufgaben wie Informationsabfrage, Frage- und Antwort-Chatbots und personalisierte Empfehlungen. „Amazon Titan Text Embeddings V2 ermöglicht Kunden flexible Einbettungen, wodurch der Gesamtspeicherplatz um das Vierfache reduziert wird und die Betriebskosten erheblich sinken“, so Constantin Gonzalez. „Gleichzeitig lässt sich 97 Prozent der Genauigkeit für RAG-Anwendungsfälle beibehalten.“ Dies übertreffe andere führende Modelle. Amazon Titan Text Embeddings V2 soll „in Kürze“ verfügbar werden.

Amazon Titan Image Generator

Der Ende 2023 angekündigte Amazon Titan Image Generator ist ab sofort allgemein verfügbar. Der Bildgenerator kann künstliche Bilder in Studioqualität entwerfen, die sich, mit einem Wasserzeichen versehen, veröffentlichen lassen. Das Wasserzeichen soll die Nutzung von KI kenntlich machen, um die sichere und transparente Entwicklung von KI-Technologie zu fördern und der Verbreitung von Desinformation entgegenzuwirken. Das Modell kann auch auf das Vorhandensein eines Wasserzeichens prüfen, damit Kunden feststellen können, ob ein Bild von Amazon Titan Image Generator erzeugt wurde.

Größere Auswahl an Modellen

Darüber hinaus erweitert AWS die Auswahl an FMs führender Anbieter, die über Amazon Bedrock verfügbar sind. Meta Llama 3 FMs sind ab sofort auf Amazon Bedrock verfügbar. Gonzalez erläutert: „Bei den Llama-3-Modellen handelt es sich um eine Sammlung von vortrainierten und im Training feingetunten LLMs, die eine breite Palette von Anwendungsfällen unterstützen. Sie eignen sich besonders für Textzusammenfassung und -klassifizierung, Stimmungsanalyse, Sprachübersetzung und Codegenerierung.“

Die Command R- und Command R+-Modelle von Cohere sollen „in Kürze“ verfügbar sein. Dabei handelt es sich um hochmoderne FMs, mit denen Kunden generative KI-Anwendungen der Enterprise-Klasse mit erweiterten RAG-Funktionen in zehn Sprachen erstellen können, um ihre globalen Geschäftsabläufe zu unterstützen.

(ID:50011877)