KI-Projekte im Reifeprozess Red Hat AI 3 macht den Weg frei für produktionsreife KI

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Mit der dritten Generation seiner KI-Plattform will Red Hat die Lücke zwischen Experiment und Produktivbetrieb schließen. Red Hat AI 3 vereinfache die Bereitstellung großer Sprachmodelle, skaliere Workloads über Multi-Cloud-Umgebungen hinweg und bilde die Basis für agentische KI-Systeme.

Red Hat stellt mit AI 3 eine neue Version seiner Enterprise-KI-Plattform vor. Sie vereinfacht den Übergang von Proof-of-Concepts in produktive Szenarien und legt die Basis für agentenbasierte KI.(Bild:  Red Hat)
Red Hat stellt mit AI 3 eine neue Version seiner Enterprise-KI-Plattform vor. Sie vereinfacht den Übergang von Proof-of-Concepts in produktive Szenarien und legt die Basis für agentenbasierte KI.
(Bild: Red Hat)

Viele Unternehmen haben ihre ersten KI-Projekte längst gestartet – und stehen nun vor der größten Hürde: den Übergang vom Proof-of-Concept zur produktiven Nutzung. Mit Red Hat AI 3 legt der Open-Source-Spezialist nun eine Plattform vor, die genau an diesem Punkt ansetzen will. Sie soll skalierbare Inferenzfunktionen mit einer integrierten Entwicklungs- und Betriebsumgebung kombinieren und damit zentrale Probleme wie Kosten, Komplexität und die effiziente Nutzung knapper Hardware-Ressourcen adressieren.

Im Zentrum der neuen Version steht eine erweiterte Inferenzschicht, die auf den Community-Projekten vLLM und llm-d aufbaut. Letzteres ermögliche eine intelligente, verteilte Inferenz, nutze den bewährten Ansatz der Kubernetes-Orchestrierung und die Performance von vLLM in Kombination mit zentralen Open-Source-Technologien wie der Kubernetes Gateway API Inference Extension, der NVIDIA Dynamo Low Latency Data Transfer Library (NIXL) sowie der DeepEP Mixture of Experts (MoE) Communication Library. Unternehmen sollen damit nicht nur die Performance ihrer Hardware besser ausnutzen, sondern auch den Betrieb umfangreicher Modelle wie Mixture-of-Experts-Systeme planbarer gestalten können. Durch ein disaggregiertes Serving-Design sollen zudem die Kosten pro Inferenz sinken, während vordefinierte Workflows den operativen Aufwand reduzieren.

Neben der technischen Basis erweitert Red Hat seine Plattform um Funktionen, die den gesamten Lebenszyklus von KI-Anwendungen abdecken. Eine Funktion ist das Model-as-a-Service-Konzept (MaaS): Unternehmen können Modelle selbst verwalten, zentral bereitstellen und KI-Entwicklern sowie Anwendungen On-Demand-Zugriff ermöglichen.

Der neue KI-Hub diene als zentrales Steuerungsinstrument, über das sich Modelle suchen, bereitstellen und verwalten lassen. Ergänzend biete das Gen AI Studio eine Umgebung für schnelle Prototypenentwicklung, Tests von Prompts und Feineinstellungen bei Retrieval-Augmented-Generierung (RAG). Eine kuratierte Modellauswahl, darunter gpt-oss oder DeepSeek-R1, sowie spezialisierte Lösungen wie Whisper oder Voxtral Mini runden das Angebot ab.

Darüber hinaus bereite Red Hat AI 3 den Weg für die nächste Generation agentischer KI. Ein Unified API Layer sorge für Kompatibilität mit gängigen Frameworks, während die Unterstützung des Model Context Protocol (MCP) die Integration externer Tools vereinfache – ein zentraler Faktor für komplexe agentenbasierte Workflows. Ein erweitertes Toolkit für Datenaufbereitung, Finetuning und synthetische Datengenerierung unterstützt zudem die Entwicklung maßgeschneiderter Modelle, während ein Evaluations-Hub die Qualitätskontrolle erleichtert.

(ID:50588715)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung