Plattform für generative KI-Modelle vorgestellt Red Hat Enterprise Linux AI bietet GenAI-Entwicklung aus einer Hand

Von Martin Hensel 2 min Lesedauer

Anbieter zum Thema

Mit Red Hat Enterprise Linux AI bietet der Open-Source-Spezialist ab sofort eine Modellplattform für generative KI als Developer Preview an. Sie soll das nahtlose Entwickeln, Testen und Einsetzen von generativen KI-Modellen ermöglichen.

Red Hat Enterprise Linux AI ermöglicht nahtloses Entwickeln, Testen und Einsetzen von generativen KI-Modellen.(Bild:  Gerd Altmann /  Pixabay)
Red Hat Enterprise Linux AI ermöglicht nahtloses Entwickeln, Testen und Einsetzen von generativen KI-Modellen.
(Bild: Gerd Altmann / Pixabay)

Red Hat Enterprise Linux AI (RHEL AI) vereint die Open-Source-lizenzierte LLM-Familie („Large Language Model“) Granite von IBM Research mit InstructLab-Modell-Alignment-Tools, die auf der „Large-Scale Alignment for ChatBots“-Methode (LAB) basieren und einen Community-getriebenen Ansatz zur Modellentwickelung verfolgen.

Die gesamte Plattform ist als optimiertes, bootfähiges RHEL-Image für individuelle Server-Implementierungen in der Hybrid Cloud paketiert. Zudem ist RHEL AI auch Teil der hybriden Machine-Learning-Plattform OpenShift AI und ermöglicht die Ausführung von Modellen sowie InstructLab in verteilten Cluster-Umgebungen.

Zuverlässiger Linux-Backbone als Basis

RHEL AI enthält eine unternehmenstaugliche Version des InstructLab-Projekts sowie Granite-Sprache- und Codemodelle nebst Red Hats Enterprise-Linux-Plattform. Zudem sind optimierte bootfähige Modell-Runtime-Instanzen mit Granite-Modellen und InstructLab-Tooling-Paketen als bootfähige RHEL-Images über den RHEL Image Mode mit an Bord. Dazu zählen auch optimierte Pytorch-Laufzeitbibliotheken und Beschleuniger für AMD Instinct MI300X, Intel und NVIDIA GPUs sowie NeMo Frameworks. Umfassender Enterprise-Support und erweiterter Lifecycle-Support zählen für Red Hat ohnehin zum guten Ton.

Da RHEL AI auch in Red Hat OpenShift AI enthalten ist, können Unternehmen ihre Workflows rund um das Experimentieren und Optimieren mit und von KI-Modellen bequem skalieren. Zudem ermöglicht die Kubernetes-Engine von OpenShift das Trainung die Bereitstellung der KI-Modelle in großem Umfang. Der Modellebenszyklus lässt sich über die integrierten MLOps-Funktionen von OpenShift AI verwalten. Das auf Red Hat OpenShift AI aufbauende watsonx.ai Enterprise Studio von IBM soll von der Verfügbarkeit von RHEL AI in OpenShift AI profitieren und zusätzliche Funktionen für die Entwicklung von Unternehmens-KI, das Datenmanagement, die Modell-Governance und eine verbesserte Preis-Performance mit sich bringen.

„RHEL AI und das InstructLab-Projekt, gekoppelt mit Red Hat OpenShift AI, sind darauf ausgelegt, viele der Barrieren, die GenAI in der Hybrid Cloud entgegenstehen – von begrenzten Data-Science-Fähigkeiten bis hin zu den benötigten Ressourcen –, zu überwinden und gleichzeitig Innovationen sowohl in Unternehmensimplementierungen als auch in Upstream Communities voranzutreiben“, erklärt Ashesh Badani, Senior Vice President und Chief Product Officer von Red Hat.

Verfügbarkeit

Red Hat Enterprise Linux AI ist ab sofort als Developer Preview verfügbar.

(ID:50046316)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung