Vom Kundenservice und Vertrieb bis hin zu IT-Prozessen und zur Softwareentwicklung gewinnt KI branchenübergreifend an Bedeutung. Der erfolgreiche Einstieg in die KI-Ära hängt allerdings von mehreren Faktoren ab. Entscheidend sind dabei vor allem die KI-Infrastruktur und -Plattform sowie die KI-Modelle.
Ein Blick in die Zukunft von IT und KI: Der erfolgreiche Einstieg in die KI hängt jetzt von der richtigen Wahl von Modellen, Plattformen und Infrastruktur ab – hybride Ansätze und MLOps schaffen die Basis für produktive Anwendungen.
(Bild: Red Hat)
Es liegt auf der Hand, dass die Entwicklung, Bereitstellung und Verwaltung von KI-Modellen und -Anwendungen mit zahlreichen Herausforderungen verbunden sind. Unternehmen müssen dabei komplexe technische, organisatorische, rechtliche und ethische Anforderungen berücksichtigen.
Herausforderungen beim Start: Infrastruktur, Modelle und Kosten
Künstliche Intelligenz (KI) ist dabei keine neue Entwicklung. Verbreitet im Einsatz ist schon die prädiktive KI, etwa im Hinblick auf Fraud Detection im Bankenbereich oder bei der vorausschauenden Wartung im Fertigungsbereich. Mit der generativen KI ist das mögliche KI-Einsatzspektrum aber noch deutlich größer geworden. Und auch der Hype rund um die LLMs ist noch längst nicht das Ende der Fahnenstange.
Inzwischen werden nicht nur generische LLMs als Wissensquellen genutzt, sondern mit weiteren Ansätzen zusätzliche Informationsquellen erschlossen, etwa auch aktuelle und domänenspezifische Daten. Zu nennen ist hier etwa die Technik RAG (Retrieval-Augmented Generation), mit der die in einem LLM vorhandenen Daten ergänzt werden können. Dadurch kann auch die Gefahr von Halluzinationen verringert und sichergestellt werden, dass die Modelle richtige Antworten liefern. Ein weiteres Beispiel ist der offene Standard Model Context Protocol (MCP), der den Datenaustausch zwischen LLMs und externen Quellen unterstützt. Zudem wird Agentic AI in absehbarer Zeit an Bedeutung gewinnen. Agentic AI ermöglicht LLMs, mit beliebigen Systemen in ihrer Umgebung zu interagieren und eigenständig planen und Entscheidungen treffen zu können.
Bevor ein Unternehmen also startet, muss es zunächst bestimmen, welchen KI-Weg es gehen möchte, welche Einsatzfelder adressiert werden sollen und darauf aufbauend konkrete Use Cases ermitteln und evaluieren. Ein wichtiger Punkt ist dabei immer zu berücksichtigen, und zwar die Kosten. Auf der Hand liegt, dass es für die wenigsten Unternehmen sinnvoll ist, eine extrem kostenintensive eigene GPU-Cluster-Infrastruktur aufzubauen. Auch bei der Cloud-Nutzung wird allerdings ein Punkt oft vergessen. Bei einer Token-basierten Abrechnung eines Cloud-Providers können bei entsprechender Nutzung durchaus hohe Kosten anfallen.
Kleine Modelle statt großer LLMs
Zunächst kann die Frage aufgeworfen werden, welches KI-Modell das richtige ist. Hier zeichnet sich ab, dass der Hype rund um die großen Sprachmodelle inzwischen leicht abklingt. Kleinere Modelle für spezifische Aufgaben als Alternative zu den LLMs gewinnen an Relevanz. Sie bieten verschiedene Vorteile wie die einfachere Implementierung oder kontinuierliche Integration neuer – auch unternehmens- und domänenspezifischer – Daten, sodass Unternehmen Tunings schneller durchführen können. Kleine Modelle verringern auch die Abhängigkeit der Unternehmen von großen LLM-Anbietern, deren Lösungen oft eine Blackbox hinsichtlich Algorithmen, Trainingsdaten oder Modellen sind. Nicht zuletzt tragen sie im Vergleich zur Nutzung großer LLMs auch zu einer erheblichen Kosteneinsparung bei.
Der Trend zur Nutzung kleinerer und optimierter KI-Modelle zeigt sich auch daran, dass sich etliche Unternehmen derzeit mit der vLLM-Technologie beschäftigen. Mit vLLM können Berechnungen mit einem LLM prinzipiell schneller durchgeführt werden, beispielsweise durch eine effizientere Nutzung des GPU-Speichers. Damit wird auch die Geschwindigkeit und Performance generativer Anwendungen verbessert.
Open Source für vertrauenswürdige KI und Transparenz
Bei jeder KI-Einführung geht es zudem um die Transparenz. Nicht nur in stark regulierten Branchen wie etwa der Finanzindustrie, in denen zahlreiche Vorgaben berücksichtigt werden müssen, gewinnt dabei die vertrauenswürdige KI an Bedeutung. Hier kommen dann unweigerlich Open-Source-Strategien, -Technologien und -Lösungen ins Spiel. Schließlich steht ein Open-Source-Ansatz für eine hohe Transparenz und Sicherheit.
Open-Source-KI-Projekte wie vLLM, InstructLab oder auch die Granite-Familie von Open-Source-lizensierten Modellen sind folglich die ideale Basis einer vertrauenswürdigen KI, in der es um Aspekte wie Erklärbarkeit, Fairness, Transparenz, Nachvollziehbarkeit, Reproduzierbarkeit, Robustheit und Überwachbarkeit der KI-Modelle geht. Vor allem aber bilden Open-Source-basierte Plattformen, Tools und Technologien generell auch eine optimale Grundlage für den flexiblen und erfolgreichen Betrieb von KI-Modellen – unabhängig davon, ob diese letztlich der Definition Open-Source-KI entsprechen.
Ein wichtiger Bestandteil der KI-Umgebung ist außerdem immer die Infrastrukturbasis. Dabei sollte ein Unternehmen einen ganzheitlichen Ansatz verfolgen, da die Nutzung von KI die Komplexität eines Projekts in der Anwendungsentwicklung erhöht – es handelt sich dabei im Prinzip um zwei verschiedene Workflows. Wenn aber sowohl die App- als auch die KI-Entwicklung auf der gleichen Plattform erfolgen, wird dieser Prozess erheblich vereinfacht.
Will ein Unternehmen einen Vendor-Lock-in vermeiden, mit neuen KI-Innovationen Schritt halten und vielfältige Anwendungsfälle umsetzen, empfiehlt sich auf jeden Fall eine flexible Hybrid-Cloud-Plattform. Sie unterstützt mit Security-Kontrollen, Versionierung und Archivierung die sichere KI-Umsetzung, und zwar von der KI-Modellentwicklung über das KI-Modelltraining bis hin zur KI-Modelleinbindung in Anwendungen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Mit Red Hat OpenShift AI, einer flexiblen, skalierbaren KI/ML-Plattform, können Unternehmen KI-gestützte Anwendungen in Hybrid-Cloud-Umgebungen entwickeln und bereitstellen.
(Bild: Red Hat)
Ein offene Hybrid-Cloud-Plattform bietet Unternehmen vor allem auch eine hohe Flexibilität hinsichtlich der genutzten Infrastruktur und geeignetsten Umgebung für die jeweiligen KI-Workloads: von einer On-Premises- bis zu einer Cloud-Umgebung. Ein solches Plattformkonzept ermöglicht zum Beispiel die Entwicklung und das Training des KI-Modells in der Public Cloud auf großen GPU-Farmen unter Nutzung öffentlicher und synthetischer Testdaten mit anschließender Einbettung des Modells in die On-Premises-Anwendung. Umgekehrt ist denkbar, die Modelle mit internen hochsensiblen Daten im eigenen Rechenzentrum zu trainieren und anschließend in der Cloud zu betreiben.
Nicht zuletzt kann über offene Hybrid-Cloud-Plattformen auch ein Zugang zu zertifizierten KI-Partnern im Rahmen eines Ökosystem-Konzepts bestehen. Für Unternehmen bedeutet das, dass sie Komplettlösungen für die Entwicklung, das Deployment und Management von Modellen für KI-gestützte Anwendungen relativ einfach und schnell nutzen können.
Mit MLOps schneller von der Theorie in die Praxis
Nach der Wahl des KI-Modells und der Infrastrukturbasis geht es bei der KI-Einführung um die Operationalisierung, also den einfachen und schnellen Übergang von einer Proof-of-Concept-Phase in die produktive Nutzung. Und dabei hat sich vor allem der MLOps-Ansatz bewährt. Eine hybride MLOps-Plattform unterstützt das Training und Tuning sowie die Bereitstellung und Überwachung von KI-Modellen in der Cloud, im Edge-Bereich und on-premises.
Prinzipiell vereinfacht und automatisiert MLOps den iterativen Prozess der Integration von KI-Modellen, und zwar in Bezug auf Softwareentwicklungsprozesse, den Produktions-Rollout, die Überwachung, das Retraining und das erneute Deployment. MLOps trägt damit auch zu einer effektiveren und optimierten Zusammenarbeit von Data-Science-, Softwareentwicklungs-Teams und IT Operations bei.
Die Möglichkeiten, die KI bietet, sind heute bei Weitem noch nicht ausgeschöpft. Die Entwicklung schreitet dabei dynamisch voran. Aber Unternehmen sollten schon heute die richtigen Weichenstellungen treffen. Eine hybride Plattform ist dabei nicht die schlechteste Wahl, zumal sie Zukunftssicherheit, Unabhängigkeit und Flexibilität auch im Hinblick auf künftige Entwicklungen bieten kann. Ist etwa ein neues KI-Modell verfügbar, kann es ohne zusätzlichen Implementierungsaufwand einfacher und schneller auf der offenen Plattform eingesetzt und genutzt werden.
Nicht zuletzt kann eine offene und flexible Hybrid-Cloud-Plattform gerade in einer Zeit geopolitischer Verwerfungen und protektionistischer Maßnahmen punkten, da sie auch die freie Wahl zwischen proprietären und Open-Source-Lösungen unterstützt. Dies kommt in letzter Konsequenz der digitalen Souveränität zugute, die für viele Unternehmen zunehmend wichtiger wird.
* Der Autor Max Murakami ist AI Platform Specialist Solution Architect bei Red Hat.