In einer Gesprächsrunde legten Red Hat und Intel vier Richtlinien für die Nutzung von Künstlicher Intelligenz dar. Die Runde war hochkarätig besetzt: Von Intel nahm Stephan Gillich, Intel Director AI in EMEA, teil, von Red-Hat-Seite eine Solution-Architektin und ein Vertriebsdirektor.
„Large scale Alignment for Chatbots “ (LAB) heißt die Methode, mit der sich mithilfe synthetischer Daten validierte Modelle erzeugen lassen. In InstructLab lassen sich damit hochwertige, quelloffene Modelle viel schneller als bisher erzeugen lassen.
(Bild: Red Hat)
In der Gesprächsrunde, die Red Hat Evangelist Jan Wildeboer moderierte, wurde zunächst die Integration von KI-Artefakten (Modellen, Foundation Models, Embeddings) in bestehende Systeme erörtert. Wie kann es beispielsweise möglich sein, konzeptionelle Offenheit hinsichtlich Code und Architektur in die KI-Nutzung einzubringen? Nach Wildeboers Ansicht spielt als erstes Prinzip eine Hybrid-Cloud-Strategie eine tragende Rolle: „Denn Kunden werden KI nicht ständig von einem großen Anbieter mieten, sodass sie schließlich mit ihrer eigenen KI agieren, oder wenigstens mit der Erweiterung eines quelloffenen Trainingsmodells.“
Erica Langhi, Solution Architect bei Red Hat, ergänzte, dass Kunden ihre Workloads letzten Endes auf der für sie am besten geeigneten Plattform positionieren wollen. Um also die großen LLMs zu trainieren, sei es nötig, die Infrastruktur und Leistung der Public Cloud, also der Hyperscaler, zu nutzen. Aber es gebe auch Situationen, in denen man diese Modelle mit den eigenen Daten anreichern und feintunen wolle, um sie unter Umständen am Netzwerkrand (Edge) bereitzustellen.
Bildergalerie
Bei manchen Anbietern ist nämlich bereits vor Jahren demonstriert worden, dass schon wenige ML-Codezeilen ausreichen, um die Inferenz eines Modells auf einem Endgerät, etwa einer Videokamera, auszuführen. Der Trainingsteil im Machine Learning ist also bei weitem aufwendiger.
Mark Swinson, Vertriebsmanager bei Red Hat, konterte, indem er die Frage aufbrachte, wo denn bitte schön die quelloffenen Lightspeed-Modelle platziert werden sollten: „Viel besser on-premises!“ Zur Erinnerung: Ansible „Lightspeed“ mit IBM Watsonx Code Assistant ist ein generativer KI-Service, der von und für Ansible-Platform-Engineers und -Entwicklungsteams konzipiert wurde. Die Ansible Automation Platform ist eine End-to-End-Automatisierungsplattform, mit der Nutzer Systeme konfigurieren, Software bereitstellen und erweiterte Workflows orchestrieren können.
Codeempfehlungen anhand von Best Practices
Der Lightspeed Service akzeptiert von Nutzern eingegebene Prompts in natürlicher Sprache und interagiert dann mit IBM Watsonx Foundation Models, um Codeempfehlungen zu erstellen, die auf den Best Practices von Ansible basieren. Swinson: „On-premises werden auch die Ergebnisse der Modelle bereitgestellt – woanders als in der Hybrid Cloud, aber die Weiterverarbeitung dieses Ergebnisses findet besser on-premises statt.“
Der Beifall fiel begrenzt aus, denn auch Stephan Gillich, Director AI in EMEA bei Intel, plädierte für die Hybrid Cloud. „Wir sollten sicherstellen, dass KI auf praktisch jeder Plattform läuft und ganz sicher in der Hybrid Cloud. Wir (von Intel) wollen KI überallhin bringen, um sie zu realisieren. Es gibt vier Säulen, die wichtig sind. Um Innovation zu beschleunigen, benötigt man eine offene Software-Umgebung, die es der Anwendung der KI-Entwickler erlaubt, sich zu entfalten, wie sie es beabsichtigen, etwa in einer Hybrid-Cloud-Umgebung, aber auch lokal auf einem KI-PC.“ Diese KI-PCs wurden im Mai 2024 vorgestellt und sind inzwischen verfügbar.
Gillich weiter: „Aus der KI-Nutzung ergibt sich eine Nachfrage nach mehr Rechenzyklen, und diese (Rechenleistung) muss offensichtlich auf effiziente und nachhaltige Weise erbracht werden.“ Dafür sei die entsprechende Hardware nötig: „Die Plattform und die Cloud AI Workload läuft auf CPUs wie dem Xeon-Prozessor, aber auch auf Akzeleratoren für die Workloads, etwa für aufwendiges Training. Aber die Cloud AI Workloads laufen auch auf einem Stapel Software, der wiederum ihre Bereitstellung und die Inferenz auf einer Vielfalt von Plattform erlaubt.“ Die Rede ist von entsprechenden, quelloffenen Tools und Services, die Intel in den letzten Jahren für verschiedene Anwendungsfelder entwickelt hat, etwa für Visualisierung.
Vier Säulen
Intel sieht, wie gesagt, vier Säulen, die eine offene Umgebung für Entwickler tragen: Erstens die soeben beschriebene Hard- und Software-Plattform; die Inferenz auf verschiedenen Hardware-Plattformen; Datensicherheit und Verantwortlichkeit seitens der Entwickler, aber auch ein Fundament seitens Intels; schließlich ist Intels Rolle als Teil eines Partner-Ökosystems von zentraler Bedeutung, um Innovationen zu fördern: Werkzeuge wie Gaudi-2, aber auch Hardware wie Xeon-Prozessoren in Rechenzentren und auf PCs.
Gillich zitiert eine Studie der Boston Consulting Group bzw. McKinsey, der zufolge generative KI das Potenzial habe, jährlich einen Mehrwert von 2,6 bis 4,4 Billionen US-Dollar dem jeweils erwirtschafteten (globalen) BPI hinzuzufügen.
Vertrauen in Schwarmintelligenz?
Das zweite Stichwort, das Wildeboer nennt, ist „Vertrauen und Erklärbarkeit bzw. Verantwortlichkeit von KI“. Das klingt leichter als es ist, und Wildeboer führt einen Knackpunkt an: „Wir bewegen uns in eine Welt der Schwarm-KI, in der wir Schwärme von domänenspezifischen KIs sehen, die entweder nah an den Daten oder on-premises oder in der (Hybrid Cloud) oder vielleicht sogar bald auf einem Mobiltelefon ausgeführt werden.“
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Der Grund: „Während momentan viele auf die ,große KI‘ schauen, also auf ein oder wenige große Modelle à la ChatGPT, sehen wir (bei Red Hat) die Zukunft eher in kleinen, spezialisierten Modellen, die man verknüpfen kann.“
Als Beispiel führt er die Granite-Modelle an, die IBM und Red Hat vorgestellt haben und für die beispielsweise InstructLab eine große Rolle für quelloffene Entwicklung spielt. „InstructLab lässt sich nutzen, um Modelle selbst für interne bzw. spezifische Use Cases zu modifizieren und zu optimieren – mit dem Vorteil, dass diese Modelle auf den eigenen Maschinen laufen und man damit keine internen Informationen bzw. Daten mit ,Big AI‘ teilen muss. Wenn man nun diese kleinen, eigenen Modelle sinnvoll miteinander verknüpfe, dann entstehe ein Schwarm von KI-Modellen mit jeweils unterschiedlichem ,Fachwissen‘“. Das habe er mit dem Begriff „Schwarmintelligenz“ gemeint, erläuterte Wildeboer im Nachgang.
„Vertrauen in KI wird bestimmen, ob KI im Markt akzeptiert wird, nicht nur unter den Endverbrauchern, sondern auch zwischen Geschäftspartnern. Wir glauben, dass der einzige Weg, um dies zu realisieren, in maximaler Offenheit besteht“, so Wildeboer weiter. „Diese Offenheit muss auf der Ebene des jeweiligen Modells, des Trainings und in der Ausführung gegeben sein.“
Mark Swinson bestand auf Vertrauen in die Datenherkunft und in die Integrität der Daten selbst, etwa für Tests, sowie in das Ergebnis einer Modellanwendung. Erica Langhi forderte zusätzlich die Erklärbarkeit eines KI-Modells, um Verantwortlichkeit und Sicherheit zu gewährleisten.
Um auch Nachhaltigkeit zu unterstützen, so Wildeboer, sei die Wiederverwendung eines erprobten Modells ratsam, denn das spare Energie. „Kleine Modelle (wie Granite) sind meist ausreichend, und zudem kann man ja die Daten zum Modell bringen.“ Was dann wiederum gegen die Nachhaltigkeit spräche, denn Datentransport kostet ja. „Modelle müssen ihren Code und ihre Daten offenlegen“, forderte Mark Swinson, und Lightspeed-Modelle täten dies bereits.
Datenschutz
Das dritte Stichwort ergibt sich daraus: Datenschutz und -sicherheit. „Eine vertrauenswürdige Ausführungsumgebung ist vonnöten und lässt sich mit gehärteter Hardware bereitstellen“, erläuterte Stephan Gillich von Intel. „Aber KI wird definitiv viele Jobs transformieren“, wies Erica Langhi hin, „und im Hinblick auf Nachhaltigkeit müssen Modelle eben die angemessene Größe besitzen, beispielsweise in Llama-3 von Meta.“
Doch wer wird Urheberrechte schützen, ist die Frage. „Für die legale Nutzung von Intellectual Property im Code von Modellen muss es Richtlinien geben“, wie sie etwa GitHub veröffentlich habe, forderte Wildeboer. Kuratierter Content gewinne daher an Bedeutung. „Es sollte Kenngrößen für die Nützlichkeit von Modellen geben“, findet er. „Die Regierung von Singapur testet das Verhalten von KI-Modellen bereits.“
Partner im Ökosystem
Als viertes und letztes Stichwort warf Wildeboer „Partner“ in die Runde. Er war sich sicher, dass nur mit Partnern Ökosysteme errichten werden können. „Sie werden offene Märkte für Modelle schaffen.“ Das provokative Diktum von Nvidia-Chef Jensen Huang im Frühjahr 2024, wonach Entwickler überflüssig seien, wies er zurück. Gillich verwies erneut auf Intels Rolle als Teil eines Partner-Ökosystems und dass Intel Open-Source-Software unterstütze. „Wir brauchen noch viel mehr generative KI, beispielsweise für die Visualisierung.“
Red Hat biete solche GenAI-Modelle mit Lightspeed an, sagte Swinson, fragte jedoch, wie sich Modelle verschiedener Hersteller zusammenfügen lassen: „Das funktioniert nur auf der Ebene von Open Source Software.“ Also auf der Grundlage offener Standards.
Aus dem Publikum kam eine knifflige Frage: „Können KI-Modelle andere KI-Modelle erzeugen?“ Das würde Partner ersetzen und etliche Akteure im Markt überflüssig machen. Mark Swinson antwortete souverän: „Das dürfte wohl nicht so bald passieren, denn Modelle benötigen eine Art Initialzündung, um ein neues Modell zu programmieren. Dieser Funke muss indes von außerhalb des Modells kommen, also von einem Menschen.“ Vorerst können wir also ruhig schlafen.