Red Hat & Intel AI Tech Talk Die vier Säulen der künftigen KI-Modellentwicklung

Von Michael Matzer 6 min Lesedauer

Anbieter zum Thema

In einer Gesprächsrunde legten Red Hat und Intel vier Richtlinien für die Nutzung von Künstlicher Intelligenz dar. Die Runde war hochkarätig besetzt: Von Intel nahm Stephan Gillich, Intel Director AI in EMEA, teil, von Red-Hat-Seite eine Solution-Architektin und ein Vertriebsdirektor.

„Large scale Alignment for Chatbots “ (LAB) heißt die Methode, mit der sich mithilfe synthetischer Daten validierte Modelle erzeugen lassen. In InstructLab lassen sich damit hochwertige, quelloffene Modelle viel schneller als bisher erzeugen lassen.(Bild:  Red Hat)
„Large scale Alignment for Chatbots “ (LAB) heißt die Methode, mit der sich mithilfe synthetischer Daten validierte Modelle erzeugen lassen. In InstructLab lassen sich damit hochwertige, quelloffene Modelle viel schneller als bisher erzeugen lassen.
(Bild: Red Hat)

In der Gesprächsrunde, die Red Hat Evangelist Jan Wildeboer moderierte, wurde zunächst die Integration von KI-Artefakten (Modellen, Foundation Models, Embeddings) in bestehende Systeme erörtert. Wie kann es beispielsweise möglich sein, konzeptionelle Offenheit hinsichtlich Code und Architektur in die KI-Nutzung einzubringen? Nach Wildeboers Ansicht spielt als erstes Prinzip eine Hybrid-Cloud-Strategie eine tragende Rolle: „Denn Kunden werden KI nicht ständig von einem großen Anbieter mieten, sodass sie schließlich mit ihrer eigenen KI agieren, oder wenigstens mit der Erweiterung eines quelloffenen Trainingsmodells.“

Erica Langhi, Solution Architect bei Red Hat, ergänzte, dass Kunden ihre Workloads letzten Endes auf der für sie am besten geeigneten Plattform positionieren wollen. Um also die großen LLMs zu trainieren, sei es nötig, die Infrastruktur und Leistung der Public Cloud, also der Hyperscaler, zu nutzen. Aber es gebe auch Situationen, in denen man diese Modelle mit den eigenen Daten anreichern und feintunen wolle, um sie unter Umständen am Netzwerkrand (Edge) bereitzustellen.

Bildergalerie

Bei manchen Anbietern ist nämlich bereits vor Jahren demonstriert worden, dass schon wenige ML-Codezeilen ausreichen, um die Inferenz eines Modells auf einem Endgerät, etwa einer Videokamera, auszuführen. Der Trainingsteil im Machine Learning ist also bei weitem aufwendiger.

Mark Swinson, Vertriebsmanager bei Red Hat, konterte, indem er die Frage aufbrachte, wo denn bitte schön die quelloffenen Lightspeed-Modelle platziert werden sollten: „Viel besser on-premises!“ Zur Erinnerung: Ansible „Lightspeed“ mit IBM Watsonx Code Assistant ist ein generativer KI-Service, der von und für Ansible-Platform-Engineers und -Entwicklungsteams konzipiert wurde. Die Ansible Automation Platform ist eine End-to-End-Automatisierungsplattform, mit der Nutzer Systeme konfigurieren, Software bereitstellen und erweiterte Workflows orchestrieren können.

Codeempfehlungen anhand von Best Practices

Der Lightspeed Service akzeptiert von Nutzern eingegebene Prompts in natürlicher Sprache und interagiert dann mit IBM Watsonx Foundation Models, um Codeempfehlungen zu erstellen, die auf den Best Practices von Ansible basieren. Swinson: „On-premises werden auch die Ergebnisse der Modelle bereitgestellt – woanders als in der Hybrid Cloud, aber die Weiterverarbeitung dieses Ergebnisses findet besser on-premises statt.“

Der Beifall fiel begrenzt aus, denn auch Stephan Gillich, Director AI in EMEA bei Intel, plädierte für die Hybrid Cloud. „Wir sollten sicherstellen, dass KI auf praktisch jeder Plattform läuft und ganz sicher in der Hybrid Cloud. Wir (von Intel) wollen KI überallhin bringen, um sie zu realisieren. Es gibt vier Säulen, die wichtig sind. Um Innovation zu beschleunigen, benötigt man eine offene Software-Umgebung, die es der Anwendung der KI-Entwickler erlaubt, sich zu entfalten, wie sie es beabsichtigen, etwa in einer Hybrid-Cloud-Umgebung, aber auch lokal auf einem KI-PC.“ Diese KI-PCs wurden im Mai 2024 vorgestellt und sind inzwischen verfügbar.

Gillich weiter: „Aus der KI-Nutzung ergibt sich eine Nachfrage nach mehr Rechenzyklen, und diese (Rechenleistung) muss offensichtlich auf effiziente und nachhaltige Weise erbracht werden.“ Dafür sei die entsprechende Hardware nötig: „Die Plattform und die Cloud AI Workload läuft auf CPUs wie dem Xeon-Prozessor, aber auch auf Akzeleratoren für die Workloads, etwa für aufwendiges Training. Aber die Cloud AI Workloads laufen auch auf einem Stapel Software, der wiederum ihre Bereitstellung und die Inferenz auf einer Vielfalt von Plattform erlaubt.“ Die Rede ist von entsprechenden, quelloffenen Tools und Services, die Intel in den letzten Jahren für verschiedene Anwendungsfelder entwickelt hat, etwa für Visualisierung.

Vier Säulen

Intel sieht, wie gesagt, vier Säulen, die eine offene Umgebung für Entwickler tragen: Erstens die soeben beschriebene Hard- und Software-Plattform; die Inferenz auf verschiedenen Hardware-Plattformen; Datensicherheit und Verantwortlichkeit seitens der Entwickler, aber auch ein Fundament seitens Intels; schließlich ist Intels Rolle als Teil eines Partner-Ökosystems von zentraler Bedeutung, um Innovationen zu fördern: Werkzeuge wie Gaudi-2, aber auch Hardware wie Xeon-Prozessoren in Rechenzentren und auf PCs.

Gillich zitiert eine Studie der Boston Consulting Group bzw. McKinsey, der zufolge generative KI das Potenzial habe, jährlich einen Mehrwert von 2,6 bis 4,4 Billionen US-Dollar dem jeweils erwirtschafteten (globalen) BPI hinzuzufügen.

Vertrauen in Schwarmintelligenz?

Das zweite Stichwort, das Wildeboer nennt, ist „Vertrauen und Erklärbarkeit bzw. Verantwortlichkeit von KI“. Das klingt leichter als es ist, und Wildeboer führt einen Knackpunkt an: „Wir bewegen uns in eine Welt der Schwarm-KI, in der wir Schwärme von domänenspezifischen KIs sehen, die entweder nah an den Daten oder on-premises oder in der (Hybrid Cloud) oder vielleicht sogar bald auf einem Mobiltelefon ausgeführt werden.“

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Der Grund: „Während momentan viele auf die ,große KI‘ schauen, also auf ein oder wenige große Modelle à la ChatGPT, sehen wir (bei Red Hat) die Zukunft eher in kleinen, spezialisierten Modellen, die man verknüpfen kann.“

Als Beispiel führt er die Granite-Modelle an, die IBM und Red Hat vorgestellt haben und für die beispielsweise InstructLab eine große Rolle für quelloffene Entwicklung spielt. „InstructLab lässt sich nutzen, um Modelle selbst für interne bzw. spezifische Use Cases zu modifizieren und zu optimieren – mit dem Vorteil, dass diese Modelle auf den eigenen Maschinen laufen und man damit keine internen Informationen bzw. Daten mit ,Big AI‘ teilen muss. Wenn man nun diese kleinen, eigenen Modelle sinnvoll miteinander verknüpfe, dann entstehe ein Schwarm von KI-Modellen mit jeweils unterschiedlichem ,Fachwissen‘“. Das habe er mit dem Begriff „Schwarmintelligenz“ gemeint, erläuterte Wildeboer im Nachgang.

„Vertrauen in KI wird bestimmen, ob KI im Markt akzeptiert wird, nicht nur unter den Endverbrauchern, sondern auch zwischen Geschäftspartnern. Wir glauben, dass der einzige Weg, um dies zu realisieren, in maximaler Offenheit besteht“, so Wildeboer weiter. „Diese Offenheit muss auf der Ebene des jeweiligen Modells, des Trainings und in der Ausführung gegeben sein.“

Mark Swinson bestand auf Vertrauen in die Datenherkunft und in die Integrität der Daten selbst, etwa für Tests, sowie in das Ergebnis einer Modellanwendung. Erica Langhi forderte zusätzlich die Erklärbarkeit eines KI-Modells, um Verantwortlichkeit und Sicherheit zu gewährleisten.

Um auch Nachhaltigkeit zu unterstützen, so Wildeboer, sei die Wiederverwendung eines erprobten Modells ratsam, denn das spare Energie. „Kleine Modelle (wie Granite) sind meist ausreichend, und zudem kann man ja die Daten zum Modell bringen.“ Was dann wiederum gegen die Nachhaltigkeit spräche, denn Datentransport kostet ja. „Modelle müssen ihren Code und ihre Daten offenlegen“, forderte Mark Swinson, und Lightspeed-Modelle täten dies bereits.

Datenschutz

Das dritte Stichwort ergibt sich daraus: Datenschutz und -sicherheit. „Eine vertrauenswürdige Ausführungsumgebung ist vonnöten und lässt sich mit gehärteter Hardware bereitstellen“, erläuterte Stephan Gillich von Intel. „Aber KI wird definitiv viele Jobs transformieren“, wies Erica Langhi hin, „und im Hinblick auf Nachhaltigkeit müssen Modelle eben die angemessene Größe besitzen, beispielsweise in Llama-3 von Meta.“

Doch wer wird Urheberrechte schützen, ist die Frage. „Für die legale Nutzung von Intellectual Property im Code von Modellen muss es Richtlinien geben“, wie sie etwa GitHub veröffentlich habe, forderte Wildeboer. Kuratierter Content gewinne daher an Bedeutung. „Es sollte Kenngrößen für die Nützlichkeit von Modellen geben“, findet er. „Die Regierung von Singapur testet das Verhalten von KI-Modellen bereits.“

Partner im Ökosystem

Als viertes und letztes Stichwort warf Wildeboer „Partner“ in die Runde. Er war sich sicher, dass nur mit Partnern Ökosysteme errichten werden können. „Sie werden offene Märkte für Modelle schaffen.“ Das provokative Diktum von Nvidia-Chef Jensen Huang im Frühjahr 2024, wonach Entwickler überflüssig seien, wies er zurück. Gillich verwies erneut auf Intels Rolle als Teil eines Partner-Ökosystems und dass Intel Open-Source-Software unterstütze. „Wir brauchen noch viel mehr generative KI, beispielsweise für die Visualisierung.“

Red Hat biete solche GenAI-Modelle mit Lightspeed an, sagte Swinson, fragte jedoch, wie sich Modelle verschiedener Hersteller zusammenfügen lassen: „Das funktioniert nur auf der Ebene von Open Source Software.“ Also auf der Grundlage offener Standards.

Aus dem Publikum kam eine knifflige Frage: „Können KI-Modelle andere KI-Modelle erzeugen?“ Das würde Partner ersetzen und etliche Akteure im Markt überflüssig machen. Mark Swinson antwortete souverän: „Das dürfte wohl nicht so bald passieren, denn Modelle benötigen eine Art Initialzündung, um ein neues Modell zu programmieren. Dieser Funke muss indes von außerhalb des Modells kommen, also von einem Menschen.“ Vorerst können wir also ruhig schlafen.

(ID:50047403)