Dataiku, der französische Anbieter einer kollaborativen Data-Science- und KI-Plattform, hat seine LLM-Mesh-Erweiterung vorgestellt. Sie soll die wahlfreie Nutzung skalierbarer LLMs der generativen KI erlauben und durch Governance absichern. Als Partner unterstützen unter anderem Snowflake, Pinecone, AI21 sowie Nvida LLM Mesh. Maximilian Harms, Principal AI Transformation Advisory bei Dataiku, erläutert das neue Angebot.
Ein vereinfachtes Schema des Aufbaus der Architektur von LLM Mesh
(Bild: Dataiku)
„LLMs und Generative KI im allgemeinen brauchen Governance und Compliance“, so Harms. Zu aktuellen Herausforderungen im Falle generativer KI zählen seiner Ansicht nach unter anderem das Fehlen einer zentralen Verwaltung, unzureichende Kontrollen der Berechtigungen für Zugriffe auf Daten und Modelle, oft zu minimale Maßnahmen gegen „toxische“ Inhalte, die nicht rechtskonforme Verwendung personenbezogener Daten und fehlende Mechanismen, um Kosten zu überwachen.
„Darüber hinaus benötigen viele Unternehmen Hilfe bei der Einführung von Best Practices, also konkreter Anwendungsfälle, um das Potenzial des sich rasant entwickelnden Ökosystems an KI-Technologien voll ausschöpfen zu können.“ Das erzeuge einen hohen Beratungsbedarf.
„LLM Mesh bildet das gemeinsame Rückgrat für generative KI-Apps, die mit Dataiku und seinen Partnern Snowflake, Pinecone und AI21 erstellt werden können. Weil wir Technologie-agnostisch sind, fungiert Dataiku lediglich als Orchestrierungsplattform, um sowohl Open-Source-basierte als auch proprietäre LLMs verschiedener Anbieter wie von AWS, Azure oder Meta, beispielsweise LLaMA, einzubinden. LLM Mesh richtet sich an Coder und an Nicht-Coder. Unsere weitere Aufgabe besteht darin, unseren Kunden die Überwachung zu ermöglichen: erstens die der Datenzugriffe durch befugte Personen oder Gruppen, zweitens die der Kosten.“
Komponenten
LLM Mesh bietet laut Harms Komponenten, die Unternehmen benötigen, um effizient sichere Anwendungen mit Large-Language-Modellen (LLM) zu erstellen. „Mit LLM Mesh, das zwischen Anbietern von LLM-Diensten und Anwendungen der Endnutzer fungiert, können Unternehmen bereits jetzt und auch zukünftig die kosteneffizientesten Modelle entsprechend ihrer Bedürfnisse auswählen, Sicherheit ihrer Daten und Antworten gewährleisten und wiederverwendbare Komponenten für die skalierbare Entwicklung von Anwendungen erstellen“, fasst Harms zusammen.
Zu den bislang verfügbaren Komponenten gehören das universelle Routing von KI-Diensten, der sichere Zugang und die Prüfung von KI-Diensten, Sicherheitsvorkehrungen für die Überprüfung privater Daten und die Moderation von Antworten sowie das Erfassen von Leistungen und Kosten. Laut Harms verfügt LLM Mesh zudem auch über standardisierte Komponenten für die Entwicklung von Anwendungen, um Qualität und Konsistenz zu gewährleisten und gleichzeitig die vom Unternehmen erwartete Kontrolle und Leistung zu liefern.
Harms weiter: „So vereinfacht sich der Einsatz von LLMs, Vektordatenbanken und verschiedener IT-Infrastrukturen in Unternehmen. Unsere Launch-Partner Snowflake, Pinecone und AI21 Labs repräsentieren zudem mehrere Schlüsselkomponenten von LLM Mesh wie containerisierte Daten und Rechenkapazitäten, Vektordatenbanken und LLM-Builder.“
Mit AI21 Studio können u. a. aufgabenspezifische Foundational Models auf der Basis des LLM „Jurassic-2“ entwickelt werden. Pinecone bietet eine Vektor-Datenbank an. Pinecone wandelt als Tool die Informationen in Vektordaten um. Das jeweilige LLM des Kunden wird dank der Vektordatenbank mit dem gewünschten, spezifischen Wissen „ausgestattet“. Snowflake bietet als Cloud-Data-Warehouse-Plattform Storage- und Compute-Ressourcen an.
„Bei Dataiku überbrücken wir die Lücke zwischen theoretischem Potenzial und dem Einsatz generativer KI im Unternehmen in der Praxis“, sagt Clément Stenac, Chief Technology Officer und Mitgründer von Dataiku. „Wir sind sicher, dass LLM Mesh die Struktur und Kontrolle bietet, nach der viele gesucht haben, und so den Weg für sicherere, schnellere GenAI-Implementierungen ebnet, die echten Mehrwert generieren.“
Vier Ebenen des Betriebs oder der Nutzung
Bei den Zugriffen auf LLM Mesh gibt es nach Angaben von Harms vier Stufen der Realisierung:
Variante 1: Der Kunde nutzt direkt ein LLM wie etwa GPT-4 von OpenAI, beispielsweise für die Klassifizierung von Kundenbeschwerden bei einer Fluggesellschaft. API-Calls an OpenAI bezahlt man nach einem komplexen Modell der Preisgestaltung, für die aber eine Art Taschenrechner bereitsteht.
Variante 2: Prompt Engineering, also: „In der Regel textbasierte Anweisungen an ein Modell für gewünschte Textoutputs“, doch es muss laut Harms sehr skalierbar sein. Es eignet sich für proprietäre LLMs und quelloffene LLMs wie LLaMa von Meta. „Open Source“ heißt: Ein LLM wie LLaMa von Meta führt man in eigener IT-Umgebung aus, etwa in der Hybrid- oder Multi-Cloud. Harms: „Die Kosten für Speicher- und Rechenkapazitäten für die lokale Nutzung bezahlt man aber nicht an den Entwickler des Modells, wie beispielsweise Meta, sondern an den jeweiligen Cloud Service Provider.“
Variante 3: Hierbei werde laut Harms ein LLM mit eigenen (vektorisierten) Daten kombiniert. Das wäre beispielsweise bei einer Versicherung mit vertraulichen Daten empfehlenswert. Dabei ist die Nutzung von Retrieval Augmented Generation (RAG) einfach möglich und empfehlenswert. Der Kunde könnte dieses LLM in einer Private/Hybrid/ Multi-Cloud selbst hosten oder auf proprietäre Modelle zurückgreifen. Ein Berater kann helfen, dafür die kosteneffizienteste Lösung zu finden.
Variante 4: Der Kunde nutzt ein LLM und nimmt selbst dessen Feintuning, also Neugewichtung vor. „Aber dies ist sehr aufwendig, erfordert viele gute Trainingsdaten und ausreichend Rechenkapazitäten“, warnt Harms.
OpenAI-Preise
OpenAI, der Anbieter von GPT 3.5 und 4, hat eine Preisgestaltung, die auf einem Token-basierten Berechnungsmodell beruht. Harms führt ein Kostenbeispiel an: „Angenommen, ein Kunde nutzt ChatGPT 4.0 und einen Korpus von Dokumenten. Er nutzt Prompt Engineering und ein grafisches Interface. Ein Kalkulator innerhalb von Dataiku berechnet die Standardkosten für seine Nutzung und wirft sofort Ergebnisse aus.
Man rechne 1 NLP-Token pro Prompt (Input) und Ausgabe (Ergebnis): 1 Preiseinheit umfasst 1.000 Token, wobei 1 Token 0,75 englischen Wörtern entspricht und im Standardtarif 0,03 US-Dollar/User kostet. Ein Kilo-Token entspricht 750 Wörtern und kostet folglich 30,00 US-Dollar. Zum Vergleich: Die gesammelten Werke von William Shakespeare zählen etwa 900.000 Wörter, was 1,2 Millionen Token entspricht.
Nach Angaben von OpenAI sollten die Entwickler entweder GPT-4 oder GPT-3.5-Turbo nutzen. GPT 3.5 koste viel weniger pro Token als GPT-4. Der Interessent könne im „Playground“ damit experimentieren, um mit Prompts und Abfragen das geeignete LLM für sich zu finden. Das interaktive Tool heißt Tokenizer.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
In einem Dashboard des Nutzer-Accounts zeigt ein Überwachungswerkzeug, wie viele Token bereits verbraucht worden sind und wie hoch die Kosten für diesen Tarif liegen. Abgerechnet werden Input und Output separat, man zahlt also zweimal. Die Abos für ChatGPT API und ChatGPT Plus werden getrennt abgerechnet. Das ChatGPT-Plus-Abo deckt nur die Nutzung von Chat-GPT ab und kostet monatlich 20 US-Dollar.
Verfügbarkeit
v12.3 von Dataiku ist bereits verfügbar und unterstützt die oben genannten Varianten 1 bis 4.