Generative KI-Anwendungen effizient erstellen Databricks stellt leistungsfähiges Sprachmodell DBRX vor

Von Martin Hensel 2 min Lesedauer

Anbieter zum Thema

Mit dem General Purpose Large Language Model (LLM) DBRX will Databricks einen neuen Standard für effiziente Open-Source-Modelle setzen. DBRX soll den Aufbau generativer KI-Anwendungen in Produktionsqualität bei gleichzeitiger Datenkontrolle ermöglichen.

DBRX schlägt nach Industriestandards bestehende Open Source LLMs wie Llama 2 70B und Mxtral-8x7B in den Bereichen Sprachverständnis, Programmierung, Mathematik und Logik.(Bild:  Databricks)
DBRX schlägt nach Industriestandards bestehende Open Source LLMs wie Llama 2 70B und Mxtral-8x7B in den Bereichen Sprachverständnis, Programmierung, Mathematik und Logik.
(Bild: Databricks)

DBRX schneidet laut Databricks bei Standard-Benchmarks besser als alle anderen verfügbaren Open-Source-Modelle ab, darunter etwa Llama 2 70B oder Mxtral-8x7B. Es soll das Training und Feintuning der kundenspezifischen und leistungsfähigen LLMs demokratisieren. Auf diese Weise sind Unternehmen nicht mehr auf einige wenige geschlossene Modelle angewiesen.

Zudem soll DBRX das derzeit kostengünstigste Aufbauen, Trainieren und Bereitstellen eigener LLMs ermöglichen, ohne dabei einen Kontrollverlust über die eigenen Daten und das geistige Eigentum riskieren zu müssen. Erstellte KI-Anwendungen bieten unter anderem eingebautes Datenmanagement sowie Governance-, Lineage- und Monitoring-Fähigkeiten auf der Databricks-Data-Intelligence-Plattform.

Hohe Performance und Schritt in die Zukunft

DBRX wurde von Mosaic AI entwickelt und auf der Nvidia DGX Cloud trainiert. Databricks optimiert das LLM auf Effizienz. Mit seiner „Mixture of Experts“-Architektur (MoE) baut es zudem auf dem quelloffenen MegaBlocks-Projekt auf. Im Ergebnis soll das Modell mit hoher Performance punkten und ist im Vergleich mit anderen gängigen LLMs zweimal so Compute-effizient. Unternehmen gehen zudem von einem starken Wandel von geschlossenen hin zu offenen Modellen aus – diesen Trend will Databricks mit DBRX beschleunigen.

„Wir freuen uns über DBRX aus drei zentralen Gründen: Erstens, es schlägt Open-Source-Modelle nach modernen Industrie-Benchmarks. Zweitens, es schlägt GPT-3.5 nach den meisten Benchmarks, was den Trend beschleunigen sollte, den wir über unsere Kunden hinweg beobachten: Organisationen ersetzen proprietäre Modelle mit Open-Source-Modellen. Und zu guter Letzt nutzt DBRX eine „Mixture-of-Experts“-Architektur, was dazu führt, dass das Modell sehr schnell ist, wenn man die Tokens per Sekunde als Maßstab nimmt. Darüber hinaus ist es kostengünstig zu betreiben“, erklärt Databricks-CEO Ali Ghodsi.

Verfügbarkeit

DBRX ist auf GitHub und Hugging Face für die Forschung und den kommerziellen Gebrauch freigegeben. Zudem ist DBRX auf der Databricks-Plattform sowie AWS, Google Cloud und Microsoft Azure verfügbar. Künftig soll das LLM auch im Nvidia API Catalog zu finden sein und vom Nvidia NIM Inference Microservice unterstützt werden.

(ID:50012795)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung