Auf der Anwenderkonferenz Data + AI Summit 2025 hat Databricks unter anderem die zwei neuen Produkte „AI Agent Bricks“ und „Lakeflow Designer“ angekündigt. Mit AI Agents lassen sich unternehmensinterne KI-Agenten automatisiert erstellen. Lakeflow Designer ist eine No/Low-Code-ETL-Lösung für Analysten und Produktmanager.
Databricks hat auf der Anwenderkonferenz Data + AI Summit 2025 unter anderem die beiden Produkte „AI Agent Bricks“ und „Lakeflow Designer“ vorgestellt.
(Bild: GRANT TERZAKIS)
Joel Minnick, VP Product Marketing bei Databricks
(Bild: Databricks)
„AI Agent Bricks ist eine neue, automatisierte Methode zur Erstellung leistungsstarker AI Agents, die auf Unternehmen zugeschnitten sind“, sagte Joel Minnick, der Marketingleiter von Databricks im Gespräch. „Sie müssen lediglich eine allgemeine Beschreibung der Aufgabe des Agenten bereitstellen und ihre Unternehmensdaten verbinden – Agent Bricks kümmert sich um den Rest.“
Agent Bricks sei für gängige Anwendungsfälle in der Branche optimiert, darunter die Extraktion strukturierter Informationen, zuverlässige Wissensunterstützung, benutzerdefinierte Textumwandlung und koordinierte Multi-Agenten-Systeme. „Agent Bricks ist seit dem 11. Juni in der Beta-Version verfügbar“, so Minnick.
Agent Bricks verwendet laut Minnick neuartige Technologien, die von Mosaic AI Research entwickelt wurden. „Dazu gehört die Erzeugung domänenspezifischer synthetischer Daten, denn immer wieder mangelt es den Entwicklern an einer ausreichenden Menge von Daten. Das hat sie bislang daran gehindert, große und vielfältige Datensätze für Trainingsmodelle zu erstellen.“
Von Beginn an Produktionsgenauigkeit und Kosteneffizienz
Agent Bricks generiere zudem aufgabenbezogene Benchmarks, damit es auf der Grundlage dieser Benchmarks automatisch Kosten und Qualität optimieren kann. „So erspart es Unternehmen das mühsame Ausprobieren aktueller Ansätze und damit auch viel Zeitaufwand“, freut sich Minnick. „Jetzt können Teams von Anfang an Produktionsgenauigkeit und Kosteneffizienz erreichen. Dank integrierter Governance- und unternehmensweiter Kontrollen können Teams schnell vom Konzept zur Produktion übergehen, ohne separate Tools miteinander verbinden zu müssen.“
Damit die neuen KI-Agenten nicht nur von Spezialisten, sondern auch von Produktmanagern erstellt werden können, muss der gesamte Erzeugungsvorgang möglichst automatisiert ablaufen. „Die Lösung ist in der Lage, für jedes KI-Szenario intelligent das richtige KI-Modell und die richtige Speicherkonfiguration auszuwählen“, verspricht Joel Minnick. „Der Nutzer muss lediglich den Prozess anstoßen und angeben, welche firmeninternen Daten er mit dem Agenten verbinden möchte.“
Am Ende dieses automatisierten Workflows müsse das Unternehmen lediglich die Iteration auswählen, die dem von ihm gewünschten Verhältnis zwischen Qualität und Kosten entspricht. „Das Ergebnis: ein produktionsreifer, domänenspezifischer AI Agent, der schnell konsistente, intelligente Ergebnisse liefert“, resümiert Minnick. „Als wir das Werkzeug bei AstraZeneca in Betrieb nahmen, gelang uns die Produktion des KI-Agenten bereits binnen sechzig Minuten.“
„Mit Agent Bricks konnten unsere Teams mehr als 400.000 Dokumente aus klinischen Studien analysieren und strukturierte Datenpunkte extrahieren – ohne eine einzige Zeile Code zu schreiben“, berichtet Joseph Roemer, Head of Data & AI, Commercial IT bei AstraZeneca. „In weniger als 60 Minuten hatten wir einen funktionierenden Agenten, der komplexe unstrukturierte Daten für die Analyse nutzbar machen kann.“
Vier Komponenten
Minnick stellte vier Komponenten von AI Agent Bricks vor. Der „Information Extraction Agent“ wandelt Dokumente wie E-Mails, PDFs und Berichte in strukturierte Felder wie Namen, Daten und Produktdetails um. „Einzelhandelsunternehmen können Produktdetails, Preise und Beschreibungen ganz einfach aus PDF-Dateien von Lieferanten extrahieren, selbst wenn die Dokumente komplex sind oder unterschiedliche Formate haben“, so Minnick.
Der „Knowledge Assistant Agent“ löse das Problem vager oder völlig falscher Antworten von Chatbots und liefere schnelle, präzise Antworten, die auf Unternehmensdaten basieren. Fertigungsunternehmen können ihren Technikern die Möglichkeit geben, sofortige, zitierfähige Antworten aus Handlungsanleitungen und Wartungshandbüchern zu erhalten, ohne Ordner durchsuchen zu müssen.
Der „Custom LLM Agent“ transformiere Text für benutzerdefinierte Aufgaben wie die Erstellung von Inhalten oder benutzerdefinierten Chats – optimiert für Ihre Branche. Marketingteams könnten maßgeschneiderte Agenten erstellen, um Marketingtexte, Blogs oder Pressemitteilungen zu generieren, die der Marke ihres Unternehmens entsprechen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Der „Multi-Agent Supervisor“ soll Teams den Aufbau von Multi-Agenten-Systemen erlauben, die Agenten über „Databricks Genie-Spaces“, andere LLM-Agenten und Protokolle wie MCP (Model Context Protocol) nahtlos miteinander verbinden. Finanzdienstleister könnten mehrere Agenten koordinieren, um Absichtserkennung, Dokumentenabruf und Compliance-Prüfungen durchzuführen und so vollständige, personalisierte Antworten für Berater und Kunden zu erstellen.
„Jedes Multi-Agenten-System benötigt natürlich einen Supervisor, der es orchestriert.“ Dazu werde das A2A-Protokoll von Google genutzt. Zu der Frage, wie künftig Agenten von Drittanbietern zertifiziert werden sollen, machte Minnick keine Angaben. Eine Antwort auf diese Frage hat bislang nur SAP gegeben: Die Zertifizierung erfolgt in der jeweiligen Entwicklungsumgebung.
Unterstützung für Serverless GPUs
Databricks biete nun Unterstützung für serverlose GPUs, sodass Teams Modelle optimieren, klassische ML-Workloads ausführen und mit großen Sprachmodellen experimentieren können – und das alles ohne Bereitstellung oder Verwaltung einer GPU-Infrastruktur. Mit serverloser GPU-Rechenleistung erhalten Benutzer einen sofortigen, skalierbaren Zugriff auf leistungsstarke Rechenressourcen, sodass sie KI-Anwendungen schneller und ohne den Betriebsaufwand oder die Kostenineffizienzen herkömmlicher GPU-Cluster entwickeln können.
MLflow 3.0
Databricks hat am 11. Juni MLflow 3.0 veröffentlicht, die neueste Version des weltweit beliebtesten Frameworks für die KI-Entwicklung. MLflow 3.0 wurde komplett für GenAI überarbeitet und ermöglicht es Anwendern, KI-Agenten auf jeder Plattform zu überwachen und zu optimieren. Mit integrierter Prompt-Verwaltung, Qualitätsmetriken, menschlichem Feedback und LLM-basierter Bewertung können Teams die Leistung von KI-Agenten über verschiedene Umgebungen hinweg einfach visualisieren, vergleichen und debuggen. MLflow-Trace- und Bewertungsergebnisse können in jedes bestehende Data Lakehouse integriert werden, sodass Benutzer Produktions-Trace-Daten nutzen können, um die Genauigkeit ihrer Agenten zu verbessern.
Agent Bricks und Serverless GPU Compute sind in der Beta-Version verfügbar. Das quelloffene Tool MLflow 3.0 ist allgemein verfügbar.
Lakeflow Designer
Der neue Lakeflow Designer bietet eine No-Code-Erfahrung für die Implementierung von ETL.
(Bild: Databricks)
„Diese neue No-Code-ETL-Funktion ermöglicht es nicht-technischen Anwendern, mithilfe einer visuellen Drag-and-drop-Oberfläche und einem GenAI-Assistenten in natürlicher Sprache produktionsreife Datenpipelines zu erstellen“, sagte Joel Minnick. „Lakeflow Designer wird von Lakeflow unterstützt, einer einheitlichen Lösung für Dateningenieure zum schnelleren Aufbau zuverlässiger Datenpipelines mit allen geschäftskritischen Daten, die jetzt allgemein verfügbar ist.“
Mit dem neuen Lakeflow Designer sollen Business-Analystiker ohne Programmierkenntnisse ETL-Pipelines mit natürlicher Sprache und einer Drag-and-drop-Benutzeroberfläche erstellen können, die dieselbe Skalierbarkeit, Governance und Wartbarkeit bieten wie die von Data Engineers entwickelten Pipelines. Dank der Unterstützung durch Lakeflow, Unity Catalog und Databricks Assistant beseitige Lakeflow Designer die Kluft zwischen Code- und No-Code-Tools.
„Mit diesem neuen Ansatz erhalten nicht-technische Benutzer die Geschwindigkeit und Flexibilität, die sie zur Lösung von Geschäftsproblemen benötigen, ohne Data Engineers mit Wartungsproblemen und Governance-Aufgaben zu belasten“, ist Minnick überzeugt. „Das Tool ist bereits bei der Porsche Holding im Einsatz.“
Minnick kündigte zudem neue Point-and-Click-Ingestionskonnektoren für Lakeflow Connect für Google Analytics, ServiceNow, SQL Server, SharePoint, PostgreSQL und SFTP an. Sie ergänzen die bereits verfügbaren Konnektoren für Salesforce und Workday. Als Vorteil versprach Minnick echte Demokratisierung: „Lakeflow unter der Haube stellt sicher, dass Analysten etwas entwickeln, das das Unternehmen auch tatsächlich nutzen kann.“
Zerobus
Mit Zerobus sollen Entwickler große Mengen an Ereignisdaten mit nahezu Echtzeit-Latenz in ihr Lakehouse schreiben können, ohne zusätzliche Infrastruktur wie einen Message Bus verwalten zu müssen. Diese optimierte, serverlose Infrastruktur biete skalierbare Leistung für IoT-Ereignisse, Clickstream-Daten, Telemetrie und andere ereignisgesteuerte Anwendungsfälle.
Verfügbarkeit
Databricks Lakeflow ist allgemein verfügbar, die neue IDE für Data Engineering geht in die Public Preview, ebenso wie die neuen Ingestionskonnektoren, Zerobus und Lakeflow Designer.
Neue OLTP-Datenbank
Databricks hat die Einführung von Lakebase bekanntgegeben, einer vollständig verwalteten Postgres-Datenbank für KI. Mit Lakebase erweitert Databricks seine Data Intelligence Platform um eine operative Datenbankschicht.
Das neue Lakebase, das auf der Neon-Technologie basiert, bringt Betriebsdaten in das Lakehouse mit kontinuierlicher automatischer Skalierung der Rechenleistung zur Unterstützung der Agenten-Workloads und vereinheitliche Betriebs- und Analysedaten. „Entwickler und Unternehmen können nun Datenanwendungen und AI Agents schneller und einfacher auf einer einzigen Multi-Cloud-Plattform erstellen.“, so Joel Minnick. Lakebase sei nun in der Public Preview verfügbar.
Bildungsinitiative
Eine neue Databricks-Bildungsinitiative umfasst die Einführung der Databricks Free Edition, einem neuen Angebot, mit dem jeder – von Studenten, Hobbyanwendern und angehenden Fachleuten bis hin zu Universitätssystemen – kostenlosen Zugang zu allen Funktionen der Databricks Data Intelligence Platform sowie zu einem umfassenden Schulungsangebot erhält, um seine Kenntnisse im Bereich Daten- und KI-Technologien zu vertiefen.
Eher an Geschäftsanwender wendet sich das neue Angebot Databricks One. „Zum ersten Mal können Geschäftsanwender mit AI/BI-Dashboards interagieren, ihre Datenfragen in natürlicher Sprache über den AI/BI-Genie stellen, der auf fundierten Forschungsergebnissen basiert, schnell relevante Dashboards finden und maßgeschneiderte Databricks-Apps nutzen – alles in einer eleganten, codefreien Umgebung, die speziell für ihre Anforderungen entwickelt wurde“, sagte Joel Minnick.
„Mit Databricks AI/BI haben wir eine Reihe von Dashboards entwickelt, von denen jeder Mitarbeiter von Wineshipping profitieren kann“, sagte Christina Mottolo, VP Business Applications bei der Firma Wineshipping. „Mit Databricks One können wir diese Dashboards sicher in einer Umgebung bereitstellen, die für alle Benutzer intuitiv und zugänglich ist.“
Databricks One ist seit dem 11. Juni für Kunden der Databricks Intelligence Platform in einer Private Preview verfügbar und soll im Laufe dieses Sommers für alle Kunden in der Beta-Version verfügbar sein, ohne zusätzliche Kosten.