Kommentar von Patrick Gunia, HelloFresh SE Data-Plattform – in drei Schritten zum personalisierten Marketing

Von Patrick Gunia 5 min Lesedauer

Anbieter zum Thema

GenAI und Machine Learning sind heutzutage in aller Munde, trotzdem wird immer noch zu häufig die zentrale Bedeutung qualitativ hochwertiger Daten übersehen. Unternehmen erzeugen täglich eine Unmenge an Daten – sie effizient zu nutzen bleibt aber weiterhin eine häufig ungelöste Herausforderung.

Der Autor: Patrick Gunia ist Senior Director AI/ML bei HelloFresh SE (Bild:  HelloFresh SE)
Der Autor: Patrick Gunia ist Senior Director AI/ML bei HelloFresh SE
(Bild: HelloFresh SE)

Daten spielen eine zentrale Rolle in der Produktentwicklung, allerdings reicht es nicht aus, sie nur zu sammeln. Es ist wichtig, sie kontinuierlich und in hoher Qualität nutzbar zu machen, um Mehrwert zu generieren. Das ist zentral für moderne Machine-Learning-Anwendungen, aber auch für eher traditionelle Produkte. Bei diesen ist ein holistisches Verständnis der eigenen Kunden entscheidend dafür, für sie maßgeschneiderte Produkte zu entwickeln – von der personalisierten Kundenerfahrung im digitalen Produkt bis hin zur hyper-personalisierten Ansprache im Marketing.

Das Fundament: Demokratisierung der Daten mit einer Datenplattform

Begriffe wie Data Mesh und Daten-Demokratisierung fallen in diesem Kontext häufig – aber wie setzt man das praktisch um? Wie ermöglicht man auch solchen Teams die Arbeit mit Daten, denen dedizierte Data-Engineering-Kapazität fehlt? Solche Teams konnten lange Zeit eine große Menge der eigentlich verfügbaren Daten nicht in ihrer Produktentwicklung oder Entscheidungsfindung verwenden.

Um dieses Problem zu lösen, haben wir Werkzeuge entwickelt, die den Zugang zu Daten und der datengetriebenen Produktentwicklung demokratisieren. Ein solches Werkzeug ist „Tardis”, ein Framework, dass es Entwicklern erlaubt, Datenoperationen in Form von SQL-Statements auszudrücken, ohne sich um die darunterliegende Infrastruktur und die Ausführung der Operationen sorgen zu müssen. Der Zweck von Werkzeugen wie Tardis und der Datenplattform als Ganzes liegt darin, Softwareentwickler zu befähigen, Datenprodukte zu erstellen, sie für Analysen oder maschinelles Lernen bereitzustellen und deren Qualität zu überwachen.

Früher mussten Teams ihre eigene Dateninfrastruktur, wie S3-Buckets und Airflow-Cluster, aufsetzen, Daten-Pipelines darauf entwickeln und sicherstellen, dass diese Pipelines alle Aspekte wie Sicherheit, Datenschutz und Zugriffskontrollen berücksichtigen. Zusätzlich mussten sie eine hohe Datenqualität gewährleisten, um den reibungslosen Betrieb der Pipelines sicherzustellen. Darüber hinaus waren Integrationen mit den notwendigen Downstream-Systemen wie beispielsweise Datenbanken erforderlich, um die Datenprodukte nutzbar zu machen. Dieser Prozess konnte Tage bis Wochen in Anspruch nehmen. Heute können Teams ihre Anforderungen über ein CLI schnell definieren und innerhalb von Minuten von einer operativen Datenquelle zu einem fertigen Datenprodukt gelangen. Diese Datenprodukte sind die Basis dafür, KI-Modelle für personalisierte Kundenansprache zu bauen.

Mit der Marketing-Plattform zum Bau von KI-Modellen zur Hyperpersonalisierung

Ein bedeutender Hebel für effizientes Marketing ist der Grad ihrer Personalisierung. Je besser man den Kunden kennt und seine Präferenzen versteht, desto besser kann man die Kommunikation maßschneidern. Personalisierung findet dabei auf verschiedenen Ebenen statt und basiert auf den Daten, die über den Kunden vorhanden sind. Auf der Nachrichtenebene besteht Personalisierung darin, den bevorzugten Kommunikationskanal pro Kunden auszuwählen und zu berücksichtigen, wann und wie viele Nachrichten der Kunde erhalten will. Während manche Kunden die klassische E-Mail bevorzugen und mehreren Kontakten pro Woche positiv gegenüberstehen, möchten andere lieber weniger Nachrichten erhalten, dafür aber per SMS, Push Notification oder über andere mobile Kanäle. Machine Learning spielt in diesem Zusammenhang eine wichtige Rolle, da es dabei hilft, individuelle Kundenpräferenzen vorherzusagen und die Kommunikationsstrategie an diese anzupassen.

Auf der Ebene der Marketing-Kampagne verwendet man Machine-Learning-Modelle, um maßgeschneiderten Content zu erstellen. Bei der Content-Generierung spielen GenAI-Technologien eine große Rolle. Die Modelle werden über Techniken wie Retrieval Augmented Generation (RAG) oder Finetuning immer weiter personalisiert, um das Wissen über den Kunden effizient zu nutzen.

Die letzte Ebene der Personalisierung findet bei der Segmentierung statt, also der Entscheidung, welcher Kunde welche Kommunikation erhalten soll. Hier kommen Customer-Data-Plattformen zum Einsatz, in denen man das vorhandene Kundenwissen aus einer Vielzahl unterschiedlicher Data Sources aggregiert, aufbereitet und dann „aktiviert”, also für unterschiedliche Use Cases zur Verfügung steht.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Allen diesen Personalisierungs-Ansätzen ist gemein, dass sie vom Vorhandensein und der Qualität von umfangreichen Datenbeständen profitieren. Je besser und vollständiger das Wissen über die Kunden ist, desto besser funktioniert die Personalisierung – und damit die Kapitalrendite im Marketing.

Experimentieren für langfristigen Erfolg

Experimentieren ist ein entscheidender Bestandteil des Produktentwicklungszyklus. Teams aus dem Marketing- und Produktbereich führen bei HelloFresh jedes Jahr Tausende von Experimenten durch, um ihre Hypothesen über die Auswirkungen einer Änderung auf unsere Nutzerinnen und Nutzer zu validieren. Experimentieren ist eine sehr datenintensive Aufgabe, insbesondere in zwei Bereichen.

Zunächst geht es um die Segmentierung: Ähnlich wie bei der personalisierten Ansprache im Marketing muss hier entschieden werden, welche Kundinnen und Kunden sich für Experimente, beispielsweise von neuen Produktfeatures in der App, eignen.

Der zweite Bereich, in dem Daten benötigt werden, ist die eigentliche Analyse und Entscheidungsfindung des Experiments. Die Teams definieren verschiedene primäre, sekundäre und Guard-Rail-Metriken, für die die Auswirkungen des Experiments berechnet werden. Die Qualität und insbesondere die Korrektheit dieser Metriken ist entscheidend für die Entscheidungsfindung. Qualitativ hochwertige Datenprodukte, die wir aus der Datenplattform gewonnen haben, sind auch hier der entscheidende Baustein für den Erfolg. Dank des dezentralen Zugangs zu Daten können effiziente KI-Modelle mit Experimenten getestet und in der personalisierten Kundenansprache genutzt werden.

Effizientes Teammanagement –neue Aufgaben für Data Engineers

Phrasen wie „Daten sind das neue Öl“ sind in der Branche zu einem Mantra geworden. Hochwertige Daten sind entscheidend für die Produktentwicklung, insbesondere mit dem Aufstieg von maschinellem Lernen und GenAI. Während Unternehmen immer besser darin werden, Daten zu sammeln, bleibt die Aktivierung dieser Daten eine Herausforderung und erfordert hochqualifizierte und stark nachgefragte Spezialisten im Data-Engineering-Bereich. Data-Platform-Teams können dazu beitragen, diesen Engpass zu lösen, indem sie Tools und Datenprodukte entwickeln, die es Mitarbeitern außerhalb der Data-Engineering-Berufsfamilie ermöglichen, Daten-Pipelines zu verwenden, um neue Produktfeatures zu entwickeln und unseren Kunden zur Verfügung zu stellen.

Indem sie die Komplexität von Daten-Pipelines und der dahinter liegenden Infrastruktur abstrahieren und Technologien wie zum Beispiel SQL verwenden, die außerhalb des Data-Engineering-Bereichs gut verstanden werden, kann der Zugang zu Daten erweitert und demokratisiert werden. In Kombination mit Initiativen zur Verbesserung der Datenqualität — beispielsweise durch Zertifizierung und Dokumentation – können Teams die richtigen Datensätze schneller finden und auf Datenprodukten aufbauen, die in verschiedenen Teilen der Organisation entwickelt wurden. Das ist ein wichtiges Prinzip des Data-Mesh-Designs und kann dazu beitragen, die Entwicklung und das Ausrollen neuer datengetriebener Produkte zu beschleunigen.

Teams müssen das Rad nicht mehr neu erfinden, sondern können auf der Arbeit aufbauen, die andere zuvor geleistet haben. Tools wie das Tracking der Datenherkunft (Data Lineage), die Definition von Data Contracts zur Definition von Service-Level-Objectives (SLOs) sowie eine qualitativ hochwertige Dokumentation von Assets sind in diesem Zusammenhang entscheidend und sollten von einem starken Data-Platform-Team bereitgestellt werden. Sobald ein Unternehmen diese Fähigkeiten entwickelt hat, wird die Grenze zwischen Data Engineering und anderen Bereichen zunehmend verschwimmen. Das befähigt Unternehmen zum einen, mehr datengetriebene Produkte zu entwickeln, die auf ihre Kunden zugeschnitten sind. Zum anderen entlastet es Data Engineers, die sich auf andere komplexe Aufgaben innerhalb des Unternehmens konzentrieren können.

Die erfolgreiche Nutzung von Daten erfordert mehr als nur deren Erfassung – sie müssen zugänglich, qualitativ hochwertig und für Teams nutzbar sein. Durch die Demokratisierung von Daten und den Einsatz moderner Tools können Unternehmen personalisierte Marketingstrategien entwickeln und KI-Modelle effizient einsetzen. So wird die Grundlage für datengetriebene Innovationen geschaffen, die langfristigen Erfolg sichern.

Artikelfiles und Artikellinks

(ID:50168406)