Die Deutsche Post DHL transportiert an einem Tag nicht nur Millionen physische Pakete: Auch innerhalb der IT-Landschaft des Postunternehmens wandern täglich rund ein Terabyte an Datenpaketen von einem System zum nächsten. Paketversand und diverse Zusatzleistungen hängen maßgeblich davon ab, dass diese Systeme uneingeschränkt miteinander kommunizieren und Daten in Echtzeit bereitgestellt werden. Doch die Anzahl der Datenpakete wächst rasant an – ein Umstand, der die Deutsche Post dazu veranlasst, ihre Systemlandschaft zu modernisieren. Hierbei setzen sie auf Apache Kafka und Confluent, damit die großen Datenmengen in Echtzeit verarbeitet und korreliert werden können.
Der Autor: Kai Waehner ist Field CTO / Global Technology Advisor bei Confluent
(www.kayser-fotografie.de)
Wir geben ein Paket bei der Deutschen Post ab, dieses wird eingescannt und bis zum Weitertransport verstaut. Bei Bedarf erhalten wir noch einen Beleg für die Online-Sendungsverfolgung und schon ist der Versandprozess für uns an dieser Stelle beendet und wir vertrauen darauf, dass das Paket unbeschadet am Ziel ankommt. Doch was braucht es abgesehen von Mitarbeitern, Fließbändern und Transportfahrzeugen, damit Pakete am vorgesehenen Abgabeort ankommen? Was passiert hinter den Kulissen im virtuellen Raum? Welche digitalen Prozesse spielen sich ab, damit diese kritische Infrastruktur funktioniert?
Der Status quo der Datenverarbeitung bei der Deutschen Post DHL
Der Schlüssel hierfür sind Daten, die sich ständig in Bewegung befinden, in Echtzeit verarbeitet und zwischen den verschiedenen Systemen transportiert und integriert werden. Dieses Konzept wird „Data in Motion“ genannt. Sobald ein Angestellter in einer der DHL-Filialen das Paket bei der Annahme einscannt, erzeugt das System Event-Daten. Vom Transport zum Paketzentrum bis hin zur eigentlichen Zustellung beim Empfänger: Während der gesamten Verarbeitung entstehen unzählige Events, die verarbeitet und zu den Zielsystemen transportiert werden müssen. Mehr als 170 Millionen solcher Nachrichten stellen täglich den reibungslosen Paketversand sicher. Das entspricht einem täglichen Datendurchsatz von über einem Terabyte. Diese Zahl soll künftig sogar weiter anwachsen: Die Deutsche Post rechnet in den kommenden Jahren mit mehr als 250 Millionen Events täglich und mit einem Peak-Durchsatz von über 7.500 Nachrichten pro Sekunde – eine Entwicklung, die die derzeitige Systemlandschaft der Deutschen Post nicht stemmen könnte.
Das Verarbeitungssystem, das die Deutsche Post bis dato nutzte, besteht grundlegend aus zahlreichen Punkt-zu-Punkt-Verbindungen zwischen Datenproduzenten und -konsumenten und basiert auf der Messaging-orientierten Middleware IBM MQ. Diese sammelt die Daten, die die verschiedenen Systeme generieren und leitet sie an eine webMethods-basierte Track-Event-Integration-Plattform weiter, die die Daten anreichert. Über IBM MQ gelangen die Daten in das hauseigene Verteilsystem, das in einem WebLogic Application Server implementiert ist. Hier entstehen wiederum neue Events, die die Konsumenten direkt mit den Daten zu beispielsweise logistischen und kaufmännischen Aktivitäten versorgen. Eine Skalierung ist in einer solchen Umgebung schwer möglich, denn die steigende Event-Menge könnte nicht effizient und schnell genug verarbeitet werden. Es war also an der Zeit für eine Modernisierung.
Apache Kafka für eine effiziente Datenbereitstellung
Die Modernisierung sieht vor allem den Austausch der gesamten Transportlandschaft vor. Da die Datenproduzenten und -konsumenten vorerst weiterhin IBM MQ nutzen und sich auf die reibungslose Funktionalität der Middleware verlassen müssen, kann diese Umstellung nur sukzessiv verlaufen. Außerdem sollte die neue Transportplattform nicht nur den steigenden Event-Anforderungen der Deutschen Post gerecht werden, indem sie eine effiziente Verarbeitung und Integration großer Datenmengen in Echtzeit ermöglicht. Sie muss zudem eine hohe Verfügbarkeit aufweisen und ausfallsicher sein. Daher entschied sich die Deutsche Post für den Einsatz der hochskalierbaren, hochverfügbaren und ausfallsicheren Daten-Streaming-Plattform Confluent, basierend auf Apache Kafka.
Zunächst setzte die Deutsche Post Kafka hauptsächlich für den Datenausgang ein, sodass Daten produzierende Systeme weiterhin mit IBM MQ arbeiten könnten und die erzeugten Events über die Middleware transportiert werden. Diese laufen wie gewohnt über die Track-Event-Integration-Plattform und IBM MQ in das Verteilsystem, das jedoch nun auf Basis einer Spring-Boot-Applikation umgesetzt wird, die sich einfacher horizontal skalieren lässt. Kafka nimmt diese Daten auf, woraufhin ein Distributor sie an die Konsumenten aufteilt.
Ein Blick in die Zukunft
Bislang hat sich die Deutsche Post vor allem auf den Datenausgang konzentriert. Jedoch besteht das System aus weit mehr als Datenkonsumenten. Dieses Jahr plant die Deutsche Post, Apache Kafka und Confluent auch im Rahmen der Datenproduktion sowohl in der Cloud als auch On-Prem anzubieten. Dabei löst Kafka IBM MQ ab, bezieht die Daten direkt von den Produzenten und speist sie in die Track-Event-Integration-Plattform. Daraufhin beliefert Kafka das hauseigene, über eine Spring-Boot-Applikation umgesetzte Verteilsystem mit den angereicherten Daten.
Neben dem Dateneingang bleibt die weitere Modernisierung des Datenausgangs auch in den kommenden Jahren ein Thema: Hier erhalten einige Konsumenten derzeit die Daten weiterhin über Punkt-zu-Punkt-Verbindungen direkt von IBM MQ. Diese ineffiziente Form der Datenbereitstellung plant die Deutsche Post mittels des Publish-Subscribe-Prinzips zu umgehen. Unabhängig von den Releases des Verteilsystems sollen Datenkonsumenten künftig selbst bestimmen können, welche Daten relevant sind und die entsprechenden Kafka Topics abonnieren. Auf diesem Weg können die sich bewegenden Daten effizienter und in Echtzeit über eine einzige technologische Schnittstelle bereitgestellt werden, unabhängig davon ob der Konsument eine Streaming-Anwendung, ein Web Service, eine Datenbank oder eine Mobile App ist.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die sukzessive Umstellung auf ein Transportsystem auf Basis von Confluent und Apache Kafka zielt darauf ab, dass die Deutsche Post auch in Zukunft den steigenden Datenanforderungen gerecht wird. Denn nur dadurch kann das Unternehmen den reibungslosen Paketversand in Deutschland und darüber hinaus gewährleisten.