Event-Streaming-Plattform aktualisiert Confluent Platform 6.0 veröffentlicht

Von Martin Hensel

Anbieter zum Thema

Die Apache-Kafka-basierte Event-Streaming-Plattform Confluent ist nun in Version 6.0 verfügbar. Zu den Neuerungen zählen Funktionen wie Self-Balancing-Cluster und Tiered Storage, die unter anderem für höhere Effizienz sorgen.

Die Confluent-Plattform ist ab sofort in Version 6.0 erhältlich.
Die Confluent-Plattform ist ab sofort in Version 6.0 erhältlich.
(Bild: Confluent)

Confluent 6.0 führt Self-Balancing-Cluster ein, um das Partition Rebalancing zu automatisieren. Zudem optimiert die Funktion den Kafka-Durchsatz, beschleunigt die Broker-Skalierung und reduziert die operative Belastung aufgrund großer Cluster. Im stationären Zustand überwachen die Self-Balancing-Cluster die Ressourcenauslastung über die Broker hinweg. Sie weisen Partitionen kontinuierlich neu zu, um Cluster-Leistung und -Balance stetig zu optimieren. Broker lassen sich zudem einfach hinzufügen und entfernen, um Kafka-Cluster elastischer zu gestalten.

Eine weitere Neuerung ist die Unterstützung von Tiered Storage. Unternehmen können damit theoretisch unendlich viele Event-Daten in Kafka speichern und somit eine Art zentrales Nervensystem für sämtliche Events schaffen. Entwickler von Event-Streaming-Anwendungen müssen sich demnach nicht mehr um Speicherbeschränkungen sorgen. Dies gilt unabhängig davon, ob Echtzeit- oder historische Daten zum Einsatz kommen. Zudem lassen sich Machine-Learning-Modelle auf Basis eines historischen Datenstroms trainieren.

Weitere Neuheiten

Confluent 6.0 hat nun auch die ksqlDB als Event-Streaming-Datenbank an Bord. Sie ersetzt die bisherigen Subsysteme und soll für schnellere und einfachere Entwicklungsprozesse sorgen. Ebenfalls neu sind REST-APIs. Sie sollen als Alternative zum Confluent Control Center dienen, um Verwaltungsvorgänge zu automatisieren.

Als Preview bringt Confluent 6.0 zudem Cluster Linking mit. Die Funktion soll Daten schnell und effizient zwischen Cloud Services und hybriden Architekturen verknüpfen. Gleichzeitig soll sie mit unkomplizierter Handhabung und Skalierbarkeit punkten. Mittels Cluster Linking können zwei oder mehr Kafka-Cluster Daten replizieren, ohne dazu weitere Komponenten zu benötigen. Unternehmen können somit ohne großen Aufwand Kafka-Cluster zwischen unterschiedlichen Umgebungen und über beliebige Entfernungen hinweg verbinden.

Detaillierte Informationen zu den Neuerungen in Confluent 6.0 hält ein ausführlicher Blog-Post bereit.

(ID:46955477)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung