Event-Streaming-Plattform Confluent schließt Project Metamorphosis erfolgreich ab

Von Christoph Kurth |

Anbieter zum Thema

Confluent, Anbieter der auf Apache Kafka basierenden Event-Streaming-Plattform, stellt neue, vollständig verwaltete Konnektoren vor. Mit diesen soll die nahtlose Integration von Events in Cloud-, On-Premises- oder Hybrid-Umgebungen unterstützt werden.

Confluent hat mit Project Metamorphosis eine komplette Event-Streaming-Plattform aufgebaut.
Confluent hat mit Project Metamorphosis eine komplette Event-Streaming-Plattform aufgebaut.
(Bild: Confluent)

In der heutigen Zeit erwarten Kunden immer reaktionsschnellere Anwendungen und Erlebnisse in Echtzeit. Die Konnektoren sollen es Unternehmen ermöglichen, Daten aus ihrer gesamten Organisation zusammenzuführen und analysieren zu können, um die Kundenerfahrung und operative Effizienz zu verbessern. Jay Kreps, Mitbegründer und CEO von Confluent, sagt: „Mit einer Event-Streaming-Plattform als zentralem Nervensystem für alle Echtzeitdaten eines Unternehmens werden Anwendungen agiler, intelligenter und reaktionsschneller.“

Um Unternehmen bei der Entwicklung von Event-Streaming-Anwendungen zu unterstützen, hat Confluent den Confluent Hub entwickelt. Dieser stellt auf einer Benutzeroberfläche 120 Konnektoren vor, von denen derzeit 30 vollständig verwaltet sind.

Neuerungen des Confluent Hubs:

  • Vollständig verwaltete Kafka-Connectors
    Diese sollen der schnelleren Entwicklung von event-getriebenen, serverlosen Anwendungen dienen, einfach skalierbar sein und das einfache Verschieben von Daten in und aus Kafka ermöglichen.
  • Selbstverwalteter Kafka-Connector
    Mit diesen Connectors sollen Datensilos in Legacy-Systemen aufgebrochen werden. Unternehmen können beispielsweise sicherstellen, dass andere Anwendungen wissen, wenn Daten in der Oracle-Datenbank geändert oder gelöscht wurden. Das soll genauere Echtzeit-Analysen und eine schnellere Datenbankmigration ermöglichen.
  • Echtzeit-Stream-Verarbeitung von ksqlDB
    Mit ksqlDB-Pull-Abfragen, sollen sich Point-in-Time-Abfragen für einen Event-Stream durchführen lassen. Anwendungen können so problemlos Informationen wie die aktuelle Adresse oder den Mitgliedsstatus eines Kunden abrufen und entsprechend agieren. In Verbindung mit ksqlDB-Push-Abfragen in der Confluent Cloud sollen zudem schnell umfassende Event-Streaming-Anwendungen erstellt werden können.

Artikelfiles und Artikellinks

(ID:47106879)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung