AI Model Inference vorgestellt Confluent vereinfacht KI-Einsatz und Stream Processing

Von Martin Hensel 2 min Lesedauer

Anbieter zum Thema

Mit AI Model Inference hat Confluent eine neue Funktion für Apache Flink vorgestellt. Sie soll den Einsatz von KI und Stream Processing für Workloads in allen Bereichen vereinfachen. KI- und ML-Funktionen werden dazu nahtlos in Datenpipelines integriert.

Mit AI Model Inference integriert Confluent KI- und ML-Funktionen nahtlos in Datenpipelines.(Bild:  GrumpyBeere /  Pixabay)
Mit AI Model Inference integriert Confluent KI- und ML-Funktionen nahtlos in Datenpipelines.
(Bild: GrumpyBeere / Pixabay)

AI Model Inference soll es Teams ermöglichen, maschinelles Lernen einfach in Datenpipelines einzubinden. Da Entwickler häufig verschiedene Tools und Sprachen für KI-Modelle und Datenverarbeitung nutzen, sind komplexe Workloads die Folge. AI Model Inference in Confluent Cloud für Apache Flink ermöglicht den Einsatz einfacher SQL-Anweisungen aus Apache Flink heraus, um KI-Engines aufzurufen. Zu letzteren zählen etwa OpenAI, AWS SageMaker, GCP Vertex oder Microsoft Azure. Unternehmen sollen somit Aufgaben rund um Datenbereinigung und -verarbeitung auf einer einzigen Plattform orchestrieren können.

Konkret ermöglicht AI Model Inference eine vereinfachte KI-Entwicklung durch Verwendung einer vertrauten SQL-Syntax für die direkte Arbeit mit KI/ML-Modellen, die den Bedarf an speziellen Tools und Sprachen reduziert. Die nahtlose Koordination von Datenverarbeitung und KI-Workflows soll für höhere Effizienz und geringere betriebliche Komplexität sorgen. Dank aktueller und kontextbezogener Streaming-Daten sind präzise KI-gestützte Entscheidungsprozesse in Echtzeit möglich. Die Unterstützung für AI Model Inference ist derzeit für ausgewählte Kunden als Early Access verfügbar. Interessenten können sich zudem für den Early Access anmelden.

Freight Cluster angekündigt

Viele Unternehmen nutzen Confluent Cloud zur Verarbeitung von Protokollierungs- und Telemetriedaten. Derartige Anwendungsfälle umfassen zwar große Mengen an geschäftskritischen Daten, sind aber oft weniger latenzempfindlich und werden typischerweise in Indizierungs- oder Batch-Aggregations-Engines eingespeist. Mit Confluent Freight Cluster sollen diese Fälle kostengünstiger werden. Dabei handelt es sich um einen neuen serverlosen Clustertyp, der laut Confluent bis zu 90 Prozent geringere Kosten für Anwendungsfälle mit hohem Datenfluss und geringen Latenzanforderungen ermöglicht.

Freight Cluster basieren auf Elastic CKUs („Confluent Unit for Kafka“). Sie skalieren nahtlos nach Bedarf und benötigen dazu keine manuelle Dimensionierung oder Kapazitätsplanung. Unternehmen sollen so ihren betrieblichen Aufwand minimieren und die Kosten optimieren können, da sie nur für tatsächlich genutzte Ressourcen zahlen.

Confluent bietet Freight Clusters in ausgewählten AWS-Regionen als Early Access an. Auch hier ist eine Anmeldung für interessierte Kunden möglich.

(ID:50039964)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung