Entwicklung KI-gestützter adaptiver Anwendungen vereinfachen Vector Search hält in Couchbase Server und Capella Einzug

Von Martin Hensel 2 min Lesedauer

Anbieter zum Thema

Couchbase hat Vector Search für Edge Computing angekündigt. Die neue Funktion für Couchbase Server und Capella soll die Entwicklung KI-gestützter adaptiver Anwendungen erleichtern. Zudem unterstützt Couchbase Entwickler nun mit LangChain- und LlamaIndex-Support.

Mit der Einführung von Vector Search will Couchbase die Entwicklung adaptiver Anwendungen erleichtern.(Bild:  frei lizenziert /  Pixabay)
Mit der Einführung von Vector Search will Couchbase die Entwicklung adaptiver Anwendungen erleichtern.
(Bild: frei lizenziert / Pixabay)

Vector Search zieht als neues Feature in Couchbase Server und das DBaaS-Angebot („Database-as-a-Service“) Capella ein. Couchbase will damit die Entwicklung KI-gestützter adaptiver Anwendungen für kontextbezogene und hyperpersonalisierte Services vereinfachen und beschleunigen. Vector Search ist für verschiedene Szenarien verfügbar: Die Spanne reicht von Rechenzentren über Cloud und Mobile Computing bis hin zu IoT-Geräten am Edge. Adaptive Anwendungen sollen sich somit überall einsetzen lassen.

Als typische Use Cases nennt Couchbase etwa Chatbots oder Semantic Search. Beide erfordern hybride Suchfunktionen („Hybrid Search“, die unter anderem Texte, Vektoren, Tabellen oder Lagerbestände durchforsten können. Vector Search wird hierbei in Verbindung mit LLMs („Large Language Models“) und Retrieval Augmented Generation (RAG) eingesetzt, um die Treffergenauigkeit zu erhöhen und Halluzinationen zu verhindern. Hierfür reine Vektor-Datenbanken einsetzen, würde laut Couchbase für höhere Komplexität und geringere Performance der Anwendungen sorgen. Vector Search behebt diese Problematik durch Integration in die Couchbase-Plattform. Entwickler können darüber zudem SQL++-Queries für die Applikationsentwicklung nutzen.

Partnersystem ausgebaut

Couchbase hat zudem sein KI-Partnersystem weiter ausgebaut: Der Support von LangChain ermöglicht den Zugang zu LLM-Bibliotheken per API. Die Unterstützung von LlamaIndex erhöht zusätzlich die Auswahlmöglichkeiten für LLMs bei der Entwicklung adaptiver Anwendungen.

„Die Integration von Vector Search ist der nächste Schritt zur Unterstützung unserer Kunden bei der Entwicklung adaptiver Applikationen“, erklärt Scott Anderson, Senior Vice President Product Management and Business Operations von Couchbase. „Damit ermöglicht Couchbase Vector Search und Echtzeit-Datenanalyse auf einer schnellen, einheitlichen und sicheren Plattform, von der Cloud bis zum Edge“, ergänzt er.

Verfügbarkeit

Couchbase wird die neuen Funktionen für Couchbase Server und Capella im Lauf des zweiten Quartals bereitstellen. Die Varianten für mobile Geräte und das Edge werden zunächst als Beta-Version veröffentlicht.

(ID:49972786)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung