Schnellere KI-Anwendungen mit Capella AI und Nvidia Couchbase integriert Nvidia-Technologie für KI

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Couchbase erweitert seine Capella AI Model Services um Nvidia NIM-Mikrodienste. Die Integration soll die Bereitstellung generativer KI-Modelle optimieren und Performance sowie Sicherheit für Unternehmen verbessern. Durch GPU-Beschleunigung und die nähere Verarbeitung von KI an den Daten sollen Latenzzeiten reduziert und agentische Anwendungen effizienter werden.

Capella AI Model Services integriert Nvidia NIM-Mikrodienste, um die Bereitstellung von KI-gestützten Anwendungen zu optimieren und Unternehmen eine leistungsstarke Lösung für die private Ausführung generativer (GenAI) Modelle zu bieten. (Bild:  Couchbase)
Capella AI Model Services integriert Nvidia NIM-Mikrodienste, um die Bereitstellung von KI-gestützten Anwendungen zu optimieren und Unternehmen eine leistungsstarke Lösung für die private Ausführung generativer (GenAI) Modelle zu bieten.
(Bild: Couchbase)

Couchbase hat seine Capella AI Model Services um die Nvidia NIM erweitert. Diese Integration soll Unternehmen dabei helfen, ihre KI-gestützten Anwendungen effizienter bereitzustellen und generative KI-Modelle sicher und leistungsstark auszuführen. Die Kombination mit der Nvidia AI Enterprise-Plattform ermögliche es, KI näher an die Daten zu bringen und gleichzeitig GPU-beschleunigte Leistung mit Sicherheit auf Unternehmensebene zu kombinieren.

Die Capella AI Model Services bieten verwaltete Endpunkte für große Sprachmodelle (LLMs) und Einbettungsmodelle, sodass Unternehmen ihre Anforderungen an Datenschutz, Leistung, Skalierbarkeit und Latenz innerhalb ihrer organisatorischen Grenzen erfüllen können. Die Nutzung von Nvidia AI Enterprise soll Latenzzeiten reduzieren und die Effizienz steigern, indem KI-Workloads direkt dort verarbeitet werden, wo die relevanten Daten liegen.

Die Integration der Nvidia NIM-Mikrodienste ermögliche es, spezialisierte KI-Modelle nahtlos in bestehende Datenplattformen zu implementieren. Die Bereitstellung erfolge über vorkonfigurierte, produktionsreife Komponenten, die Unternehmen von langwierigen Optimierungsprozessen entlasten. Dadurch sollen Anwendungen mit hohem Durchsatz schneller entwickelt und skaliert werden können.

Erweiterte Funktionen für Agentic AI und RAG-Workflows

Die neue Zusammenarbeit verbessere die Funktionen von Capella für agentische KI und Retrieval Augmented Generation (RAG). Dies ermögliche es Unternehmen, leistungsfähige KI-gestützte Anwendungen mit hohem Durchsatz zu betreiben, ohne an Modellflexibilität einzubüßen. Integrierte Features wie semantisches Caching, Guardrails und Agentenüberwachung optimieren wohl die Verwaltung von KI-Workloads.

Die Zusammenführung von Transaktions- und Analysedaten mit KI-Modellen reduziere nicht nur die Latenz, sondern ermögliche es auch, KI-gesteuerte Entscheidungsprozesse in Echtzeit umzusetzen. Unternehmen sollen von der engen Verzahnung zwischen KI-Anwendungen und operativen Datenbeständen profitieren, wodurch sich etwa Chatbots, Empfehlungssysteme oder automatisierte Datenanalysen präziser und effizienter umsetzen lassen.

Unternehmen stehen bei der Implementierung von KI-gestützten Anwendungen oft vor Herausforderungen wie der Sicherstellung verlässlicher Antworten, der Einhaltung von Datenschutzrichtlinien und der Verwaltung spezialisierter Datenbanken. Capella AI Model Services will diese Probleme löschen, indem sie Modelle und Daten in einer einheitlichen Plattform zusammenführen. Die Kombination mit Nvidia NeMo Guardrails helfe zudem, KI-Halluzinationen zu verhindern und eine sichere sowie skalierbare KI-Umgebung zu schaffen.

Besonders relevant sei die Unterstützung für komplexe regulatorische Anforderungen. Unternehmen sollen sensible Daten gezielt verwalten können, indem KI-Modelle innerhalb ihrer eigenen Infrastruktur betrieben werden. Dadurch werde das Risiko von Datenschutzverletzungen minimiert und die Kontrolle über die eingesetzten Modelle erhöht.

(ID:50339802)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung