Vorgefertigte Lösungen und Arbeitsbeispiele für KI-Projekte Cloudera beschleunigt Machine-Learning-Projekte

Von Bernhard Lück 2 min Lesedauer

Anbieter zum Thema

Neue Accelerators for Machine Learning Projects (AMPs) von Cloudera sollen die Time-to-Value für KI-Anwendungsfälle in Unternehmen verkürzen. Mithilfe der vorgefertigten Lösungen und Arbeitsbeispiele sei es möglich, KI-Projekte vom Konzept bis zur Realisierung zu beschleunigen.

Die neuesten Cloudera AMPs heißen RAG with Knowledge Graph, Fine Tuning Studio, PromptBrew und Chat with your Documents.(Bild:  Cloudera)
Die neuesten Cloudera AMPs heißen RAG with Knowledge Graph, Fine Tuning Studio, PromptBrew und Chat with your Documents.
(Bild: Cloudera)

Bei den Accelerators for Machine Learning Projects (AMPs) handle es sich um End-to-End-Projekte, die auf maschinellem Lernen (ML)basieren und mit mit nur einem Mausklick direkt auf der Cloudera-Plattform ausgeführt werden können. Cloudera zufolge biete jeder AMP bewährte Lösungen zur Bewältigung komplexer ML-Herausforderungen mit Workflows für nahtlose Übergänge – unabhängig davon, wo Unternehmen Anwendungen ausführen oder Daten bereitstellen.

Mit seinem AMP-Portfolio will Cloudera den Zugang zu KI erleichtern, Unternehmen dabei helfen, ihre KI-Integration zu beschleunigen und dabei den Wert ihrer Daten und des generierten KI-Outputs zu maximieren. Zu den neuesten AMPs und Updates gehören:

  • Fine Tuning Studio bietet Nutzern eine Anwendung und ein „Ökosystem“ für die Verwaltung, Feinabstimmung und Bewertung von LLMs (Large Language Models).
  • RAG with Knowledge Graph demonstriert, wie eine RAG-Anwendung (Retrieval Augmented Generation) mit einem Wissensgraphen betrieben werden kann, um Zusammenhänge und Kontexte zu erfassen, die über Vektorspeicher allein nicht leicht zugänglich sind.
  • PromptBrew bietet KI-gestützten Support bei der Erstellung von Prompts über eine einfache Benutzeroberfläche.
  • Chat with your Documents baut auf dem früheren LLM Chatbot Augmented with Enterprise Data AMP auf und optimiert die Antworten des LLMs, indem es den Kontext aus einer internen Datenbank nutzt. Diese wird aus den vom Benutzer hochgeladenen Dokumenten generiert.

„In der heutigen Zeit leiden Unternehmen unter Zeit- und Ressourcenmangel bei der Umsetzung von KI-Projekten“, sagt Dipto Chakravarty, Chief Product Officer bei Cloudera. „Unsere AMPs sind Katalysatoren, um KI-Projekte mit vorgefertigten Lösungen und Arbeitsbeispielen vom Konzept bis zur Realisierung zu beschleunigen. Außerdem stellen sie sicher, dass die Anwendungsfälle zuverlässig und kosteneffektiv sind, während die Entwicklungszeit reduziert wird. Dadurch ergeben sich für die Unternehmen schnelle Produktivitätsgewinne sowie Effizienzsteigerungen aus den KI-Initiativen.“

Die AMPs von Cloudera sind frei zugänglich.

(ID:50251611)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung