Partnerschaft mit Aleph Alpha Hewlett Packard Enterprise startet KI-Cloud für große Sprachmodelle

Von Bernhard Lück Lesedauer: 2 min

Anbieter zum Thema

Mit HPE GreenLake for Large Language Models (LLMs) könne jedes Unternehmen KI privat trainieren, optimieren und einsetzen, und zwar über eine Supercomputer-Cloud – Supercomputer, die laut Hewlett Packard Enterprise zu fast 100 Prozent mit erneuerbarer Energie laufen.

Mit HPE GreenLake for LLMs steigt Hewlett Packard Enterprise in den KI-Cloud-Markt ein.
Mit HPE GreenLake for LLMs steigt Hewlett Packard Enterprise in den KI-Cloud-Markt ein.
(Bild: Hewlett Packard Enterprise)

Hewlett Packard Enterprise (HPE) arbeitet bei seinem Einstieg in den KI-Cloud-Markt mit dem deutschen KI-Unternehmen Aleph Alpha zusammen. Damit stehe Kunden ein einsatzbereites LLM für Anwendungsfälle zur Verfügung, die Text- und Bildverarbeitung und -analyse erfordern. HPE GreenLake for LLMs sei die erste in einer Reihe von branchen- und domänenspezifischen KI-Anwendungen, die HPE über seine multimandantenfähige Supercomputer-Cloud auf den Markt bringen möchte. Künftig sollen Anwendungen zur Unterstützung von Klimamodellen, Gesundheitswesen, Biowissenschaften, Finanzdienstleistungen, Fertigung und Transport folgen.

Im Gegensatz zu General-Purpose-Clouds, die mehrere Anwendungen parallel ausführen, laufe HPE GreenLake for LLMs auf einer KI-nativen Architektur, die speziell für die Ausführung einer großen KI-Trainings- und Simulations-Umgebung entwickelt worden sei – HPE zufolge mit Unterstützung von Hunderten oder Tausenden von CPUs oder GPUs gleichzeitig. Dies sei effektiver, zuverlässiger und effizienter für das KI-Training und erlaube die Entwicklung präziserer KI-Modelle. Kunden könnten damit ihren Weg vom Proof of Concept bis zum produktiven Einsatz beschleunigen und Probleme schneller lösen.

HPE GreenLake for LLMs beinhalte den Zugang zu Luminous, einem vortrainierten großen Sprachmodell von Aleph Alpha, das in Englisch, Französisch, Deutsch, Italienisch und Spanisch angeboten wird. Kunden könnten dabei ihre eigenen Daten nutzen, um ein individuelles Modell zu trainieren und zu optimieren.

HPE GreenLake for LLMs werde auf HPE-Cray-XD-Supercomputern laufen. Kunden müssten somit keine eigenen Supercomputer kaufen und betreiben. Im Angebot enthalten sei das HPE Cray Programming Environment, eine Software-Suite zur Optimierung von HPC- und KI-Anwendungen, mit Werkzeugen für die Entwicklung, Portierung, Fehlersuche und Optimierung von Codes. Darüber hinaus unterstütze die Supercomputing-Plattform die KI/ML-Software von HPE, darunter das HPE Machine Learning Development Environment zum schnellen Trainieren großer Modelle und die HPE Machine Learning Data Management Software zum Integrieren, Nachverfolgen und Prüfen von Daten mit reproduzierbaren KI-Funktionen, mit denen sich vertrauenswürdige und präzise Modelle bauen lassen.

HPE GreenLake for Large Language Models (LLMs) werde auf Supercomputern der QScales Colocation in Quebec laufen, die HPE zufolge mit Strom aus 99,5 Prozent erneuerbaren Quellen versorgt werden.

HPE GreenLake for LLMs könne ab sofort geordert werden, zusätzliche Kapazität werde bis zum Ende des Jahres 2023 zur Verfügung gestellt. Das Angebot sei zunächst in Nordamerika verfügbar. Europa soll Anfang 2024 folgen.

(ID:49582675)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung