Hewlett Packard Enterprise (HPE) hat sein „AI Center of Excellence“ (AIEC) für Zentraleuropa eröffnet. Es soll Kunden helfen, den Schritt vom technischen Probieren zum unternehmerischen Nutzen mit Künstlicher Intelligenz (KI) zu machen. KI-Apps können auf verschiedenen Plattformen laufen, von Nvidia bis zum Supercomputer. Ein Ökosystem von Technologiepartnern und Beratern hilft bei den KI-Projekten.
Stefan Brock leitet das HPE AI Excellence Center in Zentraleuropa.
(Bild: HPE)
Stefan Brock ist der erste Leiter des AIEC in Zentraleuropa. Der Manager, bislang leitender Berater für Automotive und Fertigung bei HPE, eröffnete beim Kickstart das neue Exzellenzzentrum vor einer erstaunlich großen Zahl von Besuchern und mit einer hochrangigen Riege von Teilnehmern in der Podiumsdiskussion zum Thema „KI im Automotive-Sektor“. Dazu gehörten Vertreter von Nvidia, Aleph Alpha, dem Höchstleistungsrechenzentrum Stuttgart (HLRS), Bosch, dem Ferdinand-Steinbeis-Institut und Seedbox.
Zu den Aufgaben des Exzellenzzentrums gehören nach Brocks Worten zum Beispiel „die Entwicklung von wertschöpfenden und skalierbaren KI-Anwendungen, die technische Umsetzung und die Unterstützung bei der organisatorischen Transformation einschließlich der Kooperation mit Arbeitnehmervertretern“.
Bildergalerie
„KI ist nicht einfach eine neue Applikation – sie hat weitreichende Auswirkungen auf Mitarbeiter, Sicherheit, Kosten und Geschäftsmodelle“, so Brock weiter. „Die Entwicklung hat dabei einen kritischen Punkt erreicht: Jetzt entscheidet sich, wer die Chancen der generativen KI nutzen kann, um nachhaltige Wettbewerbsvorteile zu schaffen. Das AI Center of Excellence hat dafür eine Eisbrecher-Funktion. Wir tragen dazu bei, dieses Ziel möglichst schnell, aber auch strategisch und technologisch fundiert zu erreichen.“
Zusammen mit einem Partner-Ökosystem biete das AI Center of Excellence ein breites Portfolio an Dienstleistungen und technischen Lösungen – unter anderem Assessment und Discovery, Use-Case-Entwicklung, Strategieentwicklung und Architekturdesign, Roadmap-Planung, Test und Prototyping, Transformation, Programm-Management, Model-as-a-Service-Angebote und „Private Cloud AI“ (von HPE). Eine wichtige Aufgabe des AI Center of Excellence ist auch der Aufbau einer Community von Anwendern und Technologiepartnern, in der Erfahrungen und Best Practices ausgetauscht werden. Das ist der Forumsgedanke dahinter.
Technische Optionen
Für technische Tests und Benchmarking nutzt Brocks Team das TISAX-zertifizierte HPE Customer Technology Center in Böblingen und das HPE Customer Innovation Center in Genf. Wie gesagt, kooperiert HPE mit zahlreichen Technologiepartnern. Das eröffnet den Interessenten und Kunden eine breite Palette von technischen und Business-Optionen.
Von der Seite HPEs wird seit einem Jahr die „Private Cloud AI“ offeriert, die zusammen mit Nvidia entwickelt wurde. Während ein Nutzer sein jeweils eigenes LLM mitbringen kann, lässt sich dieses LLM etwa bei Training, Tuning und bei der Inferenz auf unterschiedlich geeigneten Plattformen ausführen und verbessern.
Die schnellen Supercomputer am HLRS der Uni Stuttgart eignen sich vor allem, aber nicht nur, für das Training von Modellen. Dort stößt das KI-Angebot auf steigendes Interesse, sagte Dennis Hoppe, der Vertreter des HPE-Kunden HLRS, denn große Rechenkapazitäten, die sich kostengünstig mieten lassen und zudem DSGVO-konform sind, sind in Deutschland offenbar dünn gesät. Das HLRS plant für 2026 eine „AI Factory“. Das ist der Begriff, den EuroHPC für diese Initiative benutzt; in Deutschland läuft der Aufbau der AI Factories unter dem Namen „HammerHAI“.
Partnerschaft mit Nvidia
HPE und der US-Hersteller Nvidia bietet Nutzern des AIEC eine weitere technische Plattform. „Die Partnerschaft besteht schon lange und unabhängig vom KI-Exzellenzzentrum“, sagte Brock. „Letztes Jahr haben wir das Portfolio ‚NVIDIA AI Computing by HPE‘ angekündigt – und als Teil davon die Lösung ‚HPE Private Cloud AI‘. Letzteres ist eine schlüsselfertige KI-Lösung aus vorintegrierter und vorkonfigurierter KI-Hardware/Software von HPE und Nvidia – damit können Firmen/Behörden sehr schnell und einfach KI-Anwendungen ausrollen.“ Die technische Basis von Nvidia liefert Nvidia AI Enterprise.
Am 18. März stellte HPE zusammen mit Nvidia neue KI-Lösungen für Unternehmen vor. Dafür hat HPE neue Modelle seiner Proliant-Server angekündigt. Mit dem neuen Nvidia-Server NVIDIA GB300 NVL72, die Grace-CPUs mit Blackwell-GPUs kombiniert, soll eine Reasoning-Modellinferenz-Leistung zu erzielen sein, die 50-mal über der eines Hopper-Systems liegt. AIEC-Nutzern steht also demnächst höchste Leistung zur Verfügung.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Zur HPE/Nvidia-Plattform gehören auch Nvidia Inference Microservices (NIMs), also Container, die für vortrainierte und angepasste KI-Modelle geeignet sind, die sich in Clouds, Rechenzentren, RTX-AI-PCs und -Workstations ausführen lassen. Diese NIMs lassen sich fast überall auf Software-Ebene einbetten, sodass sie KI-Entwicklern viele Vorteile bieten. Als vortrainierte Inferenzeinheit nutzen sie das Framework Nvidia TensorRT und das Modell TensorRT-LLM, unterstützen RAG und Agentic AI, und sie verringern die Latenzzeit und den Datendurchsatz beträchtlich, ungeachtet der jeweiligen Kombination aus Basismodell und GPU. Weil jeder Kunde oder Partner NIMs anpassen kann, bieten sie eine Option, Branchenfachwissen in KI-Apps einzubetten.
Wirtschaftliche Optionen
Die Technologie ist nur ein Aspekt der Arbeit des KI-Exzellenzzentrums. Es verfolgt laut Brock einen ganzheitlichen Ansatz. Denn generell gelte: „Wer mit KI nachhaltigen unternehmerischen Nutzen schaffen will, braucht eine große Bandbreite an strategischen, organisatorischen und technischen Fähigkeiten. Jedes Unternehmen hat da ein eigenes Stärken/Schwächen-Profil – davon hängt ab, welche Hebel man ansetzen muss.“
Viele Firmen würden zum Beispiel mit einer breiten Einführung von KI-Assistenten starten, aber irgendwann feststellen, dass die Produktivitäts-Gewinne marginal sind. Hier sei zunächst einmal Grundlagenarbeit erforderlich, etwa mit Discovery-Workshops, Use-Case-Entwicklung und Strategieentwicklung.
„Andere Firmen wissen hingegen schon sehr genau, was sie mit KI erreichen wollen, haben aber Schwierigkeiten, vom Prototyp in die breite Anwendung zu kommen“, berichtet Brock. „Das beruht in der Regel auf einer Vielzahl von Gründen, etwa fehlenden IT-architektonischen Voraussetzungen, falsch aufgesetzte Projektsteuerung oder kulturelle Widerstände.“ Sein Team habe den Anspruch, Kunden in allen diesen Situationen zu helfen. Je nach Bedarf ziehe es dabei Experten hinzu, aus HPE und aus dessen Partner-Ökosystem.
Erfahrungsaustausch
Eine wichtige Aufgabe des KI-Exzellenzzentrums sei auch der Aufbau von Communities aus Technologie-Unternehmen und Anwendern. „Das ist wichtig, denn KI ist zwar medial omnipräsent, aber die praktische Umsetzung ist für die meisten Firmen nach wie vor Neuland – auch weil KI kein Produkt ist, sondern ein komplexes Zusammenspiel von Daten, Prozessen, Werkzeugen, Modellen und Menschen“, so Brock. „Das heißt: Wir müssen alle voneinander lernen, von unseren Fehlern und von unseren Erfolgen. Darum ist Community-Arbeit in dieser Phase der Entwicklung so wichtig. Dabei muss man aber immer im Blick behalten, dass jede Firma letztlich ihren eigenen, einzigartigen Weg finden muss. Wer nur Best Practices kopiert, erreicht keinen Wettbewerbsvorteil.“
Als Teil dieser Community-Arbeit sollen in den nächsten Monaten mehrere Veranstaltungen an verschiedenen Orten stattfinden. Je nachdem, wo diese stattfinden, werden auch die Branchenschwerpunkte andere sein, so etwa Pharma und Finanzen in der Schweiz, was naheliegt. Bei dem AIEC-Kickstart lag der thematische Branchenschwerpunkt auf der deutsche Automobilindustrie, die derzeit offenbar in technischer Hinsicht von der chinesischen überholt wird.