Kommentar von Falk Weinreich, OVHcloud KI-Workloads erfolgreich in der Cloud umsetzen

Von Falk Weinreich Lesedauer: 6 min |

Anbieter zum Thema

Künstliche Intelligenz boomt und stellt neue Anforderungen an die Cloud. Denn leistungsstarke generative KI-Anwendungen brauchen die passende Infrastruktur für große Rechenleistungen und viel Flexibilität beim Training ihrer Modelle. Worauf Unternehmen bei der Planung ihrer KI-Projekte achten müssen und welche Vorteile Cloud-basierte Lösungen mit sich bringen, beleuchtet Falk Weinreich vom europäischen Cloudanbieter OVHcloud.

Der Autor: Falk Weinreich ist General Manager Central Europe von OVHcloud
Der Autor: Falk Weinreich ist General Manager Central Europe von OVHcloud
(Bild: ©OVHcloud)

Künstliche Intelligenz (KI) wird schon seit Längerem als das „next big thing“ gehandelt, doch seit rund einem halben Jahr explodiert der Markt für KI-Anwendungen regelrecht. Mit der Veröffentlichung des Sprachmodells GPT-4 hat OpenAI einen neuen Qualitätsstandard für KI-Anwendungen gesetzt. Damit wird KI zu einem bedeutenden Wachstumstreiber mit einem enormen wirtschaftlichen Potenzial: So prognostiziert IDC für das Jahr 2024 im KI-Bereich einen Umsatz von über 554 Milliarden US-Dollar weltweit – ein Plus von rund 45 Prozent gegenüber 2021.

Zahlreiche KI-Anwendungen sind derzeit in der Entwicklung, doch viele Unternehmen denken noch viel zu wenig an die benötigte Computing-Kapazität dahinter. Dabei sind die Rechenleistung und die Storage-Kapazität zentrale Faktoren, die über Erfolg oder Misserfolg eines KI-Produkts entscheiden. Viele Unternehmen berechnen vorab nicht die Kosten der Infrastruktur – was ihnen später zum Verhängnis werden kann, wenn ihre Anwendung populär wird und immer größere Ressourcen für Computing und Storage verschlingt.

Anforderung: die fünf Phasen der KI-Pipeline

Viele Unternehmen wollen keine eigenen KI-Anwendungen entwickeln, sondern sind auf der Suche nach fertigen Lösungen, die „powered by AI“ sind und sich auch von Nicht-Spezialisten bedienen lassen. Dazu gehören zum Beispiel Anwendungen wie Chatbots, Suchmaschinen, Übersetzungsprogramme oder Lösungen zur Betrugserkennung. Zudem gibt es Unternehmen, die über eigene Data Scientists verfügen und ihre eigenen KI-Modelle entwickeln und betreiben wollen. Sie benötigen eine entsprechende Plattform, mit der sie ihre KI-Projekte von der Idee bis zur Produktion umsetzen können.

Diese Unternehmen sollten sich vorab genau anschauen, welche infrastrukturellen Anforderungen an Computing und Storage sie für ihre geplanten Anwendungen benötigen. Hierfür ist es zunächst sinnvoll, sich die einzelnen Schritte der KI-Pipeline von Anfang bis Ende im Detail anzuschauen. Dazu haben wir bei OVHcloud das folgende Schaubild erstellt, das in fünf Phasen den Lebenszyklus eines KI-Modells mit den entsprechenden Computing-Prozessen dahinter abbildet.

Die Entwicklung einer KI-Anwendung von der Idee bis zum finalen Produkt
Die Entwicklung einer KI-Anwendung von der Idee bis zum finalen Produkt
(Bild: ©OVHcloud)

  • 1. Store: Im ersten Schritt geht es darum, die Daten, die zum Training der Modelle verwendet werden sollen, in einem Speicherpool zu zentralisieren. Hierfür bietet sich insbesondere ein Cloud-basierter Objektspeicher an, in dem die Daten nicht traditionell hierarchisch, sondern als diskrete Dateneinheiten (Objekte) gespeichert werden, was eine praktisch beliebige Skalierbarkeit schafft und einen hohen Durchsatz bei geringer Latenz ermöglicht.
  • 2. Preprocess: Um die Daten in eine verwertbare Form zu bringen, ist meist eine intensive Phase der Vorbereitung notwendig. In ihr werden sie von Tippfehlern, Dubletten oder Abweichungen bereinigt. Dies ist wichtig, denn gerade in kritischen Anwendungsbereichen wie Gesundheit und Sicherheit müssen Data Scientists stets in der Lage sein, jede Entscheidung begründen zu können, und zwar sowohl hinsichtlich des Codes zum Erstellen des Modells als auch des verwendeten Datensatzes. Bei einem On-Prem-Ansatz muss daher vorab genau überlegt werden, welche Tools zur Datenverarbeitung benötigt werden. Bei einem Cloud-Ansatz dagegen sind diese Tools alle nach Bedarf über den Cloudanbieter verfügbar.
  • 3. Explore: Data Scientists nutzen insbesondere Notebooks für die Entwicklung von Algorithmen. Dabei greifen sie bevorzugt auf leistungsfähige und in der Branche anerkannten Tools zurück. So unterstützt OVHcloud beispielsweise Notebooks vom Typ Jupyter und VS Code. Grundsätzlich lassen sich Notebooks über die Cloud innerhalb weniger Minuten bereitstellen. Data Scientists können ihnen beim Start nach Bedarf CPU- und GPU-Ressourcen zuweisen, eine Konfigurationsphase ist nicht nötig.
  • 4. Train: Sobald der Algorithmus die gewünschten Ergebnisse liefert, beginnt die Produktion des Modells. Das Modell wird von nun an regelmäßig mit neuen Daten trainiert. Auch hierfür gibt es eine Reihe bewährter und für verschiedene Anwendungsfälle geeignete Frameworks wie PyTorch, TensorFlow und Scikit-Learn. Wie bei der Bereitstellung der Notebooks bietet auch hier ein Cloud-basierter Ansatz den Vorteil, dass sich Trainings praktisch sofort starten lassen, ohne dass sich Data Scientists um die Orchestrierung von Rechenressourcen kümmern müssen.
  • 5. Deploy and Serve: Auch die Produktion der Algorithmen erfordert eine angemessene Hardware-Infrastruktur. Gerade in dieser letzten Phase besteht das Risiko, dass der Return on Invest eines KI-Projekts von den Kosten der Infrastruktur aufgefressen wird. Anwendungsfälle wie Chatbots, die direkt antworten müssen, oder Algorithmen, die in Echtzeit Industrieprozesse optimieren, erfordern eine möglichst geringe Latenz. Hierfür bedarf es Server mit kostspieligen GPU, die zudem komplexe Netzwerkkonfigurationen unterstützen müssen. Hier liegt der Schlüsselfaktor für die tatsächlichen Kosten dieser Architekturen. Auch in der Deploy-Phase spielt die Cloud ihren Vorteil aus, indem sich Deployments losgelöst von der Hardwarearchitektur bei voller Kostentransparenz durchführen lassen.

Ergebnis: die fünf Vorteile der Cloud

Betrachtet man die Anforderungen an die IT-Infrastruktur, die sich aus den fünf Phasen der KI-Pipeline ergeben, so kristallisieren sich fünf zentrale Vorteile heraus, die ein Cloud-basierter Ansatz gegenüber einer traditionellen On-Prem-Lösung bietet:

  • 1. Flexibilität und Performance: Beide sind bei Cloud-Lösungen grundsätzlich viel höher als bei On-Prem-Lösungen, da praktisch nach Belieben skaliert werden kann. Bei KI-Anwendungen ist das ein entscheidender Punkt, da die Rechenleistung in der Trainingsphase kurzzeitig stark hochgefahren werden muss.
  • 2. Sicherheit: Hier hat On-Prem zunächst einen Vorteil: die volle Kontrolle über die eigenen Daten. Damit verbunden ist jedoch ein wesentlicher Nachteil: Die Anforderungen an die IT-Sicherheit sind heutzutage so hoch, dass sie gerade für KMU kaum zu stemmen sind. Bei professionellen Cloudanbietern kann man hingegen davon ausgehen, dass ihre IT- und Datensicherheitsmaßnahmen stets „state-of-the-art“ sind – wichtigste Nachweise sind Zertifizierungen für das Informationssicherheitsmanagement gemäß ISO/IEC 27001, 27017 und 27018. Wer in Sachen Datensouveränität und DSGVO-Konformität auf Nummer sicher gehen will, entscheidet sich zudem für einen europäischen Anbieter, der seine Rechenzentren in der EU betreibt und gegen extraterritoriale Gesetzgebungen wie den US Cloud Act immun ist.
  • 3. Aufwand und Kompatibilität: On-Prem-Lösungen bringen unweigerlich Arbeitsaufwand hinsichtlich Wartung und Software-Updates mit sich. Zudem können sich Probleme mit der Inkompatibilität neuer Entwicklungen ergeben, denn bei Tools und Frameworks erscheinen ständig neue Lösungen und Versionen. Der Aufbau einer Entwicklungs- und Testumgebung für Modelle erfordert großes Fachwissen sowie zahlreiche Softwarekomponenten. Bei gemanagten Diensten übernimmt der Cloudanbieter diese komplexe Verwaltung. Hierbei ist darauf zu achten, dass der Cloudanbieter auf Open-Source-Technologien setzt, um Transparenz, Interoperabilität und Reversibilität zu gewährleisten.
  • 4. Schnelligkeit: Viele Cloudanbieter bieten Plug-and-play-Lösungen – gerade bei neuen KI-Anwendungen ist das ein wichtiger Faktor. Richtet man die Infrastruktur hingegen On-Prem ein, erfordern diese Prozesse zunächst eine zeitintensive Konfigurationsphase und sind mit hohen Wartungszeiten und -kosten verbunden.
  • 5. Kosten: On-Prem-Lösungen sind mit hohen Investitionskosten in die Hardware verbunden. Das mag bei manchen Anwendungen mit langfristiger und gleichmäßiger Speicher- und Rechenleistung Sinn ergeben. Für das Training von KI-Modellen sind sie jedoch in aller Regel zu teuer. Eine Cloud-basierte Lösung ermöglicht es hingegen nicht nur, auf eigene Hardware weitestgehend zu verzichten, sondern auch, minutenexakt auf Basis des tatsächlichen Gebrauchs abzurechnen. Unternehmen sollten dabei einen Anbieter wählen, der ihnen die Möglichkeit bietet, die Kosten für ihre KI-Projekte bereits vorab zu kalkulieren.

Cloud-Dienste sind heute so ausgereift, dass sie den gesamten Lebenszyklus von KI-Modellen unterstützen können. Ihre Vorteile gegenüber On-Prem liegen auf der Hand: Sie nehmen den Data-Scientist-Teams nicht nur die kostspielige Hardware-Seite ab, sondern auch alle Aufgaben der Verwaltung und Aktualisierung komplexer Softwareinfrastrukturen. Zudem bieten sie Planungssicherheit bei aktuellen und künftigen Kosten. Daher lautet mein Fazit: Für Unternehmen, die KI-Workloads gleichermaßen schnell, flexibel und sicher planen und umsetzen wollen, führt an einem Cloud-Ansatz kein Weg vorbei. Europäische Anbieter bieten schon heute die dafür notwendige Infrastruktur und Toolbox aus einer Hand.

Artikelfiles und Artikellinks

(ID:49475215)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung