Kommentar von Stefan Schäfer, OVHcloud KI aus der Cloud – ein Blick in die Praxis

Autor / Redakteur: Stefan Schäfer / Nico Litzel

Immer mehr Unternehmen nutzen Big-Data-Analysen, um Erkenntnisse für ihre strategische Ausrichtung zu erlangen. Künstliche Intelligenz (KI) und Machine Learning haben sich dabei nicht nur als Technologien für nützliche Tools, sondern als wahre Game Changer für nahezu alle Branchen etabliert. Ihr Potenzial, zuvor nicht greifbare Erkenntnisse in Echtzeit zu liefern und in Handlungsempfehlungen umzuwandeln, machen sie zum technologischen Must-have.

Firmen zum Thema

Der Autor: Stefan Schäfer ist Head of Global Product Marketing bei OVHcloud
Der Autor: Stefan Schäfer ist Head of Global Product Marketing bei OVHcloud
(Bild: bcc8)

Kein Wunder, denn intelligente Algorithmen gehören in Unternehmen genauso wie für Verbraucher längst zum Alltag. Sie optimieren Prozesse, empfehlen passende Ergänzungen zum Online-Warenkorb oder Newsfeed und schaffen die Grundlage für selbstlenkende Fahrzeuge für die Mobilität von morgen. Auf der ganzen Welt verarbeiten, klassifizieren und analysieren sie heute mehr Daten als jemals zuvor – mit weiter steigendem Potenzial: Bis 2025 soll die weltweit generierte Datenmenge laut Prognosen von IDC und Seagate Technology auf insgesamt 163 Zettabyte anwachsen.

KI-Projekte in der Cloud managen

Projekte rund um KI und Machine Learning bedürfen nicht nur geschulter Mitarbeiter, sondern auch signifikanter Investitionen. Riesige Volumen zumeist unstrukturierter Daten müssen mit anspruchsvollen mathematischen Modellen verarbeitet werden. Dafür werden umfassende, hochleistungsfähige Computing-Ressourcen benötigt. Viele Unternehmen, die von KI profitieren wollen, können die benötigten Ressourcen jedoch nicht selbst dauerhaft in eigenen Servern vorhalten – sei es aus ökonomischen Gründen oder aufgrund fehlenden Know-hows in der Belegschaft.

Ausgefeilte Server- und Netzwerk-Technologie ermöglicht es heute, KI-Projekte in der Cloud zu managen. Dedizierte Ressourcen, die mit High-Performance-Komponenten der neuesten Generation wie den Nvidia-Tesla-P100-Prozessoren für paralleles Computing ausgestattet und von Grund auf für KI-Anwendungen optimiert sind, sowie Lösungen auf Container-Basis und mit Cluster-Algorithmen ermöglichen Unternehmen eine kosteneffiziente und gleichzeitig hocheffektive Nutzung von Daten. Auch moderne hybride Infrastrukturen eignen sich für eine Vielzahl an KI-Anwendungen und ermöglichen bei Bedarf eine nahtlose Skalierung, ohne Abstriche bei Datenschutz oder -sicherheit machen zu müssen.

Neue Geschäftsmodelle für die KI-Ära

Auf diese Weise schaffen KI und cloudbasierte SaaS-Lösungen die Grundlage für unzählige neue Geschäftsmodelle, die auf Echtzeit-Datenanalysen und Prozessautomatisierung fußen.

Ein Beispiel dafür bietet das Schweizer Start-up Finity SA, dessen Plattform Paper.li das digitale Marketing revolutioniert. Dank KI-gestützter Content Curation und Automatisierung können auch Selbstständige und Kleinunternehmer agieren, als stünde ihnen eine ganze Marketing-Abteilung zur Verfügung. Ein anspruchsvoller Algorithmus erstellt täglich personalisierte Inhalte für Website, Social Media und Newsletter, damit Nutzer ihre digitalen Marketingkanäle mit minimalem Aufwand aktiv bespielen können. Zudem kuriert die KI themenbezogene Tipps & Tricks für Anwender.

In einer verteilten Infrastruktur verarbeitet Finity jeden Tag 405 Millionen Social Media Posts und crawlt 46 Millionen URLs. Dabei verwendet das Unternehmen Machine Learning, um ein Klassifizierungsmodell zu trainieren, mit dem Artikel einer vordefinierten Liste von Kategorien zugeordnet werden können. Mithilfe von NLP-Lösungen (Natural Language Processing) können unter anderem die Schlüsselwörter jedes Artikels in hoher Geschwindigkeit extrahiert und für die Artikelsuche verwendet werden. Das KI-gestützte Klassifikationsmodell und die NLP-Fähigkeiten sind für die Funktionen der Plattform entscheidend, um Kunden mit passenden Inhalten für ihre digitalen Kanäle zu versorgen. So werden über Paper.li täglich 248 Millionen Artikel, Fotos und Videos veröffentlicht, 200.000 Newsletter verschickt und 40.000 Tweets gepostet.

Weil Paper.li von Kunden auf der ganzen Welt genutzt wird, setzt das Unternehmen auf eine Infrastruktur mit mehr als 90 Servern in einem verteilen Cluster mit durchsatzstarken I/O-Prozessoren und gutem weltweitem Peering, um die Dienste der Plattform überall latenzfrei zur Verfügung stellen zu können. Zusätzlich erlaubt die Nutzung von Cloud-Instanzen in externen Rechenzentren, dass die Infrastruktur mit dem Erfolg des Start-ups mitwachsen kann. Bei Wachstumsraten im zweistelligen Bereich kämen On-premises-Systeme schnell an ihre physischen Grenzen.

Voll informiert dank KI

Moderne KI verändert aber auch Branchen, in denen das Analoge bislang den Ton angibt, etwa im Bereich politischer Kommunikation (Public Affairs). Um umfassend über alle Entwicklungen im Polit-Zirkus informiert zu sein, müssen Public-Affairs-Profis bislang unermüdlich Dutzende unterschiedliche Informationsquellen mit diversen, uneinheitlichen Formaten durchforsten, was Erfahrung braucht und viel Zeit kostet. Dabei ist Zeit hier erfolgskritisch, denn jeden Tag werden tausende Papiere auf den verschiedenen politischen Ebenen veröffentlicht, die gesichtet und verarbeitet werden müssen. Policy-Insider.AI nutzt Künstliche Intelligenz, um einige der typischen Gefälle zwischen Anspruch und Umsetzbarkeit im politisches Wissensmanagement zu schließen und Public-Affairs-Abteilungen relevante Insights zu politischen Entscheidungen auf einen Blick zu bieten.

Das Expertenwissen des Unternehmens im Bereich Public Affairs wird mit neuesten KI-Algorithmen kombiniert, um Public-Affairs-Profis akkurate Informationen zeitnah zur Verfügung zu stellen und somit umfassend informierte Entscheidungen zu ermöglichen. Dazu scannt das Online-Portal im Hintergrund täglich etwa 5.000 neue politische Dokumente und 5.000 Social-Media-Profile von politischen Amtsinhabern. Um dabei Sprachgrenzen zu überbrücken und Kunden einheitliche Einblicke aus mehreren Ländern zu bieten, nutzt Policy-Insider.AI einen eigenen KI-Übersetzer, der speziell für die Übersetzung politischer Dokumente trainiert ist. Zusätzlich sorgen intelligente Algorithmen beim Anbieter für zusätzlichen Kontext, indem Nutzern beispielsweise vergleichbare, bereits bekannte Dokumente angezeigt und Verbindungen aufgezeigt werden.

Um einen solchen KI-gestützten Service zu ermöglichen, müssen große Datenmengen in Echtzeit über komplexe Prozesse verarbeitet werden. Eine verlässliche Infrastruktur mit leistungsstarken Komponenten ist dafür von entscheidender Bedeutung. Durch den Zugang zu GPUs neuester Generation werden Algorithmen effizient trainiert und ausführt. In Anbetracht der ständig wachsenden Menge an politischen Dokumenten und Datenquellen im digitalen Raum benötigen Plattformen wie Policy-Insider.AI zudem die Möglichkeit, ihre Lösungen zu skalieren, um die volle Bandbreite an politischen Vorgängen abdecken zu können. Auf dieser Grundlage trainiert das Unternehmen KI-Modelle mit einer guten Inferenzleistung.

Volles KI-Potenzial – geringer Verwaltungsaufwand

Wie die genannten Beispiele zeigen, können moderne, optimierte Server in hochverfügbaren Rechenzentren Unternehmen bei den Herausforderungen von KI- und Machine-Learning-Projekten unterstützen. Für KI-Anwendungen mit intensiven Workloads benötigen Anwender ausreichende Kapazität und höchste Compliance- und Sicherheitsstandards für alle Verbindungen innerhalb von Rechenzentren sowie zwischen externen Rechenzentren und On-premises-Infrastrukturen. Durch solche kosteneffizienten und einfach zu verwaltenden Architekturen können immer mehr Unternehmen sinnvoll intelligente Lösungen entwickeln und anwenden, um das volle Potenzial ihrer Datenvorräte im KI-Zeitalter auszuschöpfen und sich so Wettbewerbsvorteile zu sichern.

(ID:47333581)