Suchen

Kommentar von Mathias Golombek, Exasol AG Was GPUs für die KI tun können

Autor / Redakteur: Mathias Golombek / Nico Litzel

Im Gegensatz zu klassischen Prozessoren (CPUs) arbeiten GPUs (Graphical Processing Units) parallelisiert und bandweitenoptimiert. Das heißt: Sie eignen sich besser für rechenintensive Vorgänge, vor allem im Bereich Künstliche Intelligenz, Machine Learning und Deep Learning. Werden KI-Anwendungen damit reif für die Praxis und was bedeutet das für die gesamte Infrastruktur?

Firmen zum Thema

Der Autor: Mathias Golombek ist CTO von Exasol
Der Autor: Mathias Golombek ist CTO von Exasol
(Bild: Exasol)

Algorithmen gelten als künstlich intelligent, wenn sie Maschinen befähigen, selbstständig Entscheidungen zu treffen. Sie lernen das vor allem mithilfe von Daten. In großen Datenmengen erkennen Algorithmen Muster und Gesetzmäßigkeiten und ziehen daraus Schlüsse für den Fortlauf des Prozesses. Die Algorithmen nutzen also vorhandene Beispiele und Erfahrungen, um ihr Vorgehen zu optimieren. Machine Learning heißt es, weil das automatisch und fortlaufend passiert, ohne einem programmierten Ablauf zu folgen. Welche Entscheidung wann zu treffen ist, ist dabei nicht definiert.

Zunächst muss der Algorithmus mit Trainingsdaten geschult werden. Diese Datensätze haben entscheidenden Einfluss auf die späteren Ergebnisse, da sie – zumindest anfangs – die Referenz bilden. Nun kann das Training erweitert werden, zusätzliche – auch unbekannte – Daten kommen hinzu. Diese Trainingsschleifen werden in der Regel mehrfach durchlaufen, zwischendurch bewerten Programmierer und Data Analysts die Ergebnisse und greifen steuernd ein.

Beim Deep Learning, einer spezialisierten Form des Machine Learnings, finden diese menschlichen Eingriffe nicht mehr statt. Die Daten werden dem System zur Verfügung gestellt, die Analyse und die Entscheidungsfindung übernimmt dieses nun autark. So kommt es, dass für die Entwickler bald kaum mehr nachvollziehbar ist, auf welcher Basis die Entscheidungen zustande kommen. Die neuronalen Netze, die den meisten Deep-Learning-Algorithmen zugrunde liegen, werden schnell unüberschaubar komplex. In mehreren Ebenen werden verschiedene und möglichst viele Merkmale etwa eines Bildes oder eines Objektes klassifiziert. Diese Daten vergleicht der Algorithmus mit den ihm bekannten Daten-Analysen und berechnet, um was es sich wahrscheinlich handelt. Jeder Treffer bekommt eine höhere Gewichtung innerhalb des neuronalen Netzes und führt zur Verbesserung der Folgeergebnisse.

Ist die Zeit reif für KI?

Markt-Beobachter sehen in KI-Technologien einen der wichtigsten Trends, wenngleich das Thema derzeit noch eher mit angezogener Handbremse gefahren wird. So dokumentiert beispielsweise das Bundesministerium für Wirtschaft und Energie (BMWi) in seiner aktuellen KI-Studie („Einsatz von Künstlicher Intelligenz in der deutschen Wirtschaft“, März 2020), dass nur knapp sechs Prozent der Unternehmen in Deutschland KI-Technologien einsetzt.

Eine Studie der Analysten von Price Waterhouse Coopers („Künstliche Intelligenz in Unternehmen“, Februar 2019) erhob zuvor ähnliche Zahlen (sechs Prozent der Unternehmen nutzen KI bereits), machten aber zugleich weiteres Potenzial aus: 17 Prozent der befragten Unternehmens-Vertreter gaben an, den Einsatz von KI zu planen oder zu testen. Weitere 28 Prozent halten KI für relevant, sind sich über die konkreten Möglichkeiten noch nicht klar. Hier könnten Start-ups einen entscheidenden Schub liefern: Der Digitalverband Bitkom fragte 206 Start-up-Unternehmen nach den bevorzugten Technologien. Dabei gaben 47 Prozent an, bereits KI-Technologien einzusetzen, weitere 35 Prozent steckten diesbezüglich in der Planung.

KI in der Praxis – GPUs rechnen schneller

Derweil gibt es immer mehr praktische Anwendungsfälle. Medial besonders präsent sind zahlreiche Projekte rund um autonome Mobilität, wobei die Fahrzeuge mit möglichst hoher Trefferquote ihre Umgebung erkennen und Entscheidungen treffen müssen. Aber auch in anderen Branchen mehren sich die KI-Beispiele. Manche sind bereits im Alltag verwurzelt, wie etwa digitale Sprachassistenten oder Gesichtserkennungs-Software. KI-Algorithmen unterstützen Ärzte bei der Diagnose, indem sie viel genauer und schneller riesige Mengen von Zellen auf Veränderungen hin prüfen und mit vorhandenen Daten abgleichen. Produktionsanlagen reagieren auf Aktionen des Bedieners, erkennen verschiedene Bauteile selbständig und geben entsprechende Handlungsanweisungen. Diese Entwicklungen geschehen jetzt, weil die technischen Voraussetzungen da sind. Neben leistungsfähiger Hardware sorgen Cloud-Services für große und flexible Skalierbarkeit.

Und dennoch wachsen die Datenmengen bei KI-Anwendungen derart schnell, dass die Anforderungen an die Infrastruktur weiter steigen. Daten müssen in kürzester Zeit erfasst und analysiert werden, um konkrete Entscheidungen zu treffen. Für die Berechnungen und Steuerung aller Anfragen und wichtigen Vorgänge ist gewöhnlich der Hauptprozessor, die CPU, eines PCs oder Servers zuständig. Jede logische Einheit der CPU verrechnet Binärwerte miteinander und kann so mehrere hunderttausend Maschinenbefehle pro Sekunde ausführen. Leistungsfähige CPUs bestehen zumeist aus mehreren weitgehend eigenständigen Prozessorkernen. Über den Daten-Bus ist die CPU mit den anderen Komponenten verbunden.

Weil die Berechnung von grafischen Darstellungen besonders Ressourcen-intensiv ist, übernehmen zusätzliche GPU (Graphics Processing Units) diese Arbeit. Eine oder mehrere GPUs befinden sich onboard auf der CPU-Platine, auf der Grafikkarte oder werden durch externe Erweiterungsboxen ergänzt. Die Grafikprozessoren sind auf Matrix- und Vektorrechnungen hin optimiert, wie sie beispielsweise bei 3D-Darstellungen oder -Techniken wie Texture Mapping und Shading benötigt werden. Weil auch hier bereits große Datenmengen zur selben Zeit verarbeitet werden müssen, arbeiten GPUs parallelisiert.

Genau diese beiden Eigenschaften – die Optimierung hinsichtlich Matrixrechnungen und die Parallelisierbarkeit – machen GPUs zu geeigneten Rechenprozessoren. Neuronale Netze bestehend aus einer (beinahe) beliebigen Anzahl von Neuronen, die untereinander mit verschiedener Gewichtung verbunden sind. Diese Neuronen können Signale von der Außenwelt empfangen (Input-Units), Signale weitergeben (Output-Units) oder für interne Berechnungs-Abbildungen (Hidden-Units) verantwortlich sein. Mit jedem Daten-Durchlauf verändert sich die Matrix: Neuronen kommen hinzu und Verbindungen werden auf- oder abgewertet. Mit zunehmender Größe und wachsender Datenmenge steigt der Bedarf an Rechen-Ressourcen. Da GPUs parallel arbeiten können, lassen sie sich gut skalieren.

GPU-Rechenkapazitäten ins Gesamtkonzept integrieren

Der Markt bietet inzwischen ein gutes Angebot an Grafikprozessoren, beispielsweise als Erweiterungsbox, als Infrastruktur-Service aus der Cloud oder in Form von speziellen KI-Grafikkarten. Zudem erleichtern KI-Tools mit vorprogrammierten und antrainierten Algorithmen den Einstieg in erste KI-Projekte. Doch damit aus einem Testprojekt eine KI-Strategie wird, bedarf es vor allem einer unternehmens- oder wenigstens prozessübergreifenden Datenstrategie. Zwei Punkte sind dabei von besonderer Bedeutung: die Verfügbarkeit der zu analysierenden Daten und die Leistungsfähigkeit sowie Integration der gesamten Infrastruktur.

Das heißt konkret: Es genügt nicht, der IT mit zusätzlichen GPUs Rechenpower zur Verfügung zu stellen. Es sind vielmehr Konzepte notwendig, die aufschlüsseln, welche Daten woher kommen und was analysiert werden soll. Welche Ziele verfolgt das KI-Projekt? Und es sind ja nicht nur die Prozessoren, die mit den wachsenden Datenmengen umgehen können müssen: Die gesamte Infrastruktur muss flexibel und skalierbar sein. Cloud-Services können für zusätzliche Ressourcen genutzt werden. Alle Infrastruktur-Komponenten, wie etwa das Datenbank-System, müssen dafür sowohl mit den vielfältigen Ressourcen-Optionen, als auch mit GPU-Erweiterungen jeder Art umgehen können.

Gerade am Beispiel der Datenbank zeigt sich, wie wichtig es ist, alle Infrastruktur-Komponenten im Blick zu behalten. Wenn große Datenmengen extrem performant verarbeitet werden müssen, stoßen vorhandene klassische Datenbanken an ihre Grenzen. Ihre Performance lässt sich nicht ohne weiteres verbessern, denn der limitierte Festplattenzugriff und die blockweise Verarbeitung wirken einschränkend. Schon an diesem Punkt ist es sinnvoll, über einen Technologie-Wechsel, beispielsweise hin zu Hauptspeicher-nutzenden In-Memory-Datenbanken, nachzudenken. Aber nicht alle auf Performance ausgerichteten Datenbanken integrieren GPUs vollständig. Das soll verdeutlichen, wie wichtig es ist, sich bereits in der Testphase datenintensiver KI-Projekte Gedanken über mittel- und langfristige Ziele zu machen und die Infrastruktur möglichst flexibel auszurichten.

(ID:46844002)