Kommentar von Kevin Deierling, NVIDIA Big Data ist größer denn je

Von Kevin Deierling |

Anbieter zum Thema

Big Data war noch nie von so zentraler Bedeutung für unser Leben wie heute. Das gilt beispielsweise für fortschrittliche Analysetechnologien, die es ermöglicht, aus den Datengrundlagen Wert zu schöpfen und Ergebnisse in komplexen Feldern zu erzielen – wie etwa der Forschung zu COVID-19. Wohin steuert die Analytik also als nächstes und welche Art von Lösungen wird dies ermöglichen?

Der Autor: Kevin Deierling ist VP Marketing der NVIDIA Networking-Business Unit
Der Autor: Kevin Deierling ist VP Marketing der NVIDIA Networking-Business Unit
(Bild: NVIDIA)

Die Experten für Big Data sind sich allgemein einig, dass die Menge der generierten Daten in Zukunft exponentiell wachsen wird. Ein kürzlich veröffentlichter Bericht des unabhängigen Analysten IDC prognostiziert, dass der globale Datenbestand bis 2025 rund 175 Zettabytes erreichen wird. Was ist der Grund für dieses Wachstum? Zum einen ist ein kontinuierlicher Anstieg von Internetnutzern zu verzeichnen, die ihr Leben online führen, von der geschäftlichen Kommunikation über das Einkaufen bis hin zu sozialen Netzwerken. IDC schätzt, dass 75 Prozent der Weltbevölkerung innerhalb von fünf Jahren täglich mit Online-Daten interagieren werden. Und es sind nicht nur die Menschen, die das Wachstum generieren, denn Milliarden von angeschlossenen Geräten und eingebetteten Systemen tragen heute dazu bei, die neue Wissenschaft der IoT-Datenanalyse zu formieren.

Die Datenanalyse hat in kurzer Zeit einen langen Weg zurückgelegt. Das Verständnis dessen, was mit Daten erreicht werden kann, hat sich weiterentwickelt ebenso wie die Reife der Instrumente, mit denen sie genutzt werden. Infolgedessen steigert sich ihr Wert auf innovative und aufregende neue Weise. Gänzlich neue Wege der Data Science eröffnen sich, von den IoT-Analytics und der erweiterten Analyse großer Datenmengen bis hin zu DataOps.

Vielfältige Einsatzbereiche für Analytics

Online-Händler können bereits heute mithilfe von Analysen den Weg des Kunden vom ersten Interesse bis hin zur Kaufentscheidung verfolgen, wobei jeder Schritt des Weges in der einen oder anderen Weise quantifizierbar und messbar ist. Die Daten eines einzelnen Kunden werden wiederum Teil eines größeren Datensatzes, der sich aus den Präferenzen Tausender Verbraucher zusammensetzt. Analyseexperten nutzen die neuesten Software-Plattformen, um Erkenntnisse für eine gezieltere und relevantere Kundenerfahrung zu gewinnen.

Der Wert der modernen Analytik liegt darin, wichtige Informationen zu enthüllen, die in den Daten zwar vorhanden, aber zuvor unzugänglich oder nicht wahrnehmbar waren. Dadurch wird die Dynamik eines ansonsten festgefügten Marktes aufgebrochen und verändert. Gartner führt das Beispiel der Banken und ihrer Ausrichtung auf Dienstleistungen im Bereich der Vermögensverwaltung an. Die traditionelle Auffassung besagte hier, dass ältere Kunden wahrscheinlich am ehesten an diesen Produkten interessiert sind. Mithilfe von erweiterten Analysen stellten die Banken jedoch fest, dass jüngere Kunden im Alter von 20 bis 35 Jahren tatsächlich mehr geneigt sind, entsprechende Services in Anspruch zu nehmen. Eine gründliche Analyse beseitigte auf einen Schlag eine Ebene der Verzerrung und des falschen Denkens, um neue Dienstleistungen für Kunden und neue Möglichkeiten für die Banken zu erschließen.

Ein noch jüngeres Beispiel für die Macht der Analytik sind die Wissenschaftler und Forscher, die auf der ganzen Welt daran arbeiten, ein Heilmittel für COVID-19 zu finden. Diese unverzichtbare Arbeit wird nicht zuletzt durch wissenschaftliche Rechenplattformen unterstützt. Derartige Plattformen beschleunigen den Fortschritt in vielerlei Hinsicht, von der Datenanalyse über die Simulation und Visualisierung bis hin zu KI und Edge-Processing.

Supercomputer und GPUs als Basis

Mit schnellen Grafikprozessoren konnte Oxford Nanopore Technologies beispielsweise das Genom des Virus in nur sieben Stunden sequenzieren. Mithilfe von GPU-beschleunigter Software konnten das US National Institute of Health und die University of Texas mittels kryogener Elektronenmikroskopie eine 3D-Struktur des Virusproteins erzeugen. Die GPU-gesteuerte KI wurde zur genauen Klassifizierung der COVID-19-Infektionsraten auf der Grundlage von Lungenscans verwendet, wodurch die Behandlungspläne beschleunigt wurden. Und im Bereich der Arzneimittelentwicklung setzte das Oak Ridge National Laboratory einen Supercomputer mit InfiniBand-Verbindung und GPU-Beschleunigung ein, um eine Milliarde potenzieller Arzneimittelkombinationen in nur zwölf Stunden zu untersuchen.

Bei der Entwicklung einer noch schnelleren und leistungsfähigeren Analytik werden immer wieder Maßstäbe und Grenzen gesprengt. Einer der wichtigsten Benchmarks in der Datenanalyse heißt TPCx-BB. Der Wert umfasst Queries, die SQL mit maschinellem Lernen auf strukturierten Daten mit natürlicher Sprachverarbeitung und unstrukturierten Daten kombinieren, was die Vielfalt moderner Datenanalyse-Workflows widerspiegelt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Der Rekord für die TPCx-BB-Leistung wurde kürzlich mit der RAPIDS-Suite von Open-Source-Softwarebibliotheken für die Datenwissenschaft, die auf 16 NVIDIA-DGX-A100-Systemen basiert, fast um das 20-Fache übertroffen. Der Benchmark wurde in nur 14,5 Minuten durchgeführt, verglichen mit dem zuvor besten Ergebnis von 4,7 Stunden auf einem CPU-betriebenen Computer-Cluster.

Beschleunigte Visualisierungslösungen, die Terabytes von Daten umfassen, finden auch in anderen Bereichen der Wissenschaft Anwendung. So hat beispielsweise die NASA die Technologie eingesetzt, um die Landung der ersten bemannten Mission zum Mars interaktiv und in Echtzeit in der weltweit größten Volumendarstellung zu visualisieren.

Mit der digitalen Transformation sind Daten heute das schlagende Herz eines jeden Unternehmens. Aber nur mit der richtigen Technologie können diese Organisationen bestimmen, welche Daten am bedeutendsten sind, die wichtigsten Erkenntnisse aus diesen Daten erschließen und entscheiden, welche Maßnahmen zur Nutzung dieser Daten ergriffen werden sollen.

(ID:46953058)