Kommentar von Michael O’Connell, Tibco 10 Vorhersagen für den Analytics-Markt 2021

Autor / Redakteur: Michael O’Connell / Nico Litzel

So unterschiedlich die Auswirkungen der Corona-Pandemie auch sind, eines ist sicher: Als Reaktion darauf haben die Unternehmen ihre Digitalisierung beschleunigt. Doch wie wirkt sich das auf den Analytics-Markt aus? Michael O’Connell, Chief Analytics Officer von TIBCO Software, wagt den Blick in die Glaskugel und trifft zehn Vorhersagen für 2021.

Firmen zum Thema

Der Autor: Michael O'Connell ist Chief Analytics Officer von Tibco Software
Der Autor: Michael O'Connell ist Chief Analytics Officer von Tibco Software
(Bild: Tibco Software)

1. Es wird das Jahr der Plattformen für KI-Apps

Plattformen, die API-led-Microservices und Integrationstools mit Data Science, maschinellem Lernen und visuellen Analysen kombinieren, werden dieses Jahr der Renner sein. Unternehmen benötigen flexible Bausteine, die perfekt ineinandergreifen, um in kurzer Zeit neue Funktionalität und Applikationen mit Künstlicher Intelligenz zu erstellen und damit auf die sich dynamisch entwickelnden Geschäftsanforderungen zu antworten. Moderne Werkzeuge und Ansätze dafür sind Low-Code-Entwicklungstools für Cloud-native Apps, Microservices, ereignisgesteuertes Design inklusive Integration, Data Science und Visual Analytics.

2. Datenverwaltung und -analyse werden hyperkonvergent

Die Welten der visuellen Analytik, der Datenwissenschaft, des Datenmanagements und des Geschäftsprozessmanagements verschmelzen miteinander. Denn die Suche nach Möglichkeiten zur Optimierung beschleunigt sich und die weltweite Pandemie katapultiert Ziele, die für die Zukunft geplant waren, in die digitale Gegenwart. KI-Engines und Software-basierte Vorschlagssysteme treiben diese Konvergenz voran, denn sie bringen automatisierte Datenaufbereitung und maschinelles Lernen in den Arbeitsplatz für Business Intelligence & Analytics sowie Data Science. Die Automatisierung von Routineaufgaben mittels KI schafft Freiraum für Innovation und Geschäftsoptimierung und gestaltet das Zusammenspiel von Menschen und Technologie auf eine sinnvolle Art und Weise neu.

Der Trend hin zur Konvergenz der Daten- und Analysewelten wird sich 2021 beschleunigen und zur Integration der Angebote von Cloud-Analytics-Anbietern mit Open-Source-basierten und selbstentwickelten Werkzeugen führen, so dass sie sich aus der Perspektive der Nutzer gar nicht mehr voneinander unterscheiden lassen. Damit wird aus der Konvergenz Hyperkonvergenz. Sie erleichtert die Implementierung und Bereitstellung von End-to-End-Workflows und die Entwicklung von Geschäftslösungen in hybriden Cloud-Umgebungen. Gleichzeitig steigt damit der Bedarf an einer breiteren Datenkompetenz in den Teams, die an dieser Entwicklung in den Unternehmen beteiligt sind.

3. KI wird der Motor der Software-Automatisierung

Erste Ergebnisse dieser Hyperkonvergenz lassen sich bereits an Ansätzen in der Datenwissenschaft ablesen, die wohl den denkbar umfassendsten Workflow – von Datenzugriff und -vorbereitung über Feature-Entwicklung und -Auswahl sowie Auswahl der passenden Modelle und ihrer Selbsterklärbarkeit bis zur Paketierung und Bereitstellung von Funktionalitäten und Visual-Analytics-Apps – aufweist.

Teile dieses Workflows werden bereits mit großem Erfolg automatisiert, wobei die Bezeichnung „AutoML“ (Automated Machine Learning) als Kurzform für diesen Teilbereich steht.

Verschiedene Anbieter und Cloud-Provider stellen bereits Kombinationen von Diensten und Lösungen bereit, und ihre Zahl wird 2021 weiter zunehmen. Es bilden sich wachsende Communities im Zusammenhang mit Werkzeugen, um die Entwicklung wiederverwendbarer und standardisierter Business-Funktionalitäten zu unterstützen. Außerdem wird mittels API-Management die Harmonisierung der Datenquellen durch Low-Code-Entwicklung von Analyseanwendungen vorangetrieben.

In Summe verbessert diese Automatisierung die Produktivität der Schlüsselressource Data Scientists erheblich und erweitert den Zugang zu wertvollen Softwarekomponenten für Geschäftsanwender.

4. GPUs werden Mainstream

Die Übernahme von ARM durch Nvidia war ein bedeutendes Ereignis in der Welt des GPU-Computing. Die CPUs von ARM sind in Milliarden von Geräten weltweit verbaut, die im Rahmen von Edge-Computing-Szenarien aus der Sicht von NVIDIA ein immenses Verkaufspotenzial für die eigenen Deep-Learning-Technologien darstellen. Management und Analyse von Daten in Edge-Geräten, wie zum Beispiel Kameras, werden dadurch deutlich an Fahrt gewinnen.

Umgekehrt aber wird dies nicht die starke Bewegung in Richtung Cloud-Storage und -Compute bremsen, bei dem Intel- und AMD-Prozessoren viele Big-Data-Workloads bewältigen, oft Seite an Seite mit NVIDIA-GPUs. Tatsächlich ist die Verlagerung von Big Data weg von On-Premises-Rechenzentren und Hadoop-Datenseen zu billigem Cloud-Speicher die schnellste Entwicklung, die ich je im Bereich Datenmanagement und -analyse gesehen habe. Zu den Anwendungsfällen mit hoher Wertschöpfung gehören visuelle Analysen und Data Science auf der Basis riesiger Datenmengen. Beispielhaft sind hier Szenarien im Zusammenhang mit Geodaten in Transport und Logistik, beim Management natürlicher Ressourcen und bei Betriebsabläufen im Energiesektor zu nennen. Innovative Technologien, die eine Just-in-Time-Kompilierung von parametrisierten SQL- und Python-Routinen mittels Low-Level-Virtual-Machine-Ansatz beinhalten, werden florieren. Vor diesem Hintergrund wird die Nutzung von hybriden GPU-CPU-Rechnern in der Cloud 2021 stark zunehmen.

5. Die Blockchain besteht den Praxistest

Eine weitere Entwicklung wird 2021 die Integration der Blockchain-Technologie in bestehende Wertschöpfungsketten sein und sie damit dem Praxistest unterziehen. So hat PayPal angekündigt, seinen Kunden in den USA zu erlauben, Bitcoins direkt über seine App zu kaufen, und die Kryptowährung auch in der eigenen Social-Payment-App Venmo zu unterstützen.

Gleichzeitig beschleunigen das 2020 gegründete Blockchain-gestützte Global Shipping Business Network, das von CargoSmart geleitet wird und dem rund zehn Schifffahrtsunternehmen angehören, zusammen mit dem wachsenden und von Maersk geführten Netzwerk TradeLens die Digitalisierung der Prozesse in der Schifffahrtsindustrie und die Optimierung der globalen Lieferketten. Und FedEx verfolgt immer ernsthafter seine Maxime „Die Information über das Paket ist so wichtig wie das Paket selbst“ und konzentriert sich dabei insbesondere auf die lückenlose Kontrolle der Lieferkette von der Herstellung bis zum Verbrauch.

6. Video- und Bildanalyse werden Teil von Cloud-to-Edge-Umgebungen

Die Erkennung von Anomalien und Defekten von Maschinen in einer vernetzten Cloud-Umgebung schafft schon seit einiger Zeit einen Mehrwert in der Produktion und bei der Überwachung von Maschinen und Anlagen im laufenden Betrieb. Das sind erste Bausteine, die sich 2021 zu Plattformen zur Erstellung von Bildverarbeitungsanwendungen weiterentwickeln und durchgängige Deep-Learning-Workflows unterstützen werden, die Bild- und Videoströme analysieren und mit hochauflösenden Kameras verbunden sind.

Das Entwickeln, Verwalten und Bereitstellen von Machine-Learning-Modellen für Bildverarbeitungsapplikationen von der Cloud bis ans Edge erfordert ausgefeilte Vorverarbeitungs-, Analyse- und Machine-Learning-Funktionen, ganz zu schweigen von einem ereignisgesteuerten Design und der Integration von Modellinferenz, Management und Betrieb. Solche Analyse-Pipelines weisen ein breites Anwendungsspektrum auf, das von Kundenanalysen und Nachfrageprognosen im Einzelhandel bis hin zu Asset Health Management und Produktentwicklung reicht. Diese Anwendungen werden von Bild- und Videodaten gespeist, die sowohl von fest installierten Kameras als auch von sich bewegenden Drohnen stammen. Die Einführung der NVIDIA-Jetson-Nano-Umgebung wird das Wachstum in diesem Bereich fördern.

7. JavaScript etabliert sich als Umgebung für visuelle Analytik

Der Reifegrad, den JavaScript als Design- und Entwicklungsumgebung erreicht hat, ist schon jetzt beeindruckend, wird sich aber im Jahr 2021 noch deutlich erhöhen. Unabhängig davon, ob Unternehmen mit JavaScript am Frontend – Beispiele sind Apps und Frameworks auf Basis von React, Angular und vue.js oder Desktop-Apps auf Basis von Electron.js – oder im Backend mit Node.js arbeiten, bildet JavaScript stets den Ausgangspunkt. Tatsächlich liefert sich JavaScript ein Kopf-an-Kopf-Rennen mit Python als beliebtester Programmiersprache. Sogar Algorithmen für maschinelles Lernen lassen sich mit Tensorflow.js entwickeln.

Besonders kreativ und innovativ ist die Verwendung von JavaScript als Engine für Spezifikationsdesign und Rendering im Rahmen von Visualisierungen. Open-Source-Umgebungen, Spezifikationen, Engines wie D3 und Vega oder kommerzielle Angebote wie highcharts, zoomcharts und tom sawyer werden von großen Entwickler-Communities direkt unterstützt und finden nicht nur in Form von Bibliotheken Eingang in kommerzielle Produkte von Dritten.

2021 werden die Welten der Self-Service-BI und der visuellen Analytik immer stärker miteinander verschmelzen. BI- und Analytics-Anbieter werden ihre Palette an Visualisierungsmöglichkeiten mittels einfach zu modifizierender nativer Fähigkeiten und Bereitstellungsoptionen erweitern und dadurch eine durchgängige Anwendererfahrung schaffen. Zudem werden sie Marktplätze für den Austausch solcher Erweiterungen über breite Communities of Practice bereitstellen. Der mittlerweile erreichte Reifegrad von Vega (von den d3-Pionieren) als Visualisierungsgrammatik und -plattform wird dazu beitragen, bewährte Nutzungspraktiken Community-übergreifend als verbindliche Standards zu etablieren.

8. Bewegungs- und Ruhedaten werden kreativ miteinander kombiniert

Alle Daten beginnen als Ereignisse, die mit unterschiedlicher Häufigkeit eintreffen. Unternehmen fassen die Ereignisströme zusammen, überwachen Trends, treffen Entscheidungen und ergreifen Maßnahmen auf Basis dieser Bewegungsdaten. Darüber hinaus akkumulieren sie Daten aus den Ereignisströmen und speichern sie als Ruhedaten. Damit trainieren sie Prognosemodelle und erstellen visuelle Analyseanwendungen.

Die optimale Kombination von Bewegungs- und Ruhedaten variiert je nach Branche und Anwendungsfall. Generell zeigt sich 2021 ein Abwärtstrend bei Lösungen, die Daten in Systeme wie SAP HANA und Data Warehouses kopieren, und ein Aufwärtstrend bei Lösungen, bei denen Daten im Event-Stream, in kostengünstigen Storage Data Lakes und in dynamischen Kombinationen aus beiden analysiert werden.

9. Data Hubs bilden die Brücke zwischen hybriden Datenbeständen

Da (Multi-)Cloud-Apps mit KI immer mehr zur Wertschöpfung beitragen, werden rollierende Daten-Updates aus disparaten Quellen im Geschäftsbetrieb immer wichtiger. Deshalb sind 2021 weitere Fortschritte bei Data-Hub-Technologien zur Verbindung von Cloud- und On-Premises-Datenbeständen, zur Umwandlung einzelner Datenquellen über Cloud-Integrationsservices wie AWS Lambda und zur Einspeisung von Echtzeitdaten zu erwarten, um auch den aktuellen Kontext der Daten berücksichtigen zu können.

Datenvirtualisierung stellt dabei eine Schlüsseltechnologie dar für die Verbindung von Datenbeständen mit geregeltem und sicherem Zugriff über hybride Cloud-Umgebungen und über Quellen mit Ruhe- und Bewegungsdaten hinweg. So können Einzelhandels- und Konsumgüterunternehmen innovative Methoden zur Prognostizierung ihrer Geschäftsentwicklung nutzen. Dabei kombinieren sie Daten aus dem Online-Handel und den Filialen vor Ort mit COVID-19-Reproduktions- und Infektionsprognosen, um das Kundenaufkommen in den Geschäften zu analysieren und Umsätze zu prognostizieren. Das ermöglicht Antworten auf Fragen wie: Was wird bei der Wiedereröffnung von Läden passieren, die einen ähnlichen Produktmix aufweisen und zu denen historische Besuchsmuster vorliegen, die aber in Regionen mit unterschiedlichem Pandemieverlauf angesiedelt sind?

10. Data Science konvergiert mit DevOps und ModelOps

Das Arbeiten von zu Hause aus hat die Zusammenarbeit zwischen Data Scientists, DevOps-Teams und ModelOps-Entwicklern intensiviert, um Data-Science-Apps schneller in Produktion zu bringen. Diese Zusammenarbeit wird 2021 in dem Maße zunehmen, wie sich der ModelOps-Ansatz verbreitet, um die unterschiedlichen Aktivitäten bei Entwicklung und Betrieb von Anwendungen und Modellen besser aufeinander abzustimmen. Das führt im kommenden Jahr zur Entstehung einer neuen Rolle, der des ML Engineer. Ein(e) ML Engineer hilft bei der Konfiguration von Einsatzszenarien in hybriden Cloud-Umgebungen und arbeitet mit Data Scientists, Data Engineers, Fachanwendern und DevOps-Teams, ja sogar mit App-Entwicklungs- und Design-Teams zusammen.

(ID:47060729)