Suchen

Datenanalysen mit der Cloud Big-Data-Analytik für alle

| Autor / Redakteur: Thorsten Röscher / Nico Litzel

Wenn es darum geht, auf Kundenbedürfnisse einzugehen, heben sich in Branchen wie im Handel oder im Bankwesen einige wenige Top-Performer von der breiten Masse ab. Wie sie das machen? Mit Big Data-Analytik. Denn so verstehen sie nicht nur, was mit ihren Kunden passiert, sondern auch warum und können schneller und gezielter auf Veränderungen reagieren.

Firmen zum Thema

Der Auto: Thorsten Röscher ist Pre-Sales Principal Consultant bei FICO
Der Auto: Thorsten Röscher ist Pre-Sales Principal Consultant bei FICO
(Bild: FICO)

Das Problem: Nur wenige Unternehmen verfügen über genügend Kapital, Infrastruktur und Personal, um Big-Data-Analytik nutzen zu können. Doch das wird sich in Zukunft ändern, denn Cloud-basierte Lösungen ermöglichen einen schnelleren, einfacheren und vor allem kostengünstigen Zugang zu Big-Data-Analytik und Entscheidungsmanagement.

Und diesen benötigen viele Unternehmen, wenn sie nicht den Anschluss verpassen wollen: Denn Unternehmen, die Big-Data-Analytik nutzen, sind kundenorientierter, innovationsfreudiger und bringen ihre Produkte und Services schneller an den Markt.

Bildergalerie

Die Vorteile der Cloud

Bislang musste die breite Masse an Organisationen dabei zusehen, wie eine Handvoll Unternehmen mithilfe kosten- und personalintensiver Big-Data-Analytik ihren Vorsprung gegenüber dem Wettbewerb immer weiter ausbauen. Den grundlegenden Wandel bringen Cloud-Technologien, denn mit ihrer Hilfe erhalten Organisationen jeglicher Art und Größe ähnliche Möglichkeiten wie die Top Performer.

Die Vorteile der Cloud sind schnell erklärt: Weniger Zeit, niedrige Kosten, geringeres Risiko. Cloud-basierte Big-Data-Analytik ist bis zu 80 Prozent günstiger! Zudem ist sie zeitsparend und ermöglicht es auch kleineren Unternehmen, trotz geringer finanzieller und personeller Ressourcen große Datenmengen zu nutzen. Mithilfe moderner Cloud-Technologien können Organisationen ihre Erfolge teilen, voneinander lernen und somit ihre Gewinne steigern.

Die Grundlage Cloud-basierter Big-Data-Analytik

Cloud-basierte Big-Data-Analytik beruht auf der sogenannten „Third Platform“, die es in dieser Form erst seit wenigen Jahren gibt. Sie bezeichnet die Kombination verschiedener Technologien, die Big Data verarbeiten. Dazu gehören standardisierte Hardwarekomponenten und Service-basierte Softwarearchitekturen genauso wie stets verfügbare Breitband-Netzwerke. Social Media und intelligente Mobile Devices auf Unternehmens- und Kundenebene runden das Fundament Cloud-basierter Big-Data-Analytik ab.

Lösungen, die auf der Third Platform basieren, bieten Vorteile wie elastisches On-Demand-Computing, eine skalierbare Service-basierte Infrastruktur, standardisierte Adaptionstools für eingehende Daten, wiederverwendbare Lösungskomponenten und eine passende Umgebung für die schnelle Entwicklung von Anwendungen (RAD).

Was mit der Cloud möglich wird

Die Cloud-Technologie unterstützt flexible Ansätze wie Infrastructure-as-a-Service (IaaS), bei dem die benötigte IT-Infrastruktur je nach konkretem Bedarf für die Einführung und Nutzung von Big-Data-Analytik bereitgestellt wird.

Zudem bieten die flexiblen Cloud-basierten Plattformen nicht nur die passenden Werkzeuge, um neue Datenquellen zu erschließen, sondern auch eine große Auswahl an Tools, um bereits vorhandene Daten auf immer neue Art und Weise zu analysieren. Diese können je nach Bedarf einfach „hinzugebucht“ werden. Und Zeit ist ein wichtiger Faktor: Die Vorreiter heben sich dadurch von der Masse ab, als dass sie eintreffende Datenströme in Echtzeit analysieren und sofort in operative Entscheidungen übertragen – innerhalb weniger Wochen oder Tage!

Durch die Verfügbarkeit von Cloud-basierter Analytik können davon nun auch kleinere Organisationen profitieren und neue Entscheidungsmodelle für jegliche Art von Anwendungen konzipieren, die auf Analysemodellen und Geschäftsregeln basieren. RAD-Tools verkürzen die Zeit dafür erheblich – und tragen ihren Teil dazu bei, dass die Kosten für Analytik-Lösungen um bis zu 80 Prozent sinken. Mithilfe von Simulationstools werden Optimierungsmaßnahmen getestet und zwischen Zielen und Einschränkungen – Budget, Zeit, Personal – abgewägt.

Mit unnachgiebigem Eifer lernen

Top Performer analysieren nicht nur Daten und handeln zeitnah – sie sind auch gut darin, aus Geschehenem zu lernen: Mit Champion/Challenger-Tests gleichen sie die gegenwärtig beste Strategie mit einer oder mehreren Alternativen ab. In Echtzeit werden Auswirkungen auf die relevanten Kennzahlen abgeschätzt. Cloud-basierte Analytik ermöglicht es jeder Organisation, mit derselben Geschwindigkeit und Präzision zu lernen, denn sie wägen alle Faktoren gegeneinander ab, die dann in komplexe Strategien umgewandelt werden und die Auswirkungen auf definierte Kennzahlen vorhersagen.

Auch Data Marts können mühelos eingerichtet werden. Sie werden benötigt, um Entscheidungen und deren Auswirkungen abzubilden und eine Strategie schnell beurteilen zu können. So können Organisationen zu jeder Phase der Wertschöpfungskette aktuelle Ergebnisse mit KPIs abgleichen und in Simulationen verschiedene Varianten miteinander vergleichen.

In vielen Fällen können Modelle sich selbst aktualisieren, indem sie selbstkalibrierende oder lernfähige Technologien nutzen. So werden sie mit jeder Transaktion präziser und passen sich ganz ohne menschliches Eingreifen in Echtzeit an.

Schließlich haben Organisationen über die Cloud auch Zugang zu Expertise und Tools – auch zum Executive Dashboard, welches ihnen wichtige Informationen darüber liefert, welche Auswirkungen Entscheidungen auf Gewinn- und Verlustrechnungen haben.

Innovation durch Kooperation

Kleinen und mittelständischen Unternehmen fehlen im Vergleich zu Top Performern oft die Technologieressourcen oder die Expertise, um bestimmte Probleme zu lösen. Cloud-Services schaffen einen leichteren Zugang zu beidem. Über die Cloud Community können Unternehmen andere Organisationen oder Individuen finden, mit denen sie gemeinsam an neuen Ideen und Problemlösungen arbeiten können.

Am Beispiel einer nordamerikanischen Bankengruppe lässt sich nachzeichnen, wie das funktioniert. Die Gruppe verfügt über eine sogenannte „Hub and Spoke“-Architektur (siehe Grafik in der Bildergalerie). Wenn neue Tochterbanken Teil der Gruppe werden, werden sie über eine neue „Speiche“ mit den anderen Banken verbunden und profitieren von deren Best Practices. Innerhalb der Gruppe können Banken ihre Entscheidungsstrategien über geografische Märkte hinweg teilen, Ergebnisse vergleichen und aktiv voneinander lernen. Die „Hub and Spoke“-Methode bringt fortlaufende Vorteile, verlangt zu Beginn aber ein hohes Investment.

Eine kostengünstigere Alternative dazu ist der Cloud-basierte Zugang zu Infrastructure-as-a-Service (IaaS). Wie die Grafik in der Bildergalerie zeigt, sind die einzelnen Mitglieder über die Cloud miteinander verbunden. Standardisierte Adapter für ein breites Spektrum von Datenquellen machen es einfacher, organisatorische Silos zu überwinden, indem sie die für den Entscheidungsprozess benötigten Daten in einem Data Mart zusammenführen. Geteilte Speicherorte (Geschäftsregeln, Vorhersage-Bibliotheken, Algorithmen zur Vorhersage und Optimierung, Muster für Entscheidungsmodelle, etc.) erleichtern das Lernen und helfen Organisationen, Erfolge nachzuahmen und auf ihnen aufzubauen.

Daten – Rohstoff des 21. Jahrhunderts

Grundsätzlich ändert sich mit dem Einsatz moderner Cloud-Technologien im Bereich der Big-Data-Analytik vor allem eines: Die analytischen Methoden, die bislang nur einer kleinen Gruppe privilegierter Unternehmen vorbehalten waren, öffnen sich nun für die breite Masse. Auch sie werden in Zukunft in der Lage sein, komplexe Daten zu analysieren, ihre Schlüsse daraus zu ziehen und ihre Kundenorientierung daran anzupassen. Und das ist gut so, denn Daten sind der Rohstoff des 21. Jahrhunderts und sollten deshalb vor allem eines sein: für alle zugänglich.

Artikelfiles und Artikellinks

(ID:43285314)