Suchen

Kommentar von Bob Plumridge, SNIA Europe Warum Big-Data-Projekte scheitern

| Autor / Redakteur: Bob Plumridge / Nico Litzel

Zum Glück hat sich Big Data in den vergangenen zehn Jahren erheblich weiterentwickelt. Dennoch kommt es nach wie vor zu großer Verwirrung und großer Frustration, wenn es um die Analyse geht.

Firma zum Thema

Der Autor: Bob Plumridge ist Mitglied des Board of Directors der SNIA Europe
Der Autor: Bob Plumridge ist Mitglied des Board of Directors der SNIA Europe
(Bild: SNIA Europe)

Und das ist kein Einzelfall. Den Unternehmen fällt es nicht leicht, Big Data richtig zu nutzen – zum Teil, weil sie nicht wissen, wie sie die technischen Herausforderungen bewältigen sollen, und zum anderen, weil sie nicht wissen, wie sie an die Analyse von Big Data herangehen sollen. Das häufigste Problem ist die Komplexität der Daten. Und dieses Problem ist nicht selten hausgemacht, wenn Unternehmen, die gerade mit der Analyse von Big Data beginnen, alles auf einmal erreichen wollen. Dadurch werden die IT-Teams überfordert und die Aufgabe scheint unmöglich zu bewältigen zu sein. Natürlich kann die Datenanalyse wichtige Erkenntnisse liefern. Aber es ist auch nicht die Antwort auf alle Probleme oder Chancen eines Unternehmens.

Komplexität kann auch das Symptom eines ganz anderen Problems sein – nämlich des Versuchs, Daten aus einem Mischmasch an veralteten Technologien zu gewinnen. Tatsächlich werden viele Unternehmen noch Jahre an alte Technologien gebunden sein. Und sie müssen eine Möglichkeit finden, mit dieser Situation umzugehen, statt zu versuchen, ihr zu entkommen. Das Scheitern ist ansonsten so gut wie vorprogrammiert.

Eine weitere Fehlerquelle sind schlecht oder falsch gesteckte Geschäftsziele. Dadurch werden möglicherweise die falschen Fragen gestellt und nicht traditionelle Datensätze mit traditionellen Mitteln durchsucht. Sehen wir uns beispielsweise die Googles Initiative „Google Flu Trends“ an, mit der Grippewellen vorhergesagt werden sollten. In diesem Projekt wurde die falsche Frage gestellt: „Wann wird die nächste Grippewelle in Nordamerika ankommen?“ Als die Effizienz des Projekts analysiert wurde, stellte sich heraus, dass Google Flu Trends die amerikanische Grippewelle von 2009 nicht vorhersah und die Entwicklung ansonsten ständig überschätzte. Die Initiative wurde 2013 schließlich eingestellt. Später überlegte ein Wissenschaftler, dass das Projekt eventuell erfolgreicher gewesen wäre, wenn die Forscher gefragt hätten: „Was sagt uns die Häufigkeit und Anzahl von Google Suchbegriffen?“

Einfach statt kompliziert

Der bekannte amerikanische Lyriker Henry Wadsworth Longfellow schrieb einst: „Im Charakter, in den Manieren, im Stil, ja in allen Dingen ist die Meisterschaft die Einfachheit.“ Zu häufig denken Menschen, dass Einfachheit mit fehlendem Ehrgeiz und Leistungswillen gleichzusetzen ist. Tatsächlich ist sie jedoch der Schlüssel zu großer Leistungsfähigkeit. Steve Jobs sagte einmal, dass man mit Einfachheit Berge versetzen kann.

In den vergangenen Jahren hat sich die Technologie eher in Richtung Einfachheit statt hin zu mehr Komplexität weiter entwickelt. Das bedeutet jedoch nicht, dass das Backend nicht kompliziert wäre. Im Gegenteil: Hinter einer intuitiven Benutzererfahrung steckt sehr viel Arbeit. Denken wir zum Beispiel an Microsoft Word: Immer wenn wir schreiben, werden Transistoren ein- oder ausgeschaltet und finden im gesamten Computer und in den Speichermedien Spannungsänderungen statt. Wir selbst sehen nur das Dokument, aber im Hintergrund findet viel technische Zauberei statt.

Sinnvolle Informationen

Um sinnvolle Informationen aus Daten zu ziehen, benötigt man drei Disziplinen: Data Engineering, Betriebswirtschaft und Datenvisualisierung. Wer diese drei Bereiche nutzen möchte, benötigt wahre Supermenschen in seinem Team: Sie können schlafwandlerisch sicher programmieren, sie haben Ahnung von Betriebswirtschaft, umfangreiches Wissen über ihre Branche und verwandte Branchen, überlegene mathematische Kenntnisse sowie ausgezeichnete Management- und Kommunikationsfähigkeiten. Oder man hat Technologien, die all diese Herausforderungen abstrahieren und eine Plattformebene erstellen können, die den Großteil der Rechenaufgaben im Hintergrund erledigt.

Es gibt aber dennoch einen Vorbehalt. Auch wenn Sie Komplexität meiden und sich für eine einfache Datenplattform entscheiden, benötigen Sie dennoch Mitarbeiter, die sich mit Daten auskennen. Diese Datenwissenschaftler müssen aber keine drei Jahre lernen, um sich auch die kleinsten Details von Hadoop zu merken – sie müssen die Herausforderungen von Big Data verstehen.

Es gibt Unternehmen, die eine Methode bereitstellen und Firmen in die richtige Richtung weisen. Aber auch sie müssen herausfinden, welche Fragen zu stellen und welche Antworten zu erwarten sind. Es ist extrem wichtig zu wissen, wie Unternehmen sich mit den richtigen Fähigkeiten für diese Aufgabe ausstatten können.

Erfolgreiche Big-Data-Projekte

Obwohl viele Big-Data-Projekte wegen der oben aufgezählten Gründe stagnieren oder scheitern, gibt es immer mehr Unternehmen, die die Transformation erfolgreich bewältigen. Und das liegt hauptsächlich daran, dass sie das Frontend durch Layer-Technologie wesentlich vereinfacht haben.

Nehmen wir zum Beispiel die Financial Industry Regulatory Authority, Inc. (FINRA), eine private Selbstregulierungsorganisation und die größte unabhängige Genehmigungsbehörde für alle Unternehmen in der Wertpapierbranche in den USA. Dank der oben beschriebenen Methode konnte die Finanzregulierungsbehörde die richtigen „Nadeln“ in ihrem wachsenden „Daten-Heuhaufen“ finden. Die Analysten der Behörde können mittlerweile auf alle Daten im mehrere Petabyte großen Datenmeer der FINRA zugreifen, um Verstöße gegen die Handelsvorschriften zu identifizieren – und das automatisiert, wodurch das Verfahren um das 10- bis 100-Fache beschleunigt wurde. Das ist ein Unterschied von Sekunden im Vergleich zu Stunden!

Das Ergebnis ist mehr Einfachheit und Kontrolle für die FINRA. 2015 ordnete sie Investmentfonds die Rückzahlung von ca. 90 Millionen Euro an die durch Fehlverhalten erlangt worden waren – beinahe das Dreifache im Vergleich zu 2014.

Big-Data-Projekte müssen nicht verwirrend sein. Sie haben das Potenzial, revolutionäre Einsichten zu liefern, sofern sie auf Einfachheit beruhen. Überlassen Sie den schwierigen Part der Technologie – und machen Sie den Rest so einfach wie möglich.

Artikelfiles und Artikellinks

(ID:44654002)