SAS Big Data Lab

Ein Labor für Big Data

| Autor / Redakteur: Ariane Rüdiger / Nico Litzel

Die Architektur des Big Data Lab des SAS Institute
Die Architektur des Big Data Lab des SAS Institute (Bild: SAS)

Unternehmen haben hohe Erwartungen an Big Data, doch braucht man dafür eine neue Herangehensweise. Seinen Ansatz stellte SAS Interessenten in München vor.

„Bei klassischer BI stellt man eine Frage und sucht dann in den vorhandenen Daten nach der Antwort. Bei Big Data nimmt man alle möglichen verfügbaren Daten, korreliert sie und guckt, welche Erkenntnisse man findet. Erst danach entwickelt man auf Basis dieser Erkenntnisse neue Produkte, Services oder Geschäftsprozesse.“ So umriss Andreas Gödde, Director Business Analytics bei SAS Deutschland, die Unterschiede zwischen konventionellen und Big-Data-Analyseverfahren. Um Big Data zu erklären und eigene Produkte in dem Bereich vorzustellen, hatte das SAS Institute Interessenten aus der Industrie nach München geladen.

Andreas Gödde, Director Business Analytics bei SAS Deutschland
Andreas Gödde, Director Business Analytics bei SAS Deutschland (Bild: SAS)

Datengetriebene Geschäftsmodelle zu entwickeln, sei zukünftig die wichtigste Möglichkeit, einen relevanten Wettbewerbsvorteil erzielen. Das erforderte aber einen disruptiven Ansatz, betonte in seinem einleitenden Referat Frank Weber, Enterprise Sales Director, SAS Deutschland. Paradebeispiele dafür sind Uber, Airbnb oder Tesla (verkauft jetzt Softwarefeatures als Service-Komponente seiner Fahrzeuge).

„Schon um die eigene Wettbewerbsposition zu halten, wird man zukünftig seine Daten besser nutzen müssen“, prognostizierte Weber. Dabei sei es durchaus möglich, dass sich nicht jeder Versuch sich als Volltreffer entpuppe. Deshalb gelte es, möglichst schnell möglichst viel Unterschiedliches zu versuchen, wenig versprechende Ansätze schnell zu beenden, aus ihnen zu lernen und die nächste Idee zu testen. Man brauche dafür ein „Start-up Mindset.“

Grenzen traditioneller Investitionsverfahren

Klar, dass da das bisherige Standard-Investitionsverfahren, für jede investive Ausgabe möglichst einen sauber gerechneten Business Case vorweisen zu können, hier an seine Grenzen stößt. Einwänden aus dem Publikum, der Aufbau einer aktionsfähigen Big-Data-Landschaft koste erst einmal ziemlich viel Geld und Arbeit, bestätigte Gödde: „Natürlich müssen Sie erst mal investieren!“ Deshalb brauche man neben der richtigen Einstellung einen Big-Data-Sponsor im höheren Management des Unternehmens. Den Einsteigern in Big Data winke reiche Ernte. Denn die Technologie erschließe viele, teils bereits vorhandene Datenquellen überhaupt erst einmal der Analyse, beispielsweise Social Media Feeds oder die Unmassen von Echtzeitdaten, die zukünftig Sensoren in allem und jedem erzeugen werden.

Maßgeschneiderte Pakete helfen bei der Big-Data-Nutzung

Die häufig in Social Media Feeds versteckten Qualitätsaussagen über Produkte oder Services will das SAS Institute mit einem speziellen Paket, der SAS Quality Suite, für die Unternehmen nutzbar machen. Sie sollen damit mögliche Reputationsschäden frühzeitig erkennen, um dann Gegenmaßnahmen entwickeln zu können. Dabei werden Social-Media-Daten mit anderen vorhandenen Datenquellen zusammengeführt und ausgewertet.

Für den Einstieg in Big Data empfiehlt der Softwareanbieter ein anderes Paket, das Big Data Lab. Es ist seit April auf dem Markt und wurde inzwischen um die zwanzig Mal verkauft – vorzugsweise an große Unternehmen aus dem bisherigen Kundenkreis des SAS Institute. Gödde: „Das Lab wird neben der bestehenden Business-Intelligence-Infrastruktur implementiert und hilft, neue Ideen auszubrüten. Erst wenn diese eine gewisse Reife erreicht haben, werden sie schrittweise in die normale BI integriert und im Echtbetrieb umgesetzt.“ So ließen sich auch die unterschiedlichen Denkweisen – hier relevante Business Cases, dort Versuch und Irrtum, wobei sehr wahrscheinlich viele Ideen fehlschlagen – so nebeneinander nutzen, dass Unternehmen von beiden profitieren können.

Schlüsselfertige Testumgebung für Big-Data-Projekte

SAS Big Data Lab

Schlüsselfertige Testumgebung für Big-Data-Projekte

11.05.15 - Der Heidelberger Softwarehersteller SAS will mit einem neuen Angebot zwei der wesentlichen Hindernisse für den Einsatz von Big Data Analytics in deutschen Unternehmen beseitigen. lesen

Big Data Lab gibt es in drei Größenvarianten, die sich durch die Dimensionierung der jeweiligen Hardwarebasis und natürlich durch ihren Preis unterscheiden: Modell S besitzt 32 Rechenkerne und kostet knapp 170.000 Euro, Modell M hat 64 Kerne und kostet knapp 200.000 Euro und Modell L hat 128 Kerne für rund 300.000 Euro. Welche Hadoop-taugliche Hardwarevariante Anwender nutzen, dürfen sie dabei selbst entscheiden, unterstützt werden alle relevanten Plattformen. Auf dieser Hardware liegt Hadoop als Datenhaltungs- und Analyseplattform.

Die nächste Schicht bildet der SAS Data Loader for Hadoop, ein Produkt, das nunmehr seit rund zwölf Monaten auf dem Markt ist. Aufgelagert liegen ein Visualisierungs- und ein Statistik-Tool (Visual Analytics und Visual Statistics) sowie das Paket In-Memory-Statistics for Hadoop. „Wir haben damit die Technologie so eingepackt, dass der Anwender von den Komplexitäten der Hadoop-Umgebung nichts merkt“, sagt Gödde. Die Visualisierung helfe, Resultate sofort anschaulich zu machen. Dazu kommen Beratertage. Sie machen etwa 30 Prozent des Paketpreises aus.

In Zukunft werden die Einzelpakete, die in dem Produkt stecken, weiterentwickelt, das Paket für die In-Memory-Analyse beispielsweise wird stärker auf die Cloud zugeschnitten werden. Hinsichtlich des Big Data Lab sieht sich das SAS Institute vor allem mit Open-Source-Implementierungen im Wettbewerb, aber auch mit Anbietern wie SAP und IBM.

Interessante Erkenntnisse auch ohne Big Data

Was man schon allein mit Visual Analytics ohne Big-Data-Technologie erreichen kann, zeigte auf der Veranstaltung Antje Hartmann, Channel and Category Sales Development Manager Europa bei der Nestlé Deutschland AG. Nestlé verwendet für seine Auswertungen noch keine Big-Data-Systeme wie Hadoop, sondern unterlegte dem Visualisierungstool konventionelle Hardware- und Datenbank-Technologie. Hartmann: „Früher habe ich für die Beantwortung einer Anfrage einen ganzen Tag gebraucht, heute geht das erheblich schneller.“ Ihr Unternehmensbereich ist für die Verkäufe von Nestlé-Produkten an Flughäfen, Grenzübergängen und ähnlichen Bereichen zuständig. Dort werden Nestlé-Marken, wie After Eight, Kitkat und Quality Street über Einzelhändler vertrieben, die Kunden von Nestlé sind. Die Läden liefern Hartmann in regelmäßigen Abständen ihre Verkaufsstatistik, allerdings nicht in einem einheitlichen Format.

Hartmann analysiert, warum bestimmte Produkte wie performen. Auf der Veranstaltung präsentierte sie ein reales Beispiel: Mit wenigen Klicks ließ sich anschaulich belegen, dass der Umsatzanstieg eines Produkts an einem bestimmten Flughafen während der untersuchten Zeitperiode auf eine Promotions-Aktivität zurückzuführen war. Gleichzeitig verursachte der Lieferstopp einer bestimmten Packungsgröße beim selben Produkt einen Umsatzeinbruch an einem anderen Flughafen. „Wir können so schnell und spezifisch einschätzen, welche Aktivität den Absatz wie beeinflusst und entsprechend planen“, erklärt die Managerin.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43731602 / Infrastruktur)