Big Data auf der EMC World 2015 Pivotal analysiert Daten hundert Mal schneller
Im Rahmen der Federation-Strategie von EMC steigt die Bedeutung der Software-Töchter Pivotal und VMware. Pivotal, der Big-Data-Ableger von EMC, präsentierte auf der jährlichen weltweiten Kunden- und Partnerkonferenz verbesserte Produkte und eine eigene Distribution von Apache Hadoop.
Anbieter zum Thema

Software bildet den Kern der gegenwärtigen Infrastruktur-Revolution. Das gesamte Management der sogenannten EMC-Federation wurde während der Konferenz „EMC World 2015“ nicht müde, das zu betonen. Ein Teil dieser Software, für den vorzugsweise die Tochterfirma Pivotal zuständig ist, beschäftigt sich mit Big Data Analytics.
Wichtigste Vorstellung von Pivotal ist zweifellos das zur Big Data Suite gehörende Pivotal HD. Das Produkt ist die Pivotal-Distribution des aus der Arbeit der Open Data Platform hervorgegangenen Hadoop-Kerns. Er umfasst Apache Hadoop 2.6 und den Konfigurationsmanager für Hadoop, Apache Ambari. Dabei werden die Hadoop-Komponenten Pig und Hive für Skripting und Anfragen, die nichtrelationale Datenbank HBase und die Koordinations- und Workflow-Tools Zookeeper und Oozie verbessert.
Hinzugefügt werden der Apache-Spark-Kern fürs Cluster Computing und eine Bibliothek für maschinelles Lernen. Weiter sind mit Ranger und Knox Sicherheits-, mit Nagios und Ganglia zusätzliche Monitoring- und mit Tez ein Datenverarbeitungs-Tool hinzugekommen. Mit dem Produkt belegt Pivotal als Mitglied des Firmenkonglomerats um EMC die Ernsthaftigkeit der Open-Source-Bekundungen des Unternehmens.
Open Data Platform
An der von Pivotal inspirierten Open Data Platform wirken einige wichtige Big-Data-Player wie IBM und Hortonworks mit. Andere, ebenso wichtige wie Cloudera oder MapR halten sich bedeckt. Cloudera war auf der EMC World nichtsdestotrotz gut vertreten: Während einer speziellen Sitzung berichteten Mike Olson, Gründer und Chefstratege des Unternehmens, und der aus dem Silicon Valley zugeschaltete Doug Cutting, Clouderas Chief Architect, was sie unter Big Data verstehen.
Ein großer Saal war gesteckt voll gespannter Zuhörer, leerte sich jedoch, als die geladenen Kunden hauptsächlich Ungefähres von sich gaben, wenn sie beschreiben sollten, was ihnen Big Data nutze. „Es gibt unglaublich viele Anwendungen da draußen, aber über die meisten dürfen wir nicht reden“, bedauerte Olson.
Dass Pivotal-Lösungen auch für eher konventionelle Zwecke gut sein können, beweist das Projekt Horizon, das ebenfalls auf der EMC World vorgestellt wurde und die Dokumentenmanagementlösung Documentum transformieren wird. Aufgebaut auf Pivotal CF soll ein neuartiges, mandantenfähiges und auf Mikrodiensten beruhendes Content-Management-System für das Cloud- und Mobile-Zeitalter entstehen, das den gesamten digitalen Content eines Unternehmens verwaltet. Documentum kann als spezifischer Content-Bereich unter der neuen Lösung weiter genutzt werden. Content wird inhaltsbezogen sortiert. Der Zugriff auf die einzelnen Inhaltsbausteine erfolgt über Kacheln. Unterschiedliche Inhalte lassen sich beliebig miteinander verknüpfen. Wann aus Horizon ein Produkt wird, ist aber noch unklar.
BMW setzt auf Predictive Maintenance
Altbekannte Big-Data-Anwender wie die BMW Group, in Las Vegas vertreten durch Dirk Rüger, der bei dem Autobauer für die digitale Analyse nachgelagerter Prozesse zuständig ist, traten im großen Saal auf und waren etwas gesprächiger. Bei BMW verwendet man die Daten, die die vielfältigen Sensoren im Fahrzeug bereitstellen, um vorherzusagen, wann möglicherweise bestimmte Teile ausfallen. So ist es möglich, die Fahrzeuge vorbeugend in die Werkstatt zu bestellen, statt zu warten, bis der Schaden eingetreten ist. Auch Lotus arbeitet im Rahmen seines Formel-1-Engagements mit EMC/Pivotal zusammen, um das Letzte aus seinen Fahrzeugen herauszuholen.
Zu den Ankündigungen: Verbessert wurde auch die Abfragegeschwindigkeit der NoSQL-Datenbank Greenplum und des SQL-Aufsatzes auf Greenplum, HAWQ, und zwar gleich um Dimensionen. Bis zu 100-mal schneller sollen die Lösungen mithilfe des Pivotal Query Optimizer aus den unaufhörlich anschwellenden Datenbergen Antworten auf Anfragen generieren. Dies sei, so Paul Maritz, CEO von Pivotal, vor allem deshalb nötig, weil das Internet of Things immer öfter die Echtzeitverarbeitung von Daten erfordern werde. Mit dem neuen Query Analyzer soll es möglich sein, dass mehrere Teams mehrere komplexe Analytics-Anfragen parallel auf einem System verarbeiten. Große Datenvolumina sollen nun keine Leistungssenkungen mehr zur Folge haben.
Dass Big Data neue Hardware-Entwicklungen befeuert, zeigte auf der Veranstaltung der Prototyp einer Maschine des Zukaufs DSSD, mit der multiple Datenströme, wie sie etwa das Internet of Things erzeugt, mehreren Servern gleichzeitig für Analysen in Echtzeit zugänglich macht. Die Box enthält 36 Speicherkarten mit jeweils zwei PCIe-Ports. Diese sind mit einer rückwärtigen Matrix aus 48 PCIe-Switches verbunden, sodass die Server jederzeit und auch parallel auf alle Speicherkarten zugreifen können. Wann freilich aus dem Prototyp Produktionsstückzahlen werden, ist derzeit noch unklar.
(ID:43380983)