Kommentar von Marco Schmid, Rackspace

Big Data Analytics – einfacher in der gemanagten Cloud

| Autor / Redakteur: Marco Schmid / Nico Litzel

Der Autor: Marco Schmid ist Country Manager DACH bei Rackspace
Der Autor: Marco Schmid ist Country Manager DACH bei Rackspace (Bild: Rackspace)

An Erfolgsgeschichten von Big Data mangelt es nicht. Die Verbesserung der Kundenbindung, basierend auf einem größeren Verständnis für die Wünsche und Bedürfnisse der Kunden, ist eine starke Triebfeder für Big-Data-Projekte. Das gleiche gilt für Effizienzsteigerungen, die sich infolge einer umfassenden Analyse erreichen lassen.

Der Paketdienst UPS beispielsweise hat seine Trucks in den USA mit Sensoren ausgestattet und die damit gesammelten Daten der Fahrten analysiert. Als Resultat konnten die Routen optimiert werden; das Unternehmen sparte bei seiner Flotte 32 Millionen Liter Benzin und 147 Millionen Kilometer an Fahrleistung ein.

Das Rechenzentrum des Forschungsinstituts CERN verarbeitet jährlich 30 Petabyte an Daten aus Experimenten mit dem Large Hadron Collider (LHC). Durch eine verteilte Infrastruktur werden diese Daten Physikern weltweit nahezu in Echtzeit zur Verfügung gestellt. Das Worldwide LHC Computing Grid erstreckt sich über 170 Standorte in 41 Ländern. 350.000 Prozessoren verarbeiten dafür täglich über zwei Millionen Anfragen.

Das CERN arbeitet mit OpenStack-Clouds, auf die weltweit Tausende von Forschern zugreifen. Das integrierte Modell mit föderierten Identitäten nach offenen Standards, Templates und Service-Katalogen ist die Voraussetzung für eine offene Zusammenarbeit und somit auch den wissenschaftlichen Fortschritt.

Referenzarchitektur für Federated-Cloud-Dienste

So arbeitet CERN openlab gerade an einer Referenzarchitektur und einem geeigneten Betriebsmodell für Federated-Cloud-Dienste. Die Zusammenarbeit von Rackspace und CERN hat bereits eine Lösung für die Authentifizierung in multiplen OpenStack-Cloudumgebungen hervorgebraucht. Dieser Ansatz wird nun um standardisierte Templates für die Orchestrierung von OpenStack-Clouds erweitert. Nutzer können damit eine einheitliche Cloud-Umgebung mit multiplen Cloud-Plattformen in einem Zug erstellen.

Herausforderungen für Unternehmen

Um als Unternehmen eine ähnliche Erfolgsgeschichte zu schreiben, ist der Aufbruch in die Welt der „Big Data“ erforderlich. Allerdings sind einige Herausforderungen zu bewältigen, um ein „datengetriebenes Unternehmen“ zu werden. Denn die Einführung von Big Data bringt nicht nur grundlegende technische, sondern auch organisatorische Umwälzungen mit sich.

Diese betreffen jede Organisationseinheit, weit über die IT hinaus, erfordern eine neue Art der Zusammenarbeit zwischen Abteilungen und nicht selten einen Kulturwandel. Denn eine Organisation, die zwar eine technische Infrastruktur für Big-Data-Analysen schafft, aber die Fachabteilungen nicht befähigt, dieses Potenzial zu entfalten, wird auf der Investition sitzen bleiben.

Dennoch liegt der Ball zunächst auf Seiten der IT. Neben den komplexen technologischen Fragestellungen sind insbesondere große Herausforderungen in Bezug auf Fähigkeiten und Rollen der Mitarbeiter zu bewältigen. Spezialisten für traditionelle Datenbanken beziehungsweise Business Intelligence müssen sich die Expertise für die neuen Technologien wie Hadoop, Cassandra, MongoDB oder Redis erarbeiten.

Rackspace hat in Großbritannien Personaler nach den wichtigsten Qualifikationen befragt. Ein IT-Arbeiter, der für diese Position infrage kommt, muss demnach neben Big Data auch Skills in anderen Bereichen wie Linux, DevOps, Python, Puppet und agilen Modellen mitbringen, da die Welten zusammenwachsen.

Zusätzlich erfordert die Big-Data-Analyse auch von den Technikern ein nie dagewesenes tiefes Verständnis von den Prozessen und Prioritäten der Fachabteilungen, von HR über Marketing bis hin zu Finanzen, um die Analysen auch treffsicher und kompetent umsetzen zu können. Das Thema Datenschutz und -sicherheit, sowohl auf rechtlicher als auch moralischer Ebene, insbesondere bei der Erhebung und Speicherung von Kundendaten, ist ein weiteres großes Arbeitsfeld.

Managed macht den Unterschied

Die aufwendigste und mit den größten Kosten und Umwälzungen verbundene Änderung betrifft jedoch die technische Infrastruktur. Die Komplexität liegt in einem neuen Umgang mit Big Data verglichen mit den konventionellen Datenbanken, Data Warehouse und Analysetechnologien. Neue Anbieter bringen neue Plattformen, Infrastrukturen, Produkte und Programme auf den Markt, die es zu evaluieren, integrieren und zu einer für die individuellen Bedürfnisse des Unternehmens passende Lösung zu modellieren gilt.

Als einzig gemeinsamer Nenner lässt sich die Cloud ausmachen, denn nur sie bietet die Flexibilität und Schnelligkeit, um mit der Speicherung und Verarbeitung der Daten zu Recht zu kommen. Darüber hinaus kann die Cloud je nach gewähltem Nutzungsmodell die IT-Abteilung bei ihren großen Arbeitspaketen nachhaltig entlasten.

Häufig setzen Unternehmen für die Cloud im Infrastructure-as-a-Service-Modell (IaaS) auf die großen Anbieter, die günstig und flexibel skalierbare Kapazitäten bereitstellen. Allerdings bekommen sie dort nur die reine Infrastruktur in einer Multi-Tenancy-Architektur.

Ein großer Nachteil von IaaS liegt darin, dass die Kostenvorteile und Skalierbarkeit zu Lasten der individuellen Anforderungen gehen. Denn ein Big-Data-Projekt umfasst stets verschiedene Daten-Engines, von denen einige in einer Single-Tenant-Architektur bessere Performance erzielen und somit bei großen Providern vielleicht nicht so gut aufgehoben sind.

Managed Cloud – ein Plus an Know-how

Als Alternative können Unternehmen auf die Managed Cloud setzen. Denn das klassische IaaS ist ein einfaches Gerüst. Der Betrieb sämtlicher funktionaler Komponenten liegt somit auf Seiten der IT-Abteilung oder erfordert es, weitere Dienstleister an Bord zu nehmen. Die Komplexität von Big Data Analytics führt ohnehin zu hohen Kosten. Unternehmen verschaffen sich also einen Vorteil, wenn der Cloud-Provider ihnen noch mehr gibt als reine Kapazität.

Bei der Managed Cloud können Unternehmen dagegen auch skalierbares Know-how beziehen. Das beginnt bei der Beratung hinsichtlich eines idealen Lösungsmodells, das Single- und Multi-Tenant-Kapazitäten kombiniert, um die Anforderungen nicht nur kosteneffizient, sondern auch höchst performant und sicher abzubilden. Ein Managed Cloud Provider kann für Themen wie Hadoop einen erheblichen Mehrwert bieten, da er das tägliche Management und den Betrieb der Plattform übernimmt.

So kann die IT auf Anwendungen und den Aufbau von Analyse-Know-how und Anwendungen fokussieren, anstatt in die Grundlagentechnologien tief einzusteigen. Durch die Kombination der idealen Technologieplattform und mit der Unterstützung eines Managed-Cloud-Providers gelingt allen Unternehmen der Einstieg in die Big-Data-Analyse.

Doch sind im Zusammenhang mit den neuen Datenbanktechnologien nicht nur die Anforderungen an das Wissen von Spezialisten, sondern auch an die Technik hoch. Das kommt etwa bei Hadoop zum Tragen. Die bewährte, relationale Datenbank ist am besten auf einem Server aufgehoben, ihre Stärken sind ihre Robustheit und Stabilität. Aktuelle Technologieplattformen sind für die optimale Lastenverteilung ausgelegt und für die Datenanalyse unverzichtbar, da sie die Datenströme verschiedener Backend-Technologien zusammenfassen beziehungsweise eine schnelle Analyse überhaupt erst ermöglichen. Die Zusammenführung der benötigten Technologien erfordert ein individualisiertes Cloud-Modell – und profundes Know-how. Beides leistet ein Managed Cloud Provider, nicht jedoch ein großer Anbieter.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43756511 / Infrastruktur)