Kommentar von Daniel Metzger, Cloudera

So lassen sich mit der richtigen Strategie große Datenmengen bewältigen

| Autor / Redakteur: Daniel Metzger / Nico Litzel

Der Autor: Daniel Metzger ist Regional Vice President Central & Eastern Europe bei Cloudera
Der Autor: Daniel Metzger ist Regional Vice President Central & Eastern Europe bei Cloudera (Bild: SEIDENABEL)

Mit dem exponentiellen Wachstum des Datenbestands der letzten 20 Jahren steigt das Potenzial für die Transformation von Unternehmen. Laut einer Schätzung von IDC wird die Datenmenge bis 2025 auf 163 Zettabytes ansteigen. Daher überrascht es nicht, dass die Analyse dieser Daten – einschließlich der Speicherung, Verwaltung und abschließender Interpretation – einen immer höheren Stellenwert im Unternehmen einnimmt.

Immer mehr Unternehmen haben die Vorteile der Datenanalyse erkannt. Jedoch liegt es an der richtigen Strategie, um daraus wirklich Nutzen zu ziehen. Bislang setzten viele Unternehmen auf große Data Lakes (oder zu Deutsch: Datenseen), die sämtlichen Daten im selben Repository enthalten. Allerdings führt der verbreitete Einsatz von IoT-Geräten mit seinem großen Datenaufkommen aus Edge-Netzwerken und einer konsistenten Data Governance zu einer Modernisierungswelle, die einen End-to-end-Technologie-Stack bedingt, der durch eine leistungsfähige Cloud gestützt wird.

Inzwischen wird die Public Cloud von einer Vielzahl an Unternehmen wegen ihrer Einfachheit und Flexibilität geschätzt. Jedoch haben schwer planbare Betriebskosten sowie die Bindung an einen Cloud-Anbieter („Vendor Lock-in“) IT-Entscheidungsträger dazu veranlasst, alternative Cloud-Infrastrukturmodelle zu evaluieren, die auch anspruchsvolle Workloads ausführen können.

Geändertes Umfeld

Die innovativsten Anwendungsfälle im Unternehmen – ob es sich nun um IoT-fähige Predictive Maintenance, molekulare Diagnose oder Echtzeit-Compliance-Monitoring handelt – erfordern mehrere Analyse-Workloads, Data Science Tools und maschinelle Lernalgorithmen, um die gleichen heterogenen Datensätze zu analysieren und einen Mehrwert für das Unternehmen zu generieren. Auf diese Weise erschließen die innovativsten Unternehmen den Wert ihrer Daten.

Viele Unternehmen haben jedoch aus einer Reihe von Gründen Schwierigkeiten damit. Denn: Die Daten stammen nicht mehr nur aus einem Rechenzentrum – nun kommen auch Daten aus Public Clouds und über IoT-Sensoren aus dem „Edge“ hinzu. Viele Unternehmen haben noch keine praktische Möglichkeit gefunden, bei der Heterogenität der Datensätze und dem plötzlichen Anstieg des Datenvolumens, Analysen durchzuführen oder maschinelle Lernalgorithmen auf den Informationsbestand anzuwenden.

Verschärft wird die Situation auch dadurch, dass die analytischen Workloads bisher unabhängig in verschiedenen Datensilos liefen, da auch neuere Cloud-Data-Warehouses und Data-Science-Tools nicht vollständig aufeinander abgestimmt sind. Darüber hinaus verhindert die Verwaltung von Daten aus unterschiedlichen Quellen einen kohärenten Datenschutz beziehungsweise sie erfordert aufwendige Kontrollen, die sich negativ auf die Produktivität des Unternehmens auswirken können.

Neuplanung erforderlich

Herkömmliche, einfache Analysen zur Verbesserung der Datentransparenz genügen nicht mehr, um die Wettbewerbsfähigkeit sicherzustellen. Da die Geschäftstätigkeit nunmehr datengetrieben ist, müssen mehrere Analysedisziplinen auf alle Daten angewendet werden, unabhängig davon, wo sie sich befinden.

So wird ein neuer Ansatz für Unternehmen notwendig. Sie benötigen heute eine umfassende Plattform für alle Daten, sowohl aus den eigenen Rechenzentren als auch aus Public-, Private-, Hybrid- und Multi-Cloud-Umgebungen. Diese sollte Auskunft über Standort, Status und Art ihrer Daten geben und Datenschutz sowie Support zur Einhaltung von Compliance-Richtlinien bieten können.

Enterprise Data Cloud auf dem Vormarsch

Im Zuge der digitalen Transformation erwarten Entscheider in Unternehmen, dass sie ihre analytischen Workloads unabhängig davon durchführen können, wo sich die benötigten Daten befinden. Schließlich wollen Unternehmen frei von der Bindung an einen bestimmten Cloud-Anbieter bleiben. Eine sogenannte Enterprise Data Cloud kann Unternehmen diese Flexibilität ermöglichen. Dafür müssen die folgenden vier Grundvoraussetzungen erfüllt sein:

  • 1. Hybrid und Multi Cloud: Um Unternehmen Flexibilität zu verleihen, muss eine Enterprise Data Cloud mit gleichwertiger Funktionalität innerhalb und außerhalb des Unternehmens betrieben werden können, wobei alle wichtigen Public Clouds sowie die Private Cloud unterstützt werden sollen.
  • 2. Multifunktional: Eine Enterprise Data Cloud muss die dringendsten Anforderungen an Daten und Analysen im Unternehmen effizient lösen. Das Bewerkstelligen realer Geschäftsprobleme erfordert in der Regel die Anwendung mehrerer verschiedener Analysefunktionen, denen die selben Daten zugrunde liegen. So basieren beispielsweise autonome Fahrzeuge auf Echtzeit-Datastreaming und maschinellen Lernalgorithmen.
  • 3. Sicher und geregelt: Eine Enterprise Data Cloud muss sicher und regelkonform sein und die strengen Anforderungen an Datenschutz, Governance, Datenmigration und Metadatenmanagement großer Unternehmen in allen ihren Umgebungen erfüllen.
  • 4. „Open“: Schließlich muss eine Enterprise Data Cloud auch offen sein. Das bedeutet nicht nur den Einsatz von Open-Source-Software, sondern auch offene Rechenarchitekturen und offene Datenspeicher wie Amazon S3 und Azure Data Lake Storage. Letztendlich wollen Unternehmen die Bindung an den Anbieter (Stichwort: „Vendor Lock-in“) vermeiden, um nicht von einem einzigen Anbieter abhängig zu werden. Offene Plattformen, offene Integrationen und offene Partner-Ökosysteme werden daher bevorzugt. Bei technischen Herausforderungen kann beziehungsweise muss das Unternehmen somit nicht nur vom Hersteller Support beziehen, sondern die gesamte Open-Source-Community kann zur Unterstützung hinzugezogen werden. Dies sichert sowohl schnelle Innovationszyklen, aber auch den eigenen Wettbewerbsvorteil. Um die digitale Transformation voranzutreiben, geht für Unternehmen an einem besseren Tool für Data Warehousing, Data Science oder Business-Intelligence kein Weg vorbei. Für die neuen Datentypen und neue Anwendungsfälle benötigen Unternehmen eine Reihe von Analysefunktionen, die am besten über eine umfassende Cloud-Infrastruktur verfügbar sind. Die oben beschriebenen Anforderungen an eine Enterprise Data Cloud sind strategisch unabdingbar, damit Unternehmen ihre Geschäftsziele erreichen können.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45994387 / Infrastruktur)