Kommentar von Gerhard Otterbach, Teradata

Worauf Sie beim Internet der Dinge achten müssen

| Autor / Redakteur: Gerhard Otterbach / Nico Litzel

Der Autor: Gerhard Otterbach ist Sales Team Lead Strategic Key Accounts & Industries bei Teradata
Der Autor: Gerhard Otterbach ist Sales Team Lead Strategic Key Accounts & Industries bei Teradata (Bild: Teradata)

Mit maschinellem Lernen, künstlicher Intelligenz und dem Internet der Dinge dringt die digitale Welt unaufhaltsam in unseren Alltag vor. Sprechende Kühlschränke, sich selbst optimierende Fabriken und fliegende Pakete verändern das Leben von Konsumenten und Unternehmen nachhaltig. Ob gewollt oder nicht, wir stecken mitten in der digitalen Transformation.

Viele Entscheider fragen sich: Wie kann ich das Internet der Dinge (Internet of Things, IoT) für mein Unternehmen nutzen? Worauf muss ich achten, was muss ich vermeiden? Laut McKinsey werden 2025 rund elf Billionen US-Dollar in das IoT investiert. Grund genug, sich eingehend damit zu beschäftigen.

Basis der digitalen Transformation sind immer Daten – in unterschiedlichster Erscheinungsform und Menge, im Unternehmen vorhanden oder von außen übermittelt. Wer diese Daten nicht sinnvoll zusammenführen und analysieren kann, für den wird das Internet der Dinge schnell zur kostspieligen Sackgasse.

Das IoT, in dem sich jede Maschine mit jeder anderen Maschine und mit Menschen austauschen kann, generiert laufend eine schier unendliche Menge an Informationen mit unterschiedlichster Struktur. Miteinander in Bezug gebracht, können sie höchst relevante Einblicke bieten. Das erfordert die richtige Big-Data-Architektur – und die muss immer auf die individuellen Anforderungen abgestimmt sein.

Datenstruktur, Zugriffshäufigkeit und Geschwindigkeit vor der Anschaffung analysieren

Eine Big-Data-Architektur muss nicht teuer sein. So ist es nicht zwingend erforderlich, alle Daten in der schnellsten Technologie (Memory) abzuspeichern. Die Erfahrung von Teradata zeigt, dass 70 bis 90 Prozent der Daten abrufbar sein müssen, aber nicht ständig gebraucht werden (z. B. historische Transaktionsdaten). Hier kann man kostengünstige Speicheroptionen einsetzen oder eine Architektur wählen, in der selbstlernende Algorithmen erkennen, wann die Daten gebraucht werden, um sie dann in einem schnelleren Speicher bereitzustellen.

Eine solche Lösung bietet Teradata mit „Intelligent Memory“. Sie nutzt in einem Data Warehouse unterschiedlich schnelle, unterschiedlich teure Speichermedien und schlägt so die Brücke zwischen Geschwindigkeit, Kosten und Skalierung.

Data Lake und/oder ein Data Warehouse?

In der öffentlichen Wahrnehmung setzen sich Data Lakes zunehmend als erste „Landezone“ von Daten durch, während Hadoop vor allem für die Ablage und Analyse von poly-strukturierten Daten (z. B. aus Social Media oder Sensoren) an Relevanz gewinnt. Für strukturierte Daten sind OLAP-Datenbanken immer noch die beste Lösung. Dazu ist anzumerken:

  • Ein Data Lake ist nicht nur mit Hadoop abbildbar. So können die Daten beispielsweise zuerst im Data Warehouse ankommen und von dort für die kostengünstige Langzeitarchivierung an das Hadoop-System weitergeleitet werden.
  • Hadoop ist mehr als ein Data Lake, da es viel mehr Einsatzmöglichkeiten bietet.
  • Wenn Hadoop gleichzeitig als Data Lake und als Analytics-Plattform eingesetzt werden soll, ergeben sich daraus signifikante Herausforderungen bezüglich Performance und Sicherheit.
  • Im Zusammenspiel von Data Lake, Hadoop-Analytics-Plattform und Data Warehouse gilt nicht „entweder oder“, sondern „sowohl als auch“. Deshalb ist es elementar wichtig, die jeweiligen Anforderungen zu kennen, bevor man sich entscheidet.
  • Idealerweise ist der Anwender, der in einer „Sowohl-als-auch“-Umgebung verteilte Daten abfragt, nicht davon tangiert, weil eine Integrationslösung die „Joint-Table-Scan“-Klammer zwischen den verschiedenen Architekturkomponenten bildet.

Eine solche Lösung ist bei einem führenden Hersteller für Medizintechnik im Einsatz. Das Hadoop-System wird als Data Lake verwendet und reicht die relevanten Daten für hoch performante Analysen an das Data Warehouse weiter, dessen Analyseergebnisse wiederum komplett in die Unternehmensprozesse eingebettet sind.

Architekturen vermeiden, die auf eine Betriebsumgebung festlegen

Sie sollten die Freiheit haben, Datenanalysen in jeder Betriebsumgebung vorzunehmen, also in öffentlichen Clouds wie Amazon Web Services oder Azure, in privaten oder Managed Clouds, aber auch on premise und in virtuellen Umgebungen. Natürlich sind auch Kombinationen möglich, die in einer Big-Data-Architektur zusammengefasst werden können.

Ein Beispiel hierfür ist die Big-Data-Lösung bei einem großen deutschen Verkehrs- und Logistikkonzern. Hier werden die internen Daten in einer Hadoop-Umgebung im eigenen Rechenzentrum gesammelt und dann mit anderen Daten in einem Data Warehouse in der Public Cloud zusammengeführt. Analysen können über beide Komponenten hinweg in einem „Joint Table Scan“ abgesetzt werden.

Leistungsfähigkeit der Architektur beachten

Klären Sie, ob die Geschwindigkeit, mit der Daten zur Verfügung gestellt und Datenanalysen durchgeführt werden, zentraler Bestandteil Ihrer künftigen Strategie ist. Wie schnell erwarten die Nutzer eine Antwort? Ist ein zeitnah ablaufender Prozess abhängig von der Antwort? Muss die Architektur hoch verfügbar sein?

Nehmen wir die Logistiksteuerung in einem großen Einzelhandelsunternehmen. Dessen Just-in-time-Logistik erfordert permanente Analysen der Abverkäufe und die daraus abgeleitete Einschätzung, welche Produkte wann aufgefüllt werden müssen. Hier sind die Analysen extrem kritisch und geschäftsrelevant. Die Analyseanforderungen sollten deshalb vor der Investitionsentscheidung genau bekannt sein.

Auf die Skalierbarkeit achten

Eines haben alle von uns beobachteten Anwendungsfälle gemeinsam: Sie wachsen. Was heute noch als Big Data gilt, kann morgen schon Small Data sein, weil mehr Daten erfasst werden, häufiger Daten geschickt werden, zusätzliche Datenquellen genutzt werden, die Datenquellen vielfältiger werden und so weiter.

Suchen Sie sich eine Architektur, die mit Ihren Daten wachsen kann – nahezu unbegrenzt. Große Unternehmen wie eBay setzen bereits auf solche Architekturen, denn ein Ende des Datenwachstums ist nicht in Sicht. Eine Datenarchitektur mit begrenzter Skalierung ist keine Big-Data-Architektur, sondern (spätestens morgen) eine Small-Data-Architektur.

Big-Data-Architektur muss zukunftssicher sein

Big Data ist mit ständigen Neuerungen verbunden. Vor allem aber ist die Dynamik der Anwendungsfälle enorm. So werden im Laufe der Zeit neue Datenquellen definiert, mehr Kunden wollen Zugang zu den Daten, neue Auswertungsanforderungen entstehen, das Datenvolumen wächst. Damit ändern sich auch die Instrumente für die Sammlung, Integration und Analyse der Daten.

Beispiel „Predictive Maintenance“ in der Industrie. Die Use Cases von heute sind morgen schon überholt, weil sich permanent die Parameter ändern. Neue Datenformate werden entwickelt, die Volumen steigen stetig, und die Einbettung in Service-Prozesse wird immer intensiver – mit dem Ziel, den optimalen Zeitpunkt für die Wartung zu definieren, Qualitätsprobleme früh zu identifizieren und Ausfälle zu vermeiden.

In nächster Zeit werden sich Big-Data-Lösungen weiterentwickeln und unsere privaten und beruflichen Alltagserfahrungen signifikant verändern, gerade auch im Zusammenhang mit dem Internet der Dinge. Doch die Big-Data-Projekte werden nur dann erfolgreich und nachhaltig sein, wenn die Anforderungen richtig definiert werden und die Unternehmen auf einen zuverlässigen Partner setzen. Der Markt ist riesig und unübersichtlich, und die Wege in technologische Sackgassen sind vielfältig. Daher empfiehlt es sich auf jeden Fall, Orientierung zum Beispiel durch Analysten-Bewertungen einzuholen. Das minimiert das Risiko, in eine technische Sackgasse zu geraten.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44687433 / Data Sourcing)