DATA Storage & Analytics Technology Conference 2019

„Storage wird viel zu wenig Beachtung geschenkt“

| Redakteur: Nico Litzel

Albrecht Stäbler, CEO der Dibuco GmbH
Albrecht Stäbler, CEO der Dibuco GmbH (Bild: Dibuco GmbH)

Albrecht Stäbler, CEO der Dibuco GmbH, wird auf der „DATA Storage & Analytics Technology Conference 2019“ in seiner Keynote „Big Data & Analytics – oder die Gier nach Performance, Storage und Bandbreite“ erläutern, warum die Verfügbarkeit von Speicher eine zentrale Frage für Analytics, KI und Machine Learning ist.

BigData-Insider: Wird über Künstliche Intelligenz (KI) und Analytics berichtet, so liegt der Fokus der Berichterstattung zumeist auf den Bereichen Rechenleistung und Algorithmen. Über Speichertechnik, Verfügbarkeit von Speicher und Speicheranforderungen hört man vergleichsweise wenig. Warum ist Storage aber nach wie vor eine zentrale Anforderung für Analytics- und KI-Anwendungen?

Stäbler: Erstens liegt der Fokus – das Thema ist derzeit Hype – meist auf Extrembeispielen mit extremen Erwartungen und nicht bei sachlichen Fragestellungen. KI und Analytics befinden sich im viel zitierten Gartner Hype Cycle derzeit in der Phase „Gipfel der überzogenen Erwartungen“, um dann in 2020 in die Phase „Tal der Enttäuschungen“ zu fallen, um danach, wie gute Technologien davor auch schon, ihren Platz in der Menge von notwendigen Verfahren zu finden, die für komplexe Problemstellungen und Automatisierungslösungen notwendig sind. Sicherlich werden KI und Analytics sehr wichtige Technologien und Methoden der Zukunft sein und da sind wir bei zweitens, dem Storage. Hier haben Sie Recht: Storage wird viel zu wenig Beachtung geschenkt. Ich will es mal plakativ und logisch beantworten: Alle reden davon, dass Daten das neue Gold seien, dass Firmen zukünftig aus Daten Value generieren wollen. Das Sammeln und Vorhalten von Daten benötigt Speicher, das ist die „Notwendige Bedingung“, während Performance und Analytics nur die „Hinreichenden Bedingungen“ sind, um so viel Value als möglich zu generieren.

Am Beispiel einer Fertigungslinie zur Erhöhung der Qualität und Reduktion der Standzeiten ist dies ersichtlich: Um wirklich Wert aus Daten zu ziehen, muss man sehr viele Daten haben und diese so weit wie möglich in der Historie vorhalten. Eine Maschine generiert bis zu 500 Megabyte relevanter Daten pro Stunde. In einer Fertigungslinie mit vielleicht 40 Maschinen möchte ich Anomalien oder Qualitätsunterschiede feststellen, indem ich Vergleiche zu den Daten aus den z. B. letzten zwei Jahren ad hoc prüfen will. Lassen Sie uns jetzt die Fertigungslinie n-fach an verschiedenen Standorten, quasi identisch, aufbauen, um sehr komplexe, konfigurierbare Produkte in Losgröße 1 zu produzieren. Kein Auto eines deutschen Herstellers verlässt heute noch das Band gleich wie ein anderes, alle sind im Prinzip Einzelstücke – und schon haben wir zwar bzgl. der KI und der Analytik dieselbe Problemstellung, aber in n-Linien, kombiniert mit einer erheblich komplexeren Architektur im Sinne von Storage, zentralem Storage und Bandbreite. Wenn wir jetzt die Analytik mit weiteren Datenquellen – Klima, Standort, Jahreszeit, Wochentag, Supplier-Kette, Felddaten, etc. – kombinieren, dann wird klar, dass wir eigentlich mehr und mehr ein Storage-Thema haben, welches uns zwingt, über Storage-Konzepte als eines der Grundthemen nachzudenken.

Inwiefern verändern neue Business-Anforderungen wie Predictive Analytics oder Mustererkennung Speichersysteme?

Stäbler: Predictive Analytics und Pattern Recognition sind – vor allem die Mustererkennung – Verfahren, welche (noch) unbekannte, „Muster“, Verhaltensweisen, Auffälligkeiten bei Prozessen, Produkten, Schnittstellen, etc. erkennen sollen, welche dann, in einem ersten Schritt, von Menschen, sprich, Data Scientists, inhaltlich analysiert werden, um daraus Schlüsse, Erkenntnisse, Regeln oder Entscheidungen abzuleiten. In späteren Schritten kann Machine Learning in unterschiedlichen Ausprägungen und Ausbaustufen zum Einsatz kommen.

Im Unterschied zur KI, die wir aus früheren Jahren kennen, bei der auf eine konstante, begrenzte Menge aufbereiteter Daten, z. B. im medizinischen Bereich, Simulationen oder Bilderkennung gefahren wurden, haben wir heute eine gänzlich andere Situation: Wir haben erkannt, dass viele unterschiedliche Daten zusammen zu manchmal unglaublichen Erkenntnissen führen. Dies sind Daten aus unterschiedlichsten Quellen unterschiedlichster Struktur, oft unstrukturiert, die massenhaft von Sensoren produziert werden und Situationen aus einer Sicht über Monate und Jahre hinweg beschreiben.

Um „Value“ zu ernten, müssen diese Daten gesammelt und vorgehalten werden, zudem sinnvoll für die Analytics und KI im dauerhaften Zugriff sein. Das ist ein Widerspruch in sich, der Speicherlösungen und Konzepte vor ganz neue Herausforderungen in Form von schierer Masse, Kosten, Zugriff, etc. stellt. Das neue Paradigma: Eventual Consistency beschreibt das Dilemma und liefert einige Ansätze.

Ergänzendes zum Thema
 
Infos & Anmeldung „DATA Storage & Analytics Technology Conference 2019“

In Ihrer Keynote werden Sie Big Data Use Cases vorstellen. Worauf werden Sie in Ihrem Vortrag näher eingehen?

Stäbler: Anhand von konkreten Beispielen aus der Industrie 4.0 und IoT werden in der Keynote die neuartigen, generellen und auf andere Branchen übertragbaren Problemstellungen und Lösungsansätze erläutert, sodass der Zuhörer danach sehr schnell, zumindest auf der Flughöhe eines Managers oder Fachabteilungsanwenders, die Problemstellungen einordnen kann und weiß, bei welchen Fragestellungen mithilfe von KI und Analytics im Big-Data-Umfeld schnelle Mehrwerte zu erzielen sind, wo die Risiken sind – und wo es aufwendig wird und man genau überlegen muss, ob KI einen ROI erbringt und wie und in welchen Schritten. Auch ist einzugrenzen, was Analytics und KI nicht können aufgrund der Problemstellung, des Aufwandes, der Modellierung oder der benötigten Speichermenge im Zugriff und wie hier die Zukunft aussieht. Ziel der Keynote ist ganz klar: Das unglaublich komplexe Thema „Information Harvesting“ oder „Enterprise Search“ und die Anforderungen an die Big-Data-Architektur aus Enterprise-Architecture-Sicht zu ordnen, einzuordnen und einigermaßen auf den Punkt zu bringen sowie auf wichtige, oft vergessene, aber immer auftretende Probleme, wie DSGVO, kurz einzugehen.

„Storage wird viel zu wenig Beachtung geschenkt“ DATA Conference 2019

Mehr Infos zur DATA STORAGE & ANALYTICS Technology Conference 2019

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45719386 / Künstliche Intelligenz)