Suchen

DATA Storage & Analytics Technology Conference 2019 „Storage wird viel zu wenig Beachtung geschenkt“

| Redakteur: Nico Litzel

Albrecht Stäbler, CEO der Dibuco GmbH, wird auf der „DATA Storage & Analytics Technology Conference 2019“ in seiner Keynote „Big Data & Analytics – oder die Gier nach Performance, Storage und Bandbreite“ erläutern, warum die Verfügbarkeit von Speicher eine zentrale Frage für Analytics, KI und Machine Learning ist.

Firmen zum Thema

Albrecht Stäbler, CEO der Dibuco GmbH
Albrecht Stäbler, CEO der Dibuco GmbH
(Bild: Dibuco GmbH)

BigData-Insider: Wird über Künstliche Intelligenz (KI) und Analytics berichtet, so liegt der Fokus der Berichterstattung zumeist auf den Bereichen Rechenleistung und Algorithmen. Über Speichertechnik, Verfügbarkeit von Speicher und Speicheranforderungen hört man vergleichsweise wenig. Warum ist Storage aber nach wie vor eine zentrale Anforderung für Analytics- und KI-Anwendungen?

Stäbler: Erstens liegt der Fokus – das Thema ist derzeit Hype – meist auf Extrembeispielen mit extremen Erwartungen und nicht bei sachlichen Fragestellungen. KI und Analytics befinden sich im viel zitierten Gartner Hype Cycle derzeit in der Phase „Gipfel der überzogenen Erwartungen“, um dann in 2020 in die Phase „Tal der Enttäuschungen“ zu fallen, um danach, wie gute Technologien davor auch schon, ihren Platz in der Menge von notwendigen Verfahren zu finden, die für komplexe Problemstellungen und Automatisierungslösungen notwendig sind. Sicherlich werden KI und Analytics sehr wichtige Technologien und Methoden der Zukunft sein und da sind wir bei zweitens, dem Storage. Hier haben Sie Recht: Storage wird viel zu wenig Beachtung geschenkt. Ich will es mal plakativ und logisch beantworten: Alle reden davon, dass Daten das neue Gold seien, dass Firmen zukünftig aus Daten Value generieren wollen. Das Sammeln und Vorhalten von Daten benötigt Speicher, das ist die „Notwendige Bedingung“, während Performance und Analytics nur die „Hinreichenden Bedingungen“ sind, um so viel Value als möglich zu generieren.

Am Beispiel einer Fertigungslinie zur Erhöhung der Qualität und Reduktion der Standzeiten ist dies ersichtlich: Um wirklich Wert aus Daten zu ziehen, muss man sehr viele Daten haben und diese so weit wie möglich in der Historie vorhalten. Eine Maschine generiert bis zu 500 Megabyte relevanter Daten pro Stunde. In einer Fertigungslinie mit vielleicht 40 Maschinen möchte ich Anomalien oder Qualitätsunterschiede feststellen, indem ich Vergleiche zu den Daten aus den z. B. letzten zwei Jahren ad hoc prüfen will. Lassen Sie uns jetzt die Fertigungslinie n-fach an verschiedenen Standorten, quasi identisch, aufbauen, um sehr komplexe, konfigurierbare Produkte in Losgröße 1 zu produzieren. Kein Auto eines deutschen Herstellers verlässt heute noch das Band gleich wie ein anderes, alle sind im Prinzip Einzelstücke – und schon haben wir zwar bzgl. der KI und der Analytik dieselbe Problemstellung, aber in n-Linien, kombiniert mit einer erheblich komplexeren Architektur im Sinne von Storage, zentralem Storage und Bandbreite. Wenn wir jetzt die Analytik mit weiteren Datenquellen – Klima, Standort, Jahreszeit, Wochentag, Supplier-Kette, Felddaten, etc. – kombinieren, dann wird klar, dass wir eigentlich mehr und mehr ein Storage-Thema haben, welches uns zwingt, über Storage-Konzepte als eines der Grundthemen nachzudenken.

Inwiefern verändern neue Business-Anforderungen wie Predictive Analytics oder Mustererkennung Speichersysteme?

Stäbler: Predictive Analytics und Pattern Recognition sind – vor allem die Mustererkennung – Verfahren, welche (noch) unbekannte, „Muster“, Verhaltensweisen, Auffälligkeiten bei Prozessen, Produkten, Schnittstellen, etc. erkennen sollen, welche dann, in einem ersten Schritt, von Menschen, sprich, Data Scientists, inhaltlich analysiert werden, um daraus Schlüsse, Erkenntnisse, Regeln oder Entscheidungen abzuleiten. In späteren Schritten kann Machine Learning in unterschiedlichen Ausprägungen und Ausbaustufen zum Einsatz kommen.

Im Unterschied zur KI, die wir aus früheren Jahren kennen, bei der auf eine konstante, begrenzte Menge aufbereiteter Daten, z. B. im medizinischen Bereich, Simulationen oder Bilderkennung gefahren wurden, haben wir heute eine gänzlich andere Situation: Wir haben erkannt, dass viele unterschiedliche Daten zusammen zu manchmal unglaublichen Erkenntnissen führen. Dies sind Daten aus unterschiedlichsten Quellen unterschiedlichster Struktur, oft unstrukturiert, die massenhaft von Sensoren produziert werden und Situationen aus einer Sicht über Monate und Jahre hinweg beschreiben.

Um „Value“ zu ernten, müssen diese Daten gesammelt und vorgehalten werden, zudem sinnvoll für die Analytics und KI im dauerhaften Zugriff sein. Das ist ein Widerspruch in sich, der Speicherlösungen und Konzepte vor ganz neue Herausforderungen in Form von schierer Masse, Kosten, Zugriff, etc. stellt. Das neue Paradigma: Eventual Consistency beschreibt das Dilemma und liefert einige Ansätze.

Ergänzendes zum Thema
Infos & Anmeldung „DATA Storage & Analytics Technology Conference 2019“

Die DATA Storage & Analytics Technology Conference 2019 gastiert im April und Mai in vier Städten.
Die DATA Storage & Analytics Technology Conference 2019 gastiert im April und Mai in vier Städten.
( Bild: Vogel IT-Medien )

Die „DATA Storage & Analytics Technology Conference 2019“ findet dieses Jahr im Hamburg (2. April; Deep Dive am 3. April), Hanau (30. April) München (2. Mai) und Köln statt (7. Mai). Neben spannenden Keynotes unabhängiger Big-Data- und Storage-Experten erwartet Teilnehmer ein abwechslungsreiches Programm aus Fachvorträgen und Workshops mit Umsetzungsbeispielen aus der Praxis.

Für den direkten Kontakt und vertiefenden Wissensaustausch gibt es zudem eine Reihe an Experten-Roundtables und die Möglichkeit von persönlichen One-on-One-Meetings mit anwesenden Firmenvertretern.

Treffen Sie sich zum Informationsaustausch mit Experten vor Ort auf der „DATA Storage & Analytics Technology Conference 2019“

  • am 2.4.2019 in Hamburg (Deep Dive am 3.4.),
  • am 30.4.2019 in Hanau,
  • am 2.5.2019 in München und
  • am 7.5.2019 in Köln.

Die reguläre Registrierungsgebühr beträgt 290 Euro (zzgl. MwSt.) und 149 Euro (zzgl. MwSt.) für den Deep Dive, jeweils inkl. Verpflegung. Unser Tipp: Bewerben Sie sich hier für ein VIP-Ticket.

Mehr Informationen rund um die Konferenz finden Sie unter www.data-techcon.de oder unter dem Hashtag #datatechcon auf Twitter.
Twitter, Facebook & Instagram: @vogelitakademie

In Ihrer Keynote werden Sie Big Data Use Cases vorstellen. Worauf werden Sie in Ihrem Vortrag näher eingehen?

Stäbler: Anhand von konkreten Beispielen aus der Industrie 4.0 und IoT werden in der Keynote die neuartigen, generellen und auf andere Branchen übertragbaren Problemstellungen und Lösungsansätze erläutert, sodass der Zuhörer danach sehr schnell, zumindest auf der Flughöhe eines Managers oder Fachabteilungsanwenders, die Problemstellungen einordnen kann und weiß, bei welchen Fragestellungen mithilfe von KI und Analytics im Big-Data-Umfeld schnelle Mehrwerte zu erzielen sind, wo die Risiken sind – und wo es aufwendig wird und man genau überlegen muss, ob KI einen ROI erbringt und wie und in welchen Schritten. Auch ist einzugrenzen, was Analytics und KI nicht können aufgrund der Problemstellung, des Aufwandes, der Modellierung oder der benötigten Speichermenge im Zugriff und wie hier die Zukunft aussieht. Ziel der Keynote ist ganz klar: Das unglaublich komplexe Thema „Information Harvesting“ oder „Enterprise Search“ und die Anforderungen an die Big-Data-Architektur aus Enterprise-Architecture-Sicht zu ordnen, einzuordnen und einigermaßen auf den Punkt zu bringen sowie auf wichtige, oft vergessene, aber immer auftretende Probleme, wie DSGVO, kurz einzugehen.

(ID:45719386)