Nachbericht Big Data Paris 2019

Big Data im Mittelpunkt

| Autor / Redakteur: Michael Matzer / Nico Litzel

In das Palais des Congrès in Paris fanden 16.5000 Besucher ihren Weg zur „Big Data Paris 2019“.
In das Palais des Congrès in Paris fanden 16.5000 Besucher ihren Weg zur „Big Data Paris 2019“. (Bild: corp-agency.com)

Am 11. und 12. März öffneten sich die Pforten zu einem der traditionsreichsten Treffen der Big-Data-Szene: Big Data Paris. Diesjähriges Motto: „Accelerate the Future“. Zum achten Mal in Folge erörterten renommierte Branchenpersönlichkeiten wie Ted Dunning (CTO von MapR) mit kundigen Teilnehmern sowohl die Business-Aspekte als auch die technischen und ethischen Herausforderungen der Nutzung von Massendaten.

Die Konferenz Big Data Paris 2019 zog nach Angaben des Veranstalters rund 16.500 Teilnehmer an, die an zwei „Konferenzzyklen“ Interesse zeigten. Die eine Schiene fokussierte auf Business- und Governance-Themen, wobei beim Business das Marketing im Vordergrund stand. Daher erübrigte sich im Grunde die Frage, wie weit Unternehmen bei der Nutzung von Big Data sind.

Die Frage lautete vielmehr: Wie weit dürfen Firmen und Behörden in der Big-Data-Nutzung noch gehen? Hinsichtlich Governance waren Themen wie ethischer Umgang mit Massendaten, Fake News, Spionage usw. relevant, etwa die Fragen „Wie lässt sich Ethik by Design realisieren?“ sowie „Gibt es Ethik und Kontrolle für Big Data und KI-Algorithmen?“ Über 100 Referenten – vor allem französischer Provenienz – betätigten sich als Referenten oder nahmen an Diskussionen teil.

Dazu Clémence Simmelide, zuständige Referentin für die Konferenzen der Big Data Paris: „Big Data ist nach wie vor eine große Herausforderung und hat viele Gesichter. Die Branche zeigte sich im Laufe der Jahre innovativ. Big-Data-Technologien entwickelten sich durch die Nutzung von OpenData oder Streaming-Daten weiter und bieten ebenfalls eine fundierte Grundlage für Künstliche Intelligenz. Ihre Nutzungsmöglichkeiten sind mittlerweile diversifiziert. So werden neue Datenanwendungen möglich.“

250 Aussteller

Sehr gut besucht war die Ausstellung mit nach Angaben des Veranstalters 250 Firmen aus den Bereichen Big Data und „Intelligente Algorithmen“. Unter den Ausstellern sollen sich über 40 Start-ups befunden haben. Da es hier zuging wie beim Flohzirkus in der Sardinenbüchse, war es schwierig, einen Überblick zu erhalten. Oracle hatte in strategisch günstiger Position sogar eine Art Disneyland aufgebaut, das den Weg zur nächsten Rolltreppe versperrte.

In der Vortragsschiene für technische Experten, stellten eine Reihe von Firmenvertretern diverse Produkte vor, darunter MapR, Confluent, MicroStrategy, Snowflake, Alation, AWS, Google und Microsoft Azure. Zudem gab es zahlreiche interessante Anwendergeschichten, so etwa von Orange France und SAP.

Microsoft CosmosDB

Die Ausstellung während der „Big Data Paris 2019".
Die Ausstellung während der „Big Data Paris 2019". (Bild: corp-agency.com)

Der Microsoft-Referent Dr. Leslie Lamport führte das Publikum zunächst in die Eigenschaften von Datenbanken ein. Das Kürzel ACID beschreibt die traditionellen Qualitäten wie etwa „atomic“ und „consistent“. Bislang mussten Datenbankentwickler wählen, ob sie niedriger Latenz oder hoher Verfügbarkeit und Konsistenz den Vorzug gaben – oder gar einem zweckgebundenen Datenbankmodell wie etwa GraphDB wählten.

Diese Zeiten gehören nun offenbar der Vergangenheit an. Denn glücklicherweise bietet Microsoft Azure CosmosDB nicht nur fünf verschiedene Grade der Konsistenz (von „strong“ bis „eventual“), sondern lässt sich auch für verschiedene Datenbankmodelle (Graph, Key-Value, Doc, relational usw.) verwenden. Diese wundersame Allzweckwaffe findet offenbar bereits bei Branchenriesen wie Walmart oder Rakuten Einsatz.

Orange France

Orange ist einer der führenden Telekommunikationskonzerne Frankreichs. Seit 2013 nutzt Orange das Hadoop-Framework, um Daten (per Streaming mit Kafka) zu sammeln, zu speichern, zu verwalten und auszuwerten. Auf dieser Basis hat das Data-Lab die Aufgabe, neue Apps zu entwickeln, sowohl für interne Zwecke als auch für die Kundeninteraktion.

Der Aspekt der Datensicherheit ist von vornherein in den Design- und Entwicklungsprozess integriert, aber von Phase zu Phase gab es wechselnde Schwierigkeiten, die den mittlerweile 700 Nutzern des Data Lake zu schaffen machten. Mal waren die Antwortzeiten nicht garantiert, mal die Updates der verschiedenen Komponenten schwierig durchführbar. Zudem musste die gesamte Multi-Site-Umgebung verwaltet und effizient gehalten werden.

Dieser sehr spannende Vortrag gewährte einen Ausblick auf die nächste Phase G3, die 2020 starten soll. Derzeit sind in Version G2.6 rund 320 Rechnerknoten aktiv, um nicht weniger als 2,5 Millionen Ereignisse pro Sekunde zu verarbeiten. Ab dem Jahr 2021 rechnet der Leiter des Data-Lab mit doppelt so vielen Ereignissen pro Sekunde. Da sich deshalb die Frage erhebt, ob Hadoop diese Leistung bereitstellen kann, erwägt er den Wechsel auf eine andere, leistungsfähigere Plattform.

MapR Data Platform

Eine solche Plattform könnte MapR sein). Ted Dunning, der CTO und Chief Application Architect bei MapR Technologies und Vorstandsmitglied der Apache Software Foundation, stellte einen „Praktischen Leitfaden zu Big-Data-Systemen in der Cloud“ vor. Angesichts der Tatsache, dass überwiegend Cloud-Kapazitäten ausreichen, um Massendaten zu verarbeiten, dürfte dieses Thema für immer mehr Datenbank-Designer, Applikations- und Systemarchitekten an Bedeutung gewinnen.

Neben vier Anwendungsfällen der Nutzung von Big Data in der Cloud (ganz oder teilweise) präsentierte Dunning eine Datenplattform, die wie Kubernetes für Daten funktionieren soll, damit ein Mindestmaß von Abstraktion bereitgestellt wird. Er sagte voraus, dass Machine Learning eine wachsende Rolle auf einer solchen Plattform spielen würde. Umgekehrt benötige Machine Learning aber eine Versionskontrolle für den verwendeten Code (und die Modelle).

Confluent

Thema des Technical Evangelist Kai Wähner, der für Confluent auftrat, war „IoT Sensor Analytics with Kafka, KQSL and Tensorflow“. Kurzum: Datenanalyse im Streaming, Echtzeit bei Verarbeitung und Datenzugriff. Ein Anwendungsfall, den er präsentierte, sind Datenströme, die die Infrastruktur eines Connected Car zur Echtzeit-Analyse liefert.

Erfreulicherweise stellt Apache Kafka nicht nur Publish/Subscribe-Messaging bereit, sondern auch eine Möglichkeit, Daten zu speichern und sofort zu verarbeiten (auch über Konnektoren). Die Storage-Komponente erlaube es, die Infrastruktur zu entkoppeln und Hochverfügbarkeit zu gewährleisten.

Wie leistungsfähig Kafka sei, zeigten Spitzenleistungen auf LinkedIn, dem Kafka-Erfinder, von bis zu 4,5 Billionen Messages pro Tag. Die Streaming-Plattform Netflix, die über immerhin 6 Petabyte an Daten verfüge, verarbeite bis zu 2,2 Billionen Messages/Tag. Confluent ist offensichtlich ein Distributor von Kafka und hat bereits mit Kafka SQL (KSQL) und Machine Learning IoT-Projekte gestemmt.

SAP IoT Platform

Rémi Astier von SAP France zeigte anhand eines Kundenprojekts, wie das Zusammenwirken von IoT und Machine Learning aussehen kann, um Predictive Quality zu realisieren. Der Hintergrund: Big Data steht mit dem europäischen Programm „Copernicus“ im Dienst nachhaltiger Landwirtschaft.

Der ungenannte Kunde wollte die Qualität seiner Produkte verbessern, hatte aber mit der minderen Qualität der Wasserleitungen zu kämpfen. SAP France baute binnen vier Wochen einen Prototypen für eine Tablet-App, die mit dem SAP IoT Edge Gateway Sensordaten erfassen und mithilfe von SAP-HANA-Komponenten in der SAP IoT Cloud darstellen kann. Was die Entwickler den Kundentechnikern zeigen konnten: Die Konfiguration der Wasserleitungen war grundsätzlich in Ordnung, doch die Feineinstellung der Maschinen (Pumpen) war ebenso unzuverlässig wie die Praxis der Wasserverteilung. Als Folge ergaben sich erheblich Schwankungen in der Wasserzufuhr und Produktqualität. Ein zusätzliches Problem: Die Techniker waren nicht erfreut, dass ihnen fachfremde Softwareentwickler zeigten, wo der Hammer hängt. Ihnen musste diplomatisch vermittelt werden, dass die App für sie ein wertvolles Werkzeug sein würde.

Awards

Auf der Konferenz wurden drei Firmen mit Preisen ausgezeichnet. In der Start-up-Kategorie gewann Myrtea metrics, in der Kategorie Mittelstand & große Unternehmen die Firma Daher und den sogenannten „Coup de Coeur Prize“ räumte Proxem ab.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45804701 / Analytics)