Interview mit Harald Weimer, Talend Deutschland

Realtime und Advanced Analytics geraten in den Fokus

| Autor / Redakteur: Silke Rehlaender / Nico Litzel

Harald Weimer Geschäftsführer der Talend Deutschland GmbH und VP Sales Central Europe
Harald Weimer Geschäftsführer der Talend Deutschland GmbH und VP Sales Central Europe (Bild: Talend)

BigData-Insider hatte Gelegenheit, mit Harald Weimer zu sprechen, seit September 2007 Geschäftsführer der Talend Deutschland GmbH sowie VP Sales Central Europe. Der Diplom-Kaufmann verfügt über mehr als 25 Jahre Erfahrung im Vertrieb von Softwarelösungen und war unter anderem bei der USU AG und Iona Technologies tätig.

BigData-Insider: Welche Themen werden den Big-Data-Markt dieses Jahr prägen?

Weimer: 2016 werden Unternehmen ihre bisherigen Test- und Pilotprojekte zunehmend in den produktiven Einsatz migrieren. Ein starker Fokus liegt dabei auf den Themen Realtime und Advanced Analytics. Schließlich führen Unternehmen nicht mehr nur einfache Analysen durch, sondern möchten auch komplexe Themen wie Predictive Maintenance abbilden. Entsprechend spielen umfassende IoT-Anwendungen (Internet of Things) eine immer wichtigere Rolle. Hier sind aus den Analysen zielgerichtet Events abzuleiten. Die zunehmend komplexen Datenstrukturen und die steigende Datenmengen erhöhen den Bedarf für eine homogene Datenbasis. Entsprechend ist ein umfassendes Datenmanagement mit zugehöriger Governance einzuführen. Schließlich legen Unternehmen immer mehr Wert auf ihre Daten, um im zunehmenden Wettbewerb erfolgreich bestehen zu können.

Warum wird das Stammdatenmanagement immer wichtiger?

Weimer: Das Stammdatenmanagement ist tatsächlich das A und O beim Thema Big Data. Je mehr Daten bearbeitet werden, desto wichtiger wird es. Tatsächlich nutzen heute die meisten Unternehmen nur einen Bruchteil ihrer vorhandenen Datenbasis. Die Sammlung und Bearbeitung aller verfügbaren Informationen stellt derzeit wohl die größte Herausforderung im Bereich Big Data dar. Eine gute Analyse ist jedoch nur dann möglich, wenn die Datentöpfe einheitlich und gut aufbereitet sind. Oder anders herum: Verwendet man schlechte Daten, so kommen auch schlechte Ergebnisse heraus. Die Datenintegration ist daher der erste Schritt eines Big-Data-Projekts, um die Datenqualität zu erhöhen. Und diese Anforderung führt zu einem umfassenden Stammdatenmanagement.

Entstehen dabei auch neue Berufsbilder?

Weimer: Mit Sicherheit, schon heute gibt es Data Manager und Data Scientists. Sie verantworten die Gewinnung und Aufbereitung der Informationen. Dabei entscheiden sie, welche Daten für sinnvolle Analysen nötig sind, für welche Informationen sie der Fachanwender braucht und wie daraus zuverlässige Erkenntnisse werden. Darüber hinaus werden sich bestehende Berufsbilder im Bereich Enterprise Information Management konsequent weiterentwickeln – zum Beispiel in Richtung eines Data Visualizers oder eines Information Brokers. Ein wichtiger Trend ist aber auch die engere Zusammenarbeit zwischen IT und Fachabteilungen. Während die IT bislang meist die Oberhand über die Big-Data-Systeme hatte, besitzen die Fachabteilungen das nötige spezifische Know-how, um die richtigen Fragen für die Optimierung der Geschäftsprozesse zu stellen. Da die hierzu verwendeten Daten aktuell sein müssen, sind ein intensiver Austausch und eine ständige abteilungsübergreifende Kommunikation nötig.

Welche technischen Herausforderungen kommen dabei auf Unternehmen zu?

Weimer: Die Überwindung der Abteilungsgrenzen ist zwar primär eine organisatorische Herausforderung, aber zu einem großen Teil auch eine technologische. Denn bislang bedienten meist IT-Experten die Analysesysteme, so dass sie oft eine sehr komplexe und schwer bedienbare Oberfläche aufwiesen. Heute müssen die Anwendungen jedoch einfach und intuitiv nutzbar sein, um den Fachanwendern Self-Service-Anwendungen zu ermöglichen. Zum Beispiel sollte der Anwender selbst Daten aus Salesforce in Excel übertragen und einfache Analysen durchführen können. Dieses sogenannte „Enabling“ entlastet zum einen die IT-Abteilung und gewährleistet zum anderen mehr Freiheit und Schnelligkeit in den Fachabteilungen. Auch bekommen die Mitarbeiter durch Ausprobieren mehrerer Varianten ein besseres Gefühl für die Zahlen und Trends. Eine weitere technische Herausforderung für Unternehmen ist die immer schnellere Weiterentwicklung der Systeme. So sind die Anwendungen zu kapseln und zu abstrahieren, um sie besser verwalten zu können. Dabei hilft auch der Trend zu Cloud Computing. Da Provider immer mehr Dienste anbieten, müssen Unternehmen immer weniger Anwendungen selbst installieren und verwalten. So können sie sich verstärkt auf die Analysen sowie die Unternehmenssteuerung konzentrieren.

Auf welche Entwicklungen können wir uns dieses Jahr freuen?

Weimer: Spark ist ein ganz heißes Thema in der Branche, auch für uns. Spark bildet ein neues Konzept, womit man Daten noch schneller und effektiver durch In-Memory-Technologie verarbeiten kann. Das Thema Spark in Realtime wird in den nächsten Jahren eine große Dimension erreichen. Dies ermöglicht auch Streaming-Anwendungen. Spark gilt inzwischen als die Kerntechnologie bei Big Data, sodass auch wir darauf setzen. So nutzt Talend 6 die Power von Apache Spark und Spark Streaming für eine Big-Data-Integration in Echtzeit. Eine weitere Entwicklung, auf die wir uns freuen, ist Data Preparation. Dabei handelt es sich um Systeme zum Sammeln und Vorbereiten von Daten aus verschiedenen Quellen für Analysen. Durch diese Excel-ähnlichen Tools steigen der Automatisierungsgrad und die Datenqualität für die Aufbereitung stark an, wodurch auch Fachanwender einfachere Auswertungen durchführen können.

Das Thema Datenschutz wird durch die Entscheidung zum Safe-Harbor-Abkommen wieder intensiv diskutiert. Behindert das Big Data?

Weimer: Datenschutz und Security sind zentrale Themen. Je mehr Daten gesammelt und verarbeitet werden, desto wichtiger wird der Schutz sensibler Informationen. Es gibt bereits heute verschiedene Möglichkeiten, eine hohe Sicherheit zu gewährleisten. Zum Beispiel können Unternehmen die sensiblen Daten in ihren eigenen Rechenzentren speichern und sie nur zur aktuellen Verarbeitung in die Cloud übertragen. Auch in der Cloud gibt es zahlreiche Schutzmaßnahmen, die inzwischen ein ähnlich hohes, teils sogar noch höheres Sicherheitsniveau bieten wie die Rechenzentren von Unternehmen. Natürlich müssen alle Cloud Provider auch die aktuellen Datenschutzrichtlinien einhalten. Dabei ist bekannt, dass die europäischen Richtlinien deutlich strenger sind als die US-amerikanischen oder asiatischen. Daher sind in Deutschland tätige Unternehmen für den internationalen Wettbewerb sehr gut gerüstet. So ermöglichen wir bei Talend 6 mit Datenmaskierung und Semantikanalyse ein besseres Management von Compliance- und Datenschutzbeschränkungen, indem der Prozess des Verbergens und Sicherns personenbezogener Daten bei der Freigabe im gesamten Unternehmen erleichtert wird. Dadurch werden Kundendaten vor Missbrauch oder Verletzungen geschützt und der Semantik-Analysator ermöglicht Fachbenutzern, ihre Daten dank automatischer Feststellung des Datentyps und HDFS-Dateiprofilerstellung besser zu verstehen.

Wird der Fachkräftemangel ein Problem darstellen?

Weimer: Der Fachkräftemangel ist sicher ein Thema. Doch statt die Ausbildung zu intensivieren, sollte man eher die Werkzeuge vereinfachen. Das ist deutlich effizienter und erfolgversprechender. Bei sehr guten User Interfaces können Fachanwender die Funktionen intuitiv nutzen oder sie sich durch E-Learning-Angebote und automatische Hilfestellungen erklären lassen. Dies reduziert den Bedarf an Vor-Ort-Schulungen und Trainings. Zum Beispiel können mit unserem neuen Editor sowie dem Data Prep Tool Umsatzzahlen oder der Markterfolg von Produkten in weniger als einer Stunde ermittelt werden.

Abschließend noch ein Blick zurück: Wie war das Jahr 2015 für Talend?

Weimer: Das Big-Data-Geschäft ist für uns eine rasant wachsende Zugmaschine und macht heute bereits 40 Prozent unserer Gesamtumsätze aus. Seit Jahresbeginn hat die Anzahl der Abonnementbestellungen in einer beeindruckenden Größenordnung von 136 Prozent zugenommen. Das gilt sowohl für die Fläche als auch Breite des Angebots. Dabei wurde auch das Datenmanagement immer wichtiger. Schließlich sehen wir auch eine deutliche Globalisierung von Big Data durch Cloud-Angebote sowie die Sammlung und Analyse weltweiter Daten. Entsprechend haben wir neue Büros in den USA, Europa, Asien und Südamerika eröffnet. Ferner stellt Talend dank der Markteinführung von Talend 6, der ersten und einzigen Integrationssoftware mit Unterstützung für Spark, der neuen und extrem schnellen Datenverarbeitungs-Engine von Apache, auch in Sachen Innovation weiterhin die Speerspitze dar. Und diese Entwicklung wird sich auch 2016 fortsetzen.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43812817 / Analytics)