Big Data macht Behörden effektiver und servicefreundlicher Auf die Architektur kommt es an

Autor / Redakteur: Hadi Stiel / Susanne Ehneß

Öffentliche Bereiche sind zunehmend darauf angewiesen, ihre explodierenden Datenbestände zu integrieren, um so den Gesamtbestand für Analysen und Auswertungen für einen effektiveren und effizienteren Verwaltungs- und Portalauftritt zu nutzen.

Firmen zum Thema

Um die explodierenden Datenbestände unter Kontrolle zu bekommen, müssen sich auch Behörden mit Big Data beschäftigen
Um die explodierenden Datenbestände unter Kontrolle zu bekommen, müssen sich auch Behörden mit Big Data beschäftigen
(Bild: peshkov - Fotolia.com)

Nicht nur in der Wirtschaft wächst, vorangetrieben durch das digitale Business, die Bedeutung von Big Data. Bevor Behörden über Big-Data-Integration und Big-Data-Analysen ihre Interaktionen intern und untereinander sowie gegenüber den Bürgern auf Vordermann bringen können, müssen dafür die richtigen Weichen gestellt werden. Danach muss im Projektverlauf an geeigneten Stellschrauben gedreht werden. eGovernment Computing hat sich darüber mit Harald Weimer, Geschäftsführer bei Talend Deutschland, unterhalten.

Welche Behörden sehen Sie ­unter besonders hohem Big-­Data-Integrations- und -Analysedruck?

Weimer: Viele Bereiche innerhalb der Öffentlichen Verwaltung sind betroffen: Versorgung, Bildung, Finanzen und Steuerwesen, Städteplanung, Polizei- und Rettungseinsätze, Fuhrparkverwaltung, intelligente Verkehrssteuerung (Stichwort: Smart Mobility), kosteneffizientes Gebäudemanagement (Stichwort: Smart Energy) und Umwelt. Zudem sind die Behörden generell gefordert, via Portal ihre Interaktion mit und ihre Services gegenüber den Bürgern zu verbessern. Die Herausforderung besteht darin, bei wachsender Komplexität der Verwaltungssysteme Prozesse zu vereinfachen, zu straffen und zielgenauer auszurichten, dadurch effektiver und effizienter zu gestalten. Big-Data-Integration und -Analysen schaffen dafür geeignete Voraussetzungen, indem sie für all dies werthaltige Daten und Auswertungen bereitstellen.

Welche Weichen sollte die ­Behörde gegebenenfalls im ­Zusammenspiel mit anderen beteiligten Behörden für einen erfolgreichen Ablauf des Big-Data-Projekts stellen?

Weimer: Wesentliche Etappen für einen erfolgreichen Projektablauf sind, sich im Vorfeld klare Ziele für das Vorhaben zu setzen, sich die erforderlichen Kenntnisse und Fähigkeiten über die Anwendungsmöglichkeiten der neuen Technologien anzueignen, sich über die Integration bisher separat geführter Datenquellen Gedanken zu machen und den Ausbau einer geeigneten Architektur für Big Data ins Auge zu fassen. Außerdem müssen mögliche Risiko- und Governance-Probleme bedacht und natürlich die Finanzierung des Gesamtprojekts sichergestellt werden. Eine Readiness-Scorecard, die vorab entwickelt werden muss, hilft, die Erfolgsfaktoren für das anstehende Big-Data-Projekt im Einzelnen zu identifizieren.

Die Integration der bisher separat und dadurch nicht gesamtheitlich ausgeschöpften und ausgewerteten Datenquellen, Datenbanken wie Anwendungen, dürfte eine besondere Herausforderung für die Projektverantwortlichen darstellen, oder?

Weimer: Zweifellos. Sämtliche Datenquellen müssen identifiziert und die Daten darin gesichtet werden. Danach muss eruiert werden, wie die relevanten Datenquellen in eine Gesamtdatenbasis überführt werden können, wie die einzelnen Datenbestände strukturiert werden müssen und wie der Aufwand für die Integrationsleistungen und die damit verbundenen Schulungsleistungen so gering wie möglich gehalten werden können. Wichtig für eine angemessene Bewertung der Datenbestände ist auch, auf welche Verbesserungen der Big-Data-Analyseauftritt vor allem abzielen soll: effektivere und effizientere interne Verwaltungsprozesse im anvisierten Anwendungsbereich wie Versorgung, Finanzen und Steuerrecht, Städteplanung, Verkehrssteuerung, Gebäudemanagement, Umwelt und/oder Verbesserung der Interaktionen und Services via Bürger-Portal. Natürlich müssen die angestrebten Verbesserungen konkretisiert, also in Art und Umfang festgelegt werden, um später daran die Big-Data-Analysen ausrichten zu können. Und: Selbst wenn es auf den ersten Blick sinnvoll erscheinen sollte, einzelne Datenquellen zu integrieren, können Kostenbetrachtungen dieser ersten Einschätzung widersprechen, nämlich dann, wenn die angestrebten Vorteile sie nicht wettmachen.

Lesen Sie auf der nächsten Seite weiter.

Harald Weimer, Geschäftsführer bei Talend Deutschland
Harald Weimer, Geschäftsführer bei Talend Deutschland
(Bild: Talend)

Können Sie Tipps zur Auswahl einer geeigneten Big-Data-­Architektur geben?

Weimer: Sie sollte herstelleroffen, also Open-Source-Software (OSS)-basierend sein, um so einer Hersteller- und Preisbindung von vornherein aus dem Weg zu gehen. Solche herstelleroffenen Architekturen warten mit einheitlichen, grafikgestützten Werkzeugen und Wizzards für die Integration, Bereinigung und mit Blick auf die Analyse für die Markierung und Profilierung der Daten auf. Den Entwicklern stehen dazu innerhalb nur einer Plattform Werkzeuge wie Apache Hadoop, Apache Spark, Spark Streaming und NoSQL-Datenbanken zur Verfügung, um unter anderem nativen Code zu generieren und Continious-Delivery-Funktionen für eine beschleunigte Entwicklung von IT-Services für optimierte Verwaltungsprozesse zu nutzen.

Außerdem sollten die Entscheider bei der Auswahl der OSS-Architektur darauf achten, dass diese für die Integration der unterschiedlichen Datenquellen so viele Konnektoren wie möglich vorhält, für die der Anbieter nicht gesondert Lizenzgebühren erhebt. Im Fall der OSS-Architektur von Talend sind das mittlerweile über 800 Konnektoren, die ohne Aufpreis generell zum Lieferumfang der Architekturlösung gehören. Je mehr Konnektoren die Architektur der Wahl bietet, umso größer ist die Chance, dass alle für Big-Data-Analysen relevanten und lohnenden Datenquellen ohne hohe Aufwendungen in eine zentrale Datenbasis überführt werden können.

Was ist für die Ausgestaltung von IT-Services notwendig, um darüber, gewappnet mit den Erkenntnissen aus den Big Data-Analysen, die Prozesse der Behörde effektiver und effizienter zu gestalten?

Weimer: Teil der Architektur sollte ein Modul zur Anwendungs­integration sein, das einen superschnellen Service-Backbone beinhaltet, um so eine Service-orientierte Architektur (SOA) erstellen zu können. Darüber können dann Services in Echtzeit verbunden, vermittelt und verwaltet werden. Über eine Vielzahl an erweiterbaren Enterprise-Service-Bus (ESB)-Schnittstellen und Konnektoren auf OSS-Basis können Behörden heute mehr Anwendungen und Datenquellen denn je für die Service- und Prozessgestaltung nutzen.

Die Vorteile für die Behörde unter dem Strich: um bis zu 50 Prozent reduzierte Konvertierungszeiten, Einsparungen bei den Betriebskosten gegenüber CPU-basierenden Kostenmodellen von bis zu 70 Prozent, zusätzliche Einsparungen durch die freie Wahl der Programmiersprache und ein erleichterter Umstieg von Big-Data-Systemen wie Informatica, IBM DataStage und anderen Extract, Transfom, Load (ETL)-Systemen auf die OSS-Architektur und -Werkzeuge.

Lesen Sie auf der nächsten Seite weiter.

Einige Behörden sind bereits in Richtung Big-Data-Integration und Big-Data-Analyse aufgebrochen, müssen also Rücksicht auf bereits getätigte Investitionen vielleicht in herstellerspezifische Architekturen und Werkzeuge nehmen. Was raten Sie diesen Behörden?

Weimer: Dass Architekturen in OSS für Behörden sowohl aus dem Leistungs- als auch den Kostenblickwinkel die bessere Alternative sind, daran besteht mittlerweile kein Zweifel mehr. Nur so kann sich die Behörde aus der Produkt- und Preisbindung und dem begrenzten Weiterentwicklungsspielraum und Angebot an Konnektoren dieser Hersteller lösen. Zudem spricht für OSS-Architekturen, dass darin mit Blick auf eGovernance und Compliance die Daten weit besser geschützt werden können als in anderen Systemen.

Um sich mehr oder weniger schnell aus der Bindung herstellerspezifischer Big-Data-Architekturen zu lösen, empfehlen wir den betroffenen Behörden, die Strategie „side by side“ oder „Ablöseprojekt“ einzuschlagen. Bei der Strategie „side by side“ behält die Behörde alt und neu über einen definierten Übergangszeitraum bei, wobei sie nicht mehr ins alte System, sondern nur noch in den Ausbau des neuen Systems investiert. Auch mit einem Ablöseprojekt bestimmt die Behörde die Migrationsgeschwindigkeit ins neue System. Ob „side by side“- oder „Ablöseprojekt“-Strategie: Altverträge und bereits getätigte Investitionen können einem Wechsel zur OSS-Architektur zwischenzeitlich entgegenstehen.

Sie sagen, die Sicherheit der Daten ist innerhalb OSS-Architekturen besser zu gewährleisten als innerhalb herstellerspezifischer Architekturen. Können Sie das begründen?

Weimer: Die offene Software-Entwicklungsgemeinschaft hat mittlerweile Sicherheitswerkzeuge hervorgebracht, die in der Anzahl und Qualität die der großen proprietären Hersteller übersteigt. Alle diese Sicherheitswerkzeuge fügen sich nahtlos in die Big-Data-Architektur ein und werden zudem zügig von der OSS Community weiterentwickelt.

Hinzu kommt, dass, anders als bei herstellerspezifischer Software, bei Open Source Software der Quellcode eingesehen und auf Sicherheitslücken oder Mal­ware hin von den Behörden geprüft werden kann. Das ist im sensiblen Feld der Big-Data-Analysen und optimierter Verwaltungsprozesse auch gleichbedeutend mit einem besseren Schutz vor Spionen.

Die enge Zusammenarbeit von Anbietern und Anwendern mit den Entwicklern fördert darüber hinaus nicht nur die Implementierung und den Betrieb der Gesamtlösung, sondern auch deren sichere Verwaltung.

Das Interview führte Hadi Stiel, freier Journalist und Kommunikationsberater in Bad Camberg

(ID:43870056)