Digitalisierung in Sicherheitsbehörden Kommissar Big Data ermittelt

Autor / Redakteur: Dirk Moeller* / Regina Willmeroth

Big Data hält Einzug in die Polizeiarbeit. Die Software-basierte ­Verbrechensprävention (Predictive Policing) wertet Straftaten nach bestehenden Mustern aus, um künftige Tatorte und -zeiten vorherzusagen. Mehrere Bundesländer testen solch ein Prognosesystem bereits. Sicherheitsbehörden sollten daher prinzipiell klären, mit welcher IT-Infrastruktur sie Massendaten rechtskonform und effizient auswerten können.

Firmen zum Thema

Sicherheitsbehörden können durch intelligent analysierte Massendaten neue Erkenntnisse für ihre Arbeit gewinnen
Sicherheitsbehörden können durch intelligent analysierte Massendaten neue Erkenntnisse für ihre Arbeit gewinnen
(Bild: NetApp)

Sicherheitsbehörden müssen sich mehr und mehr mit der Verarbeitung von Big Data beschäftigen. Doch worauf kommt es bei der technischen Umsetzung von Big-Data-Vorhaben an? Der Erfolg hängt von der Datenanalyse ab. Softwarelösungen können allerdings nur hochwertige Ergebnisse erbringen, wenn die gesamte IT-Umgebung auf große Datenmengen ausgelegt ist. Nur dann können Millionen von Datensätzen, Petabyte an Daten sowie unterschiedlichste Datenquellen und Datenstrukturen intelligent analysiert und nach relevanten Zusammenhängen durchforstet werden.

Die Datenmanagementsysteme, mit denen Sicherheitsbehörden ­arbeiten, weisen häufig eine hoch fragmentierte Landschaft aus diversen Systemen und Medien­typen auf. Diese sind oft – strikt nach Abteilungen getrennt – in Datensilos untergebracht. Umfangreiche Analysen setzen jedoch den Zugriff auf alle Daten voraus – selbstverständlich rechtskonform. Zudem müssen sie relevant, schnell und einfach abrufbar sowie miteinander verknüpfbar sein. Verknüpfung und Auswertung übernehmen Software und Fallbearbeiter.

Daten über Daten

Um welche Daten es geht, zeigt ein möglicher Anwendungsfall: ein Hochrisikospiel im Fußball. Für die Einsatzplanung können unter anderem Wetterdaten aufschlussreich sein. Wird es ein kalter oder ein warmer Tag? Und wie wirkt sich das Wetter aus? Wird mit steigender Temperatur mehr Alkohol konsumiert als an kalten Tagen? Und steigt mit dem Alkoholkonsum auch das Aggressivitätspotenzial unter den Fans? Welche Fangruppen könnten wo aufeinandertreffen?

Ziel von Big-Data-Projekten ist es, aus Erfahrungswerten Handlungsempfehlungen abzuleiten. Dies geschieht, indem offen verfügbare Datenquellen mit Daten vereint werden, die sich in polizeilichen Verarbeitungssystemen befinden. Gemeint sind hier weniger die Daten, die von Sicherheitsbehörden selbst generiert werden, wie etwa aus der Office-Kommunikation.

Vor echte Herausforderungen stellen Behörden vielmehr Daten, die sie in Einsätzen sichergestellt haben. Deklariert als Schmutzdaten, werden diese vom Polizeinetz getrennt gehalten, um mögliche Infizierungen durch Schadsoftware zu vermeiden.

Schätzungsweise fallen pro Jahr und Bundesland 500 Terabyte bis zwei Petabyte solcher Schmutz­daten an. Dazu kommen Informationen der Sicherheitsbehörden des Bundes und anderer Sicherheitsbehörden. All diese Daten müssen sicher aufbewahrt werden und verlässlich abrufbar sein.

Teilweise ist ein Austausch unter Behörden erforderlich. Ein Teil der Daten unterliegt zudem der längerfristigen bis unendlich langen Archivierungspflicht. Bei diesen Datenmengen und Vorgaben kommen nur IT-Systeme in Frage, die skalieren – auch über Rechenzentrumsgrenzen hinweg, beispielsweise in oder an die Cloud.

Lesen Sie bitte auf der nächsten Seite weiter.

Ganzheitlicher Ansatz

Schnelle Implementierung und reibungsloser Betrieb: Konvergente Infrastrukturen unterstützen Anwendungen für Big Data und Analytik
Schnelle Implementierung und reibungsloser Betrieb: Konvergente Infrastrukturen unterstützen Anwendungen für Big Data und Analytik
(Bild: NetApp)

Durch Big Data Tools können fallrelevante Daten in Sekunden kopiert und so von mehreren Sachbearbeitern parallel genutzt werden. Die intelligente Analyse von Massendaten und die beweiswert­erhaltende Datenkonsolidierung auf einem mandantenfähigen System verlangen vorab jedoch eine ganzheitliche Abstimmung. Denn alleine mit der Auswahl der Software ist es nicht getan.

Natürlich sollte die neue Lösung können, was sich die Fachabteilung wünscht. Ebenso sollte sie sich jedoch in die bestehende Infrastruktur einfügen. Denn jede Software hat bestimmte Anforderungen – und nur wenn die IT-Komponenten Server, Netzwerk, Speicher, Datenmanagement und Analyse-Software fein aufeinander abgestimmt sind, lassen sich fachliche Vorgänge und gesetzliche Vorgaben auch auf digitaler Ebene effizient umsetzen.

Zudem müssen die Daten auf ein zentrales Speichersystem gespielt werden. Es gilt für IT-Verantwortliche, unter anderem Sicherheitsaspekte hinsichtlich Zugriffsrechten, Mandantentrennung, Verschlüsselungstechnologien, permanenter Datenintegritätsprüfung, Datensicherung und gegebenenfalls auch Netztrennung zu beachten. Dabei ist es wichtig, dass die Software schnell auf die Daten zugreifen kann und in ihrer Performance nicht von Speicher, Server und Netzwerk gebremst wird.

Eine ständige Verfügbarkeit ist selbstverständlich, wo erforderlich auch georedundante, synchrone oder asynchrone Datenhaltung. Ziehen Fach-, IT-Abteilung, Software­anbieter und externer Dienstleister von Beginn an einem Strang, wird das Projekt alle möglichen Hindernisse umschiffen.

Konvergente Infrastruktur

Eine interessante Lösung sind konvergente Infrastrukturen. Sie vereinen Netzwerk, Rechenleistung und Datenmanagement in einer einzigen, modularen Architektur. Anbieter wie NetApp nehmen dem Kunden auch den Aufwand bei Auswahl und Konfiguration ab. Sie testen die konvergente Infrastruktur vorab, stimmen sie auf Wunsch auf spezifische Workloads und Anwendungen wie Big Data und Analytics hin ab und validieren die IT-Systeme. Das beschleunigt die Implementierung, und der Betrieb läuft reibungslos. Zudem bieten konvergente Infrastrukturen aufgrund ­ihres modularen Aufbaus hohe ­Flexibilität.

Auf konvergenten Infrastrukturen bauen ganze Rechenzentren auf. Mit der passenden Datenmanagementstrategie lassen sich Daten kontrollieren, verwalten und schnell sowie sicher bereitstellen. Die Informationen müssen dorthin, wo Anwender sie benötigen.

Einheitliches Datenmanagement und -format erleichtern Sicherheitsbehörden die Datenübertragung zwischen Rechenzentrum, Cloud-Ressourcen und anderen Sicherheitsbehörden. Wer darüber hinaus auf effiziente Speichertechnologien setzt, reduziert die immer größeren Datenmengen – vom Produktivbetrieb bis zur Archivierung.

Der Autor: Dirk Möeller
Der Autor: Dirk Möeller
(Bild: NetApp)

Fazit

Big Data bringt neue Herausforderungen mit sich, und die Polizei muss mit der Digitalisierung Schritt halten. Wo früher Papierakten als Beweismittel sichergestellt und durchgearbeitet wurden, sind es heute Festplatten, Memory Sticks oder Daten in der Cloud. Es ergeben sich jedoch auch Chancen. Die Bandbreite an Anwendungsfällen und kreativen Verknüpfungsmöglichkeiten von Daten ist grenzenlos. Dank Predictive Policing können so fast in Echtzeit Vorhersagen für die Einsatzplanung getroffen werden.

* Dirk Moeller, Head of Sales Public Sector & HealthCare Germany, NetApp

(ID:44804378)