Kommentar von Jörg von der Heydt, Fortinet IT-Sicherheit im Zeitalter von Big Data

Autor / Redakteur: Jörg von der Heydt / Nico Litzel

Im digitalen Zeitalter sind Informationen die neue Währung. Um an die Informationen zu gelangen, werten Unternehmen Unmengen von Daten aus, um die in ihnen enthaltenen Informationen zu nutzen. Der Goldrausch, den wir derzeit bei der Erfassung und Analyse von Big Data erleben und der wiederum zunehmend vom Internet der Dinge vorangetrieben wird, stellt jedoch auf der anderen Seite die IT-Sicherheit vor neue Herausforderungen.

Anbieter zum Thema

Der Autor: Jörg von der Heydt ist Channel & Marketing Manager Germany bei Fortinet
Der Autor: Jörg von der Heydt ist Channel & Marketing Manager Germany bei Fortinet
(Bild: Fortinet)

Zunächst einmal geht es um die Aggregation. Die Rohdaten werden zunehmend nicht mehr an der Datenquelle verarbeitet und auf ein handhabbares Volumen reduziert, sondern an eine zentrale Stelle übertragen und dort gespeichert, sodass sie im Laufe der Zeit auf verschiedene Weisen analysiert werden können.

Unternehmen übertragen heute täglich Terabytes an Daten über große Entfernungen. Die reine Datenmenge zwingt zur Aufrüstung der Kernnetzwerke und Rechenzentren, wie z. B. auf eine Umstellung auf eine 100-Gigabit-Ethernet-Switching-Fabric, um eine Datenübertragung bei zehn Gigabit pro Sekunde oder mehr handhaben zu können.

Herausforderungen für die Perimetersicherheit

Das bringt wiederum Herausforderungen für die Perimetersicherheit mit sich, da viele Herstellerlösungen nicht auf die Verarbeitung von so großen Datenströmen und einer so hohen Anzahl von parallelen Sessions ausgelegt sind. So verfügt beispielsweise eine Firewall, die 10-Gigabit-Ethernet-Ports oder 40 Gigabit pro Sekunde aggregierten Durchsatz bietet, möglicherweise nicht während der gesamten Verarbeitung über die entsprechenden internen Pfade, um einen einzelnen Datenstrom mit 10 Gigabit pro Sekunde verarbeiten zu können.

LAN-Engpässe im „normalen“ unternehmensweiten Datenverkehr können die CPU oder Speicherressourcen der Netzwerk-Appliances weiter an ihre Grenzen bringen, wodurch große Datenströme deutlich verlangsamt oder schlicht nicht verarbeitet werden können.

Verarbeitung

Der zweite Punkt ist die Verarbeitung. Big Data-Ströme sind nicht symmetrisch – die eingehenden Rohdaten gehen nicht unbedingt in der gleichen Form und mit dem gleichen Volumen wieder heraus. Stattdessen werden die in den Storage-Arrays bereitgehaltenen Daten typischerweise von dazwischen liegenden Servern analysiert, dann weiter reduziert und – oftmals von Webserver-Front-Ends – als ein reduzierter Satz an Informationen geliefert, bevor sie das Datenzentrum verlassen.

Das bedeutet eine höhere Bandbreite mit einem zunehmenden Anteil an lateralem (Ost-West) Verkehr innerhalb des Datenzentrums anstelle eines „Nord-Süd“-Verkehrs, der in das Internet oder anderweitig weiterfließt. Viele Studien zeigen, dass lateraler-Verkehr inzwischen bis zu 70 Prozent des Datenverkehrs im Rechenzentrum ausmacht, wobei sich dieser Trend mit einer steigenden Menge an Big-Data-Analysen weiter fortsetzen wird.

Der laterale Verkehr muss segmentiert und überprüft werden, nicht nur um sogenannte Advanced Persistent Threats und Insiderattacken zu blockieren, sondern um die Daten selbst zu sichern. Dabei handelt es sich zum Teil um sensible Informationen, die vor einer Offenlegung geschützt werden müssen. Die Netzwerksicherheitsarchitekturen müssen sich von einer Perimeter- oder Gatewaysicherheit in Richtung einer mehrstufigen Hybridarchitektur entwickeln, bei der mehr Ost-West-Datenverkehr durch die Einführung von Server-/Netzwerk-Virtualisierung und Cloud Computing virtualisiert und abstrahiert wird.

Zugriff

Schließlich geht es noch um den Zugriff. Zu Big Data gehört auch, dass Daten über lange Zeiträume archiviert werden. Dann ist zu klären, wer zu welchem Zweck auf welche Daten zugreifen darf. Oft geht es hier nicht nur um einen einzelnen Datensatz, sondern um mehrere Datenverzeichnisse, die kombiniert und zusammen analysiert werden können. Jeder Datensatz kann sensible oder vertrauliche Informationen enthalten und daher bestimmten Vorschriften oder internen Kontrollen unterliegen.

Darüber hinaus gibt es oft nicht nur eine Gruppe von Analysten oder Forschern, sondern viele Beteiligte, die im Laufe der Zeit verschiedene Erkenntnisse zu gewinnen versuchen. Ein gutes Beispiel ist ein großes Pharmaunternehmen, dessen Big-Data-Forschungsanstrengungen nicht nur den internen Mitarbeitern zur Verfügung stehen, sondern auch Auftragnehmern, Praktikanten und Gastforschern. Für jeden müsste ein gesonderter Analysebereich geschaffen und spezifische Berechtigungen für festgelegte Datensätze autorisiert und auditiert werden, sodass auf diese Datensätze zugegriffen und diese kombiniert werden können.

Netzwerksicherheit gründlich überdenken

In diesem Zusammenhang müssen IT-Abteilungen die Netzwerksicherheit gründlich überdenken anstatt schrittweise Maßnahmen zu ergreifen, um die sich weiter entwickelnden Sicherheitsanforderungen im Rechenzentrum zu erfüllen. In vielen Fällen wird die Struktur des Rechenzentrums selbst nicht nur aufgrund von Big Data, sondern auch für Cloud-Computing- und SaaS-Maßnahmen konsolidiert und revolutioniert. Als Teil dieser Umwandlung sollte die IT eine Architektur in Erwägung ziehen, die Folgendes bietet:

  • Hohe Performance: Große Datenvolumina werden mithilfe eines höheren Netzwerkdurchsatzes und mit Hochgeschwindigkeitsports (z. B. 40G/100G-Fabric) sowie hoher Portdichte unterstützt. Gleichzeitig muss die Infrastruktur skalierbar und flexibel sein, damit Unternehmen auf immer größer werdende Datensätze vorbereitet sind.
  • Sicherheit: Die Perimetersicherheit lässt sich mit verstärkter interner Segmentierung erhöhen, um den lateralen-Datenverkehr zu sichern und im Hinblick auf komplexe moderne sowie Insider-Bedrohungen zu überwachen.
  • Konsolidierung: Mehrere Sicherheitsfunktionen, von Kernfunktionalitäten wie Firewall/VPN, Anti-Malware und Intrusion Prevention bis hin zu Advanced Threat Protection sowie strenge Authentifizierungs- und Zugangskontrollen, sollten integriert werden.

SIEM und Log Management

Schließlich können es Unternehmen in Erwägung ziehen, Big Data selbst für eine erhöhte Sicherheit zu nutzen. Immer mehr Kontroll- und Überwachungspunkte werden im Netzwerk und im Rechenzentrum eingesetzt. Darüber hinaus können SIEM- (Sicherheitsinformations- und Ereignismanagement) und Log Management Tools die wachsende Menge an Sicherheitsprotokollen und Ereignisdaten erfassen. Folglich sind mehr Sicherheitsanalysen und Einblicke möglich, um nicht nur Big Data, sondern auch das Rechenzentrum als Ganzes zu schützen.

(ID:43120520)