Suchen

In-Memory Computing Vollgas mit Flash-Speicher

Autor / Redakteur: Ute Gregorius / Nico Litzel

In-Memory-Technologien bieten Unternehmen erstmals die Möglichkeit, Datenmengen in Big-Data-Dimensionen wirklich effizient zu nutzen. Für eine optimale Performance bei der Datenanalyse in Echtzeit kommt dem Speicherkonzept eine wesentliche Rolle zu, wie das Beispiel des neuen SQL Server 2014 von Microsoft verdeutlicht.

Firmen zum Thema

Die Autorin: Ute Gregorius ist Sales Director DACH bei Fusion-io
Die Autorin: Ute Gregorius ist Sales Director DACH bei Fusion-io
(Bild: Fusion-io)

Unternehmen erfassen mit jedem Tag mehr Daten als je zuvor. Wurde 2010 erstmals die Zettabyte-Marke geknackt, rechnen die Analysten von IDC mit einem Volumen von mehr als 35 Zettabyte im Jahr 2020. Big Data ist also im breiten Markt angekommen.

Unternehmen, die davon profitieren wollen, stehen gleich vor mehreren Herausforderungen. Zum einen müssen sie Mittel und Wege finden, diese Daten effizient zu analysieren. Zum anderen spielt bei der riesigen Datenmenge auch die Geschwindigkeit eine große Rolle, also die schnelle Verfügbarkeit von Daten. Denn Verzögerungen werden sowohl auf Unternehmens- wie auf Anwenderseite immer weniger toleriert.

Bildergalerie

Ob der Zugriff auf Informationen und Analysen, das Streaming von Musik oder Videos oder Sofortlieferungen bei Online-Bestellungen – alles muss unmittelbar bereit stehen. In-Memory Computing wurde zwar genau zu diesem Zweck „erfunden“ – große Datenmengen in kürzester Zeit zugänglich und nutzbar zu machen. Aber erst die rasante Entwicklung der letzten ein bis zwei Jahre, gepaart mit technologischen Weiterentwicklungen auf Hardware- und Software-Seite, haben dazu geführt, das Konzept dem breiteren Markt zugänglich zu machen. Neben SAP und Oracle, die ihr Portfolio erst kürzlich erweitert haben, sind IBM und Microsoft die neuesten Player in Sachen In-Memory Computing.

Angebote für den Mittelstand

War In-Memory Computing bis dato „nur“ eine Lösung für Großunternehmen, gibt es mittlerweile auch Angebote für den Mittelstand. Ebenso wie viele Konzerne und Forschungseinrichtungen versprechen sich mittelständische Unternehmen von der Datenanalyse in Echtzeit neue Erkenntnisse und Wettbewerbsvorteile.

Unabhängig von den unterschiedlichen Spezifikationen sind die Vorteile schnell ersichtlich: Die Zugriffgeschwindigkeiten innerhalb des RAM sind erheblich schneller, sodass pro Sekunde deutlich mehr Transaktionen durchgeführt und Latenzzeiten wesentlich verringert werden können. Das Bereithalten ganzer Datenbanken in Terabyte-Dimensionen innerhalb des Arbeitsspeichers ist heute keine Utopie mehr. Ein Reporting ist mittlerweile in Stunden statt Tagen – manchmal sogar in wenigen Sekunden – durchgeführt.

Dass es trotz offensichtlichem Potenzial, einem öffentlichen Interesse am Thema und der Verfügbarkeit von In-Memory-Datenbanken eine gewisse Zeit bis zum Durchbrauch gebraucht hat, liegt nicht zuletzt auch an den komplexen Hardware-Anforderungen. Zuletzt hat auch Microsoft seinen SQL Server 2014 mit In-Memory-Funktionalitäten ausgestattet und unter anderem Online Transaction Processing (OLTP) integriert. OLTP ist eine In-Memory-Technik, die eine Leistungssteigerung ermöglicht (laut Microsoft um das bis zu 30-Fache), ohne dass Änderungen am Code oder an der Hardware vorgenommen werden müssen.

Das technische Hauptaugenmerk liegt unter anderem auf der Minimierung der Antwortzeit von Anfragen sowie auf einem möglichst hohen Durchsatz (Anzahl Transaktionen pro Zeiteinheit). Allerdings hängt die Effizienz von OLTP-Systemen – wie auch von In-Memory-Datenbanken im Allgemeinen – entscheidend von der Auswahl geeigneter Hardware ab.

Vor allem den verwendeten Speicherlösungen kommt eine große Bedeutung zu – sowohl was die Komplexität, aber auch die Kosten und die Leistungsfähigkeit der entsprechenden In-Memory-Lösung betrifft. In-Memory Computing ist auf Speichersubsysteme angewiesen, die durchgängig niedrige Latenzzeiten sowie größtmögliche Bandbreite liefern und dabei noch extrem zuverlässig sind, um ihre Möglichkeiten auszureizen. Und hier kommt die Flash-Speichertechnologie ins Spiel.

Flash sorgt für ultimative Beschleunigung

Verspricht OLTP bereits eine deutliche Leistungssteigerung, treibt der serverseitige Einsatz von Flash-Speichertechnologie wie der ioMemory-Speicherplattform von Fusion-io die Leistungsgrenzen von In-Memory-Datenbanken noch weiter voran: Tests haben gezeigt, dass sich zum Beispiel die Leistung von Microsoft SQL Server 2014 nochmals um das bis zu Vierfache steigern lässt.

Im Detail heißt das: über 52.000 Transaktionen pro Sekunde mit serverseitig eingesetztem Flash-Speicher – gegenüber 12.000 Transaktionen mit herkömmlichen Disk Arrays; 72 Sekunden in der Flash-Konfiguration, um beim Datenbankstart 120 Gigabyte in den DRAM zu laden, statt 222 Sekunden in der Standardkonfiguration. Auch die Wartezeiten pro Transaktion verringerten sich um 91 Prozent von 1.329 auf 117 Mikrosekunden.

Beim In-Memory Computing kann Flash-Speicher – direkt im Server implementiert – seine Vorteile voll ausspielen. Durch die Nähe zur CPU und dem nativem Datenaustausch lassen sich sämtliche I/O-Flaschenhälse und Engpässe umgehen, die auch beim Einsatz von herkömmlichen SSDs den Durchsatz und die Antwortzeiten und damit die Leistung von Anwendungen einschränken. So lassen sich etwa Transaktionen mit weniger Schritten durchführen, da der I/O-Zugriff ohne Umwege über alte Speicherprotokolle und RAID-Controller erfolgt.

Gerade in OLTP-Umgebungen spielt der direkte und schnelle Zugriff auf sämtliche Daten und Delta-Files eine zentrale Rolle und entscheidet darüber, ob die In-Memory Datenbank mit Vollgas oder mit angezogener Handbremse läuft. Mit herkömmlichen Speicherlösungen lässt sich das nur durch den (teuren) Ausbau der Infrastruktur bewerkstelligen.

Wie sich In-Memory-Investitionen lohnen

Schnelle Reaktionszeiten sind vor allem aus der Umsatzperspektive ein nicht zu unterschätzender Aspekt: So können bereits Verzögerungen von wenigen Sekunden einen negativen Einfluss auf den Umsatz haben: Bei einem Webshop, der täglich eine Million Euro umsetzt, kann sich der Verlust schnell auf bis zu 25 Millionen Euro summieren. Zu den weiteren Vorteilen, die die Kombination von In-Memory-OLTP-Technik und Flash bietet, zählen zudem eine größere Nutzerzahl beziehungsweise höhere Workloads pro Server.

Serverseitig eingesetzter Flash-Speicher ist also im Vergleich mit herkömmlichen Speicherlösungen eine einfache und kosteneffiziente Möglichkeit, jeder In-Memory-Lösung das Maximum an Leistung zu entlocken und einen schnellen Return-on-Investment zu sichern – und ganz nebenbei Daten-Analyse in Echtzeit und Predictive Analytics gewinnbringend für das Unternehmen einzusetzen.

(ID:42862937)