In-Memory Computing Vollgas mit Flash-Speicher

Autor / Redakteur: Ute Gregorius / Nico Litzel |

In-Memory-Technologien bieten Unternehmen erstmals die Möglichkeit, Datenmengen in Big-Data-Dimensionen wirklich effizient zu nutzen. Für eine optimale Performance bei der Datenanalyse in Echtzeit kommt dem Speicherkonzept eine wesentliche Rolle zu, wie das Beispiel des neuen SQL Server 2014 von Microsoft verdeutlicht.

Anbieter zum Thema

Die Autorin: Ute Gregorius ist Sales Director DACH bei Fusion-io
Die Autorin: Ute Gregorius ist Sales Director DACH bei Fusion-io
(Bild: Fusion-io)

Unternehmen erfassen mit jedem Tag mehr Daten als je zuvor. Wurde 2010 erstmals die Zettabyte-Marke geknackt, rechnen die Analysten von IDC mit einem Volumen von mehr als 35 Zettabyte im Jahr 2020. Big Data ist also im breiten Markt angekommen.

Unternehmen, die davon profitieren wollen, stehen gleich vor mehreren Herausforderungen. Zum einen müssen sie Mittel und Wege finden, diese Daten effizient zu analysieren. Zum anderen spielt bei der riesigen Datenmenge auch die Geschwindigkeit eine große Rolle, also die schnelle Verfügbarkeit von Daten. Denn Verzögerungen werden sowohl auf Unternehmens- wie auf Anwenderseite immer weniger toleriert.

Ob der Zugriff auf Informationen und Analysen, das Streaming von Musik oder Videos oder Sofortlieferungen bei Online-Bestellungen – alles muss unmittelbar bereit stehen. In-Memory Computing wurde zwar genau zu diesem Zweck „erfunden“ – große Datenmengen in kürzester Zeit zugänglich und nutzbar zu machen. Aber erst die rasante Entwicklung der letzten ein bis zwei Jahre, gepaart mit technologischen Weiterentwicklungen auf Hardware- und Software-Seite, haben dazu geführt, das Konzept dem breiteren Markt zugänglich zu machen. Neben SAP und Oracle, die ihr Portfolio erst kürzlich erweitert haben, sind IBM und Microsoft die neuesten Player in Sachen In-Memory Computing.

Angebote für den Mittelstand

War In-Memory Computing bis dato „nur“ eine Lösung für Großunternehmen, gibt es mittlerweile auch Angebote für den Mittelstand. Ebenso wie viele Konzerne und Forschungseinrichtungen versprechen sich mittelständische Unternehmen von der Datenanalyse in Echtzeit neue Erkenntnisse und Wettbewerbsvorteile.

Unabhängig von den unterschiedlichen Spezifikationen sind die Vorteile schnell ersichtlich: Die Zugriffgeschwindigkeiten innerhalb des RAM sind erheblich schneller, sodass pro Sekunde deutlich mehr Transaktionen durchgeführt und Latenzzeiten wesentlich verringert werden können. Das Bereithalten ganzer Datenbanken in Terabyte-Dimensionen innerhalb des Arbeitsspeichers ist heute keine Utopie mehr. Ein Reporting ist mittlerweile in Stunden statt Tagen – manchmal sogar in wenigen Sekunden – durchgeführt.

(ID:42862937)