Eine Prozessorfamilie für die Echtzeit-Analyse von Daten

Der Monster-Chip – mit Xeon E7 v2 adressiert Intel Big Data

Seite: 2/4

Anbieter zum Thema

Big Data fördert das Intel-Geschäft

Joachim Ensle, Market Developer Manager bei der Intel GmbH, übernahm gestern die Vorstellung der jüngsten Xeopn-Generation in Deutschland. Seinen Ausführungen zufolge, hat Intel mit dieser den "Tic-Toc"-Rythmus durchbrochen. Denn die Recheninheiten sind sowohl schneller als auch mit mehr Speichervolumen als die Vorgänger versehen.
Joachim Ensle, Market Developer Manager bei der Intel GmbH, übernahm gestern die Vorstellung der jüngsten Xeopn-Generation in Deutschland. Seinen Ausführungen zufolge, hat Intel mit dieser den "Tic-Toc"-Rythmus durchbrochen. Denn die Recheninheiten sind sowohl schneller als auch mit mehr Speichervolumen als die Vorgänger versehen.
(Bild: Intel)
Laut Ensle bedient Intel damit nun endgültig den Markt für geschäftskritische Anforderungen. Darüber hinaus aber seien die Prozessoren insbesondere für Big-Data-Anwendungen und In-Memory-Computing geeignet. „Mit Hilfe von Big Data-Analysen lassen sich fundierte Entscheidungen treffen, die schließlich zu höheren Umsätzen und Gewinnen führen“, erläutert Ensle und verweist auf Marktanalysen, die das Marktpotenzial in diesem Umfeld beweisen.

So wachse der Markt für Big Data-Techniken und -Services bis 2017 jährlich um 27 Prozent und erreichen 32,4 Milliarden Dollar Umsatz. Motor für dieses Wachstum sei die immense Datenmenge, die von den vernetzten Geräten im Internet der Dinge erzeugt würden. Bis 2020 soll es aus bis zu 30 Milliarden Geräten bestehen.

Kein Wunder also, dass Big Data die Nummer 1 auf der CIO-Agenda ist, wie Gartner-Analysten ermitteln. Unternehmen versprechen sich von den Investitionen in Hochleistungstechnologien und Analyse-Lösungen etwa signifikante Einsparungen. So rechnet beispielsweise die IT-Organisation von Intel durch den Einsatz von Analyse-Lösungen bis 2016 mit Einsparungen und Gewinnen in Höhe von fast 500 Millionen Dollar.

In-Memory-Computing

Ein Spezialfall unter den Big-Data-Anwendungen ist der Einsatz von In-Memory-Datenbanken, wie "HANA" von SAP. Die dreifache Speicherkapazität der E7-V2-Generation erlaubt vielen Unternehmen ihre gesamte Kunden-Datenbank in den Speicher zu laden und zu analysieren. Vergleiche von früher 16 Stunden, die dafür notwendig waren, und jetzt eine Minute stehen im Raum. In-Memory gilt als 148 mal schneller als Disk-basierte Datenbankauswertungen.

Bildergalerie
Bildergalerie mit 7 Bildern

In-Memory-Datenbanken platzieren und analysieren die Daten direkt im schnellen Arbeitsspeicher und sparen damit die bisher nötigen Schreib- und Lesevorgänge aus den Festplatten der Datenbank-Systeme. Während 2012 rund zehn Prozent der mittleren und größeren Unternehmen In-Memory-Analyse einsetzten, sollen es den Marktforschern von Gartner zufolge bis 2015 schon 35 Prozent sein. Die Analysten rechnen damit, dass mindestens 50 Prozent der 2.000 weltgrößten Unternehmen In-Memory-Computing einsetzen werden, um stärker von ERP-Investitionen (Enterprise Resource Planning) zu profitieren.

Artikelfiles und Artikellinks

(ID:42540097)