Nutzen, Einsatzgebiete und Herausforderungen von Big Data,Teil 2 OCZ und Toshiba haben die Infrastruktur für die Big-Data-Analyse
Fortschritte bei der Analyse von Big Data bringen alternative Möglichkeiten mit sich, um Entscheidungsprozesse für wichtige Entwicklungen, die unser jetziges und zukünftiges, tägliches Leben beeinflussen, zu verbessern. Ein kleines Dilemma stellt derzeit nur da, dass Big Data und Flash-Speicher auf der Verarbeitungsseite gut zusammen passen - auf der Kostenseite sieht es anders aus.
Anbieter zum Thema

In seinem Artikel „The Awesome Ways Big Data is used today to change our world“ präsentiert Bernard Marr eine Vielfalt von Einsatzmöglichkeiten für Big-Data-Analysen. Nachfolgend einige Ansatzpunkte wie sich der große Analyseprozess von vielen Seiten aus nutzbringend anwenden lässt.
Verstehen und ansprechen von Kunden: Big-Data-Analysen werden dazu verwendet, Kunden und deren Verhalten besser zu verstehen. Zudem lässt sich das Kaufverhalten analysieren. Kreative Modelle helfen bei Vorhersagen. Bei diesem Ansatz handelt es sich um die am weitesten verbreitete Methode, umfangreiche Datensätze gewinnbringend auszuwerten.
Verstehen und verbessern von Geschäftsprozessen: Big-Data-Analysen optimieren Geschäftsprozesse, wie z.B. die Überwachung von Lagerbeständen eines Versandhauses, basierend auf Vorhersagen. Durch die Verwendung von Verkehrsdaten in Echtzeit lassen sich Auslieferungsrouten direkter gestalten und Verzögerungen minimieren.
Optimierung und Quantifizierung individueller Leistung: Big-Data-Analysen optimieren und quantifizieren Personalanforderungen. Sie können Daten von tragbaren Geräten wie Smartwatches oder Armbändern zu sammeln und zu verarbeiten. Anhand der Analyseprozesse kann beispielsweise der tägliche Kalorienumsatz eines Trägers, dessen Bewegungsgrad, Schlafmuster und vieles mehr überwacht und/oder ermittelt werden. Darüber hinaus verwenden die meisten Dating-Webseiten Big Data-Analyse-Verfahren, um passende Partner zu evaluieren.
Verbesserung der Gesundheit und des Gesundheitswesens: Big-Data-Analysen können gesamte DNA-Stränge innerhalb weniger Minuten dekodieren und neue Heilmittel für bislang unheilbare Krankheiten erforschen. Auch diverse, mit Krankheiten im Zusammenhang stehende Muster können erkannt werden. Durch die Überwachung der Herz- und Atemfrequenzmustern eines frühgeborenen Babys, lassen sich physische Symptome vorhersagen und präventiv bekämpfen, bevor diese sich ausbilden. Aber auch Grippe-Epidemien können in Echtzeit überwacht werden.
Steigerung sportlicher Leistung: Setzt man auf Video-Aufnahmen, lässt sich mittels Big-Data-Analysen die Leistung von Athleten verfolgen. Das hilft dabei Trends aufzuzeigen und die Konstanz zu fördern. Sensoren in Ausstattungsgegenständen von Sportlern (Bällen, Golfschlägern, Tennisschlägern, …) bieten eine zusätzliche Dimension hinsichtlich Optimierungsprozessen. Viele der besten Sportteams weltweit verwenden Big Data-Analysen, um beispielsweise die Ernährung zu überwachen.
Verbesserung von Wissenschaft und Forschung: Beim bereits angesprochenen ‚Large-Hadron-Collider-Projekt‘ werden Big-Data-Analysen verwendet, um Wissenschaft und Forschung zu verbessern. Am CERN-Labor für Nuklearphysik in der Schweiz werden zur Analyse von Big Data 65.000 Prozessoren in Rechenzentren verwendet, um 30 Petabyte an gespeicherten Daten zu analysieren. Diese befinden sich auf tausenden unterschiedlichen Computern, an weltweit 150 verschiedenen Orten. Ein weiteres Anwendungsbeispiel beschäftigt sich mit der Analyse von seismischen Daten, die anschließend dazu führen, einen geeigneten Ort für Öl- oder Gasförderung zu entdecken.
Optimierung der Leistung von Maschinen und Geräten: Maschinen und Geräte werden derzeit immer intelligenter und operieren vermehrt unabhängig von Big Data-Analysen. Beispielsweise kann Googles selbstfahrender Toyota Prius so sicher wie ein Mensch navigieren, Dank Kamera, GPS und ComputerVerbesserung der Sicherheit: Die „National Security Agency“ (NSA) verwendet Big Data-Analysen um Cyber-Attacken aufzuspüren und terroristische Aktivitäten aufzudecken, bevor diese überhaupt stattfinden können. Anhand dieser Tools lassen sich kriminelle Aktivitäten nicht nur vorhersagen, sondern Kriminelle können anhand derartiger Daten auch gefasst werden. Kreditkartenunternehmen setzen bei der Bekämpfung von Betrug auf Big Data-Analysen.
Verbesserung und Optimierung von Städten und Ländern: Die Optimierung des Verkehrsflusses ist ein gutes Beispiel dafür, wie Städte von Big Data-Analysen profitieren. Basierend auf Echtzeit-, Verkehrs- und Wetterdaten und anhand von Posts in sozialen Netzwerken, lassen sich dahingehend Muster erkennen. Durch die Vernetzung öffentlicher Infrastruktur, kann die Verspätung eines Busses z.B. dazu führen, dass der Zug später losfährt.
Optimierung von Finanztransaktionen: Der Großteil aller Aktienhandel wird basierend auf Big Data-Analysen durchgeführt, die soziale Netzwerke und News-Webseiten überwachen, sodass informierte Kaufs- oder Verkaufsentscheidungen gefällt werden können.
Diese Kategorien zeigen Anwendungsgebiete, in denen Big Data-Analysen bereits heute eingesetzt werden. Den möglichen Anwendungsszenarien von Big Data-Analysen setzt derzeit höchstens die menschliche Vorstellungskraft Grenzen, sodass noch viel Potenzial ungenutzt ist und abgeschöpft werden kann.
Vorteile von SSDs für Big Data
Big-Data-Anwendungen verursachen gemischte Lasten, mit gleichermaßen Schreib- und Leseprozessen. Voraussetzung für bestmögliche Leistung sind Speichersysteme mit geringen Latenzzeiten und hoher IOPS-Leistung. Enterprise-SSDs sind hier wesentlich besser geeignet als herkömmliche Festplatten.
Um Big Data gewinnbringend zu verarbeiten und die Rentabilität (ROI) zu maximieren, suchen IT-Abteilungen in Unternehmen derzeit nach alternativen Wegen die umfangreichen Datensätze zu analysieren und zu verarbeiten. Big Data stellt Unternehmen und IT-Infrastrukturen von heute vor große Herausforderungen, da die damit verbundenen Anwendungen eine ultra-schnelle Datenverarbeitung erfordern.
Big Data-Anwendungen verursachen gemischte Lastmuster, wobei Lese- und Schreibprozesse simultan ausgeführt werden. Das erfordert wiederum eine hohe IOPS-Leistung (Input/Output-Operationen pro Sekunde) und minimale Latenzzeiten. Derartige Zugriffsmuster können von herkömmlichen Festplatten nur ineffizient verarbeitet werden.
Setzt man aber auf Enterprise Solid State Drives (SSDs), erhält man einen leistungsfähigen Speicher, dem diese Anforderungen auf den Leib geschnitten sind. Herkömmliche Festplatten sind schlicht und ergreifend nicht in der Lage, mit den Anforderungen von Big Data-Anwendungen Schritt zu halten.
Wartezeiten würden erheblich stören
Während bereits ein einfacher Server Hunderttausende IOPS verarbeiten könnte, vermag eine einzelne Festplatte lediglich zwischen 100 und 300 IOPS zu liefern. Hier sieht man klar das Leistungsungleichgewicht. Immer wenn eine Festplatte Daten liefern muss, wird der Schreib/Lesekopf physisch bewegt, wodurch die Zugriffszeit mechanisch begrenzt wird.
Festplatten können konstante Datenströme effizient verarbeiten, also sequenzielle Schreib- und Leseprozesse bei ansprechenden Geschwindigkeiten bewältigen. Moderne Betriebssysteme können dank Mehrprozessorarchitekturen, zufällig anfallende Daten schnell verarbeiten. Herkömmliche Festplatten sind dieser Entwicklung nicht gewachsen.
Im direkten Vergleich mit Festplatten sind die Nand-Flash-Zellen von SSDs wesentlich dichter gepackt. Zudem kommen auch keine rotierenden Platter oder Magnetköpfe zum Einsatz, die Daten mechanisch lesen und schreiben. Es gibt lediglich einen Controller, der über den Verbleib von Daten stets informiert ist. Daraus ergibt sich eine gesteigerte Schreib- und Leseleistung.
Da keine beweglichen Teile verwendet werden, sinkt auch die Ausfallwahrscheinlichkeit, die I/O-Leistung steigt drastisch und die Latenzzeiten sinken erheblich. Flash-basierte SSDs erfreuen sich im Big Data-Umfeld wachsender Beliebtheit, da sie gegenüber Festplatten eine stark gesteigerte IOPS-Leistung bieten. Darüber hinaus unterstützen die Laufwerke auch hohe Kapazitäten, brauchen weniger Strom und sind mit diversen Formfaktoren sowie Schnittstellen verfügbar.
Zusammenfassung
Vertraut man auf Vorhersagen führender Marktforschungsinstitute, welche die Entwicklungen in der Speicherindustrie verfolgen, wird das Marktvolumen von Big Data in den kommenden fünf Jahren um mehrere Milliarden US-Dollar anwachsen. Big Data setzt auf eine neue Generation von Techniken und Architekturen, die darauf ausgelegt sind, umfangreiche Datensätze gewinnbringend zu extrahieren.
SSD-Techniken wie die von OCZ erfreuen sich bereits einer breiten Akzeptanz, da sie den Anforderungen von Big-Data-Anwendungen gewachsen sind und die notwendige I/O-Leistung bieten, die herkömmliche Festplatten schlicht überfordert. Zudem sind die Laufwerke mit unterschiedlichen Formfaktoren und Schnittstellen erhältlich.
Ein weiteres Plus: sie konsumieren weniger Strom. Big Data macht eine ultra-schnelle Datenverarbeitung erforderlich, die datengetriebene Analysen beschleunigt. Durch das Vorkommen von strukturierten als auch unstrukturierten Daten, die zu groß sind, sich zu schnell bewegen oder aktuelle Verarbeitungskapazitäten überfordern, profitieren Anwendungen von Werkzeugen zur Überwachung von Datenaktivitäten und Flash-Ressourcen.
(ID:43541214)