Definition

Was ist Amazon Redshift?

| Autor / Redakteur: Tutanch / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Amazon Redshift ist ein schnelles und skalierbares Data Warehouse als Serviceleistung aus der Cloud, ausgelegt für große Datenmengen bis in den Petabyte-Bereich. Die typischen Verwaltungsaufgaben des Data Warehouses leistet der Anbieter Amazon automatisiert. Business Intelligence Tools und SQL-Clients können sich mit Amazon Redshift verbinden.

Amazon Redshift ist ein Data Warehouse Service aus der Cloud. Das Data Warehouse kann Datenmengen bis in den Petabyte-Bereich aufnehmen und wird von Amazon auf einer Cloud-Infrastruktur bereitgestellt. Amazon Redshift zeichnet sich durch seine hohe Geschwindigkeit und gute Skalierbarkeit aus, durch die sich die Verarbeitung und Auswertung großer Datenmengen beschleunigen lassen. Abfragen sind unter anderem SQL-basiert möglich. Es stehen zudem ODBC- und JDBC-Schnittstellen zur Verfügung, mit denen sich Business Intelligence Tools mit dem Data Warehouse verbinden können.

Die hohen Abfragegeschwindigkeiten erreicht Amazon Redshift durch die physische Verteilung der Ressourcen auf eine Clusterstruktur und die Parallelisierung der Verarbeitung. Die typischen Verwaltungsaufgaben des Data Warehouses wie das Sichern von Clustern, das Einspielen von Patches und Updates, der Betrieb, die Überwachung, die Bereitstellung von Kapazitäten und das Provisioning leistet der Amazon automatisiert. Das erste Release von Amazon Redshift erschien im Jahr 2012 und basierte auf einer älteren Version von PostgreSQL 8.0.2. Eine erste offizielle Version wurde im Jahr 2013 freigegeben.

Die Clusterstruktur von Amazon Redshift

Amazon Redshift basiert auf einer Clusterstruktur. Der Service ist sowohl als Single-Node Cluster mit einem einzigen Server für kleinere Datenmengen als auch als Multi-Node Cluster mit vielen Servern für große Datenmengen betreibbar. Ein Multi-Node Cluster besteht mindestens aus drei Nodes, einem Leader-Node und zwei Compute-Nodes. Die Aufgaben des Leader-Nodes sind die Verwaltung der Verbindungen und Anfragen, die Bereitstellung der Ausführungspläne und das Parsen der Anfragen. Die eigentliche Ausführung der Berechnungen und Anfragen findet auf den Compute-Nodes statt. Einzelne Compute-Nodes haben Speicherkapazitäten von zwei oder 16 Terabyte. Die maximale Speicherkapazität eines Clusters beträgt bis zu 1,6 Petabyte. Untereinander sind die Nodes über ein leistungsfähiges 10-Gigabit/s-Backbone verbunden.

Gegenüberstellung von herkömmlichen Data Warehouses und Amazon Redshift

Zwischen herkömmlichen Data Warehouses und Amazon Redshift existieren gravierende Unterschiede. Bei herkömmlichen Data Warehouses bestehen ein hoher Zeit- und Ressourcenaufwand für Verwaltungstätigkeiten. Amazon Redshift ist als Cloud-Service voll verwaltet und erfordert in dieser Hinsicht wenig Ressourcen. Aufgrund der Clusterstruktur und der Parallelisierung von Anfragen erzielt Amazon Redshift im Vergleich zu einem selbst verwalteten Data Warehouse große Verarbeitungsgeschwindigkeiten. Eigene Server, Netzwerkinfrastruktur oder Software sind nicht erforderlich. Für die Bereitstellung des Services sind keine Investitionen zu tätigen.

Die Abrechnung von Amazon Redshift erfolgt nutzungsbezogen. Laut Amazon erzielt Amazon Redshift eine bis zu zehnfach höhere Leistung im Vergleich zu herkömmlichen Datenbanken für Data Warehouses. Während herkömmliche Lösungen oft ihre Daten zeilenbasiert speichern, arbeitet Amazon Redshift spaltenbasiert, was die Abfrageleistung stark verbessert und stärkere Komprimierungsmöglichkeiten bietet.

Die automatisierten Verwaltungsleistungen von Amazon Redshift

Ein wesentliches Merkmal von Amazon Redshift ist die integrierte automatische Verwaltung sämtlicher Aufgaben zum Betreiben, Einrichten, Skalieren und Sichern des Services. Die verwalteten Leistungen reichen von der Bereitstellung der Infrastruktur für die Datenverarbeitung über die Sicherung des Services bis zum Einspielen von Patches oder Updates. Sämtliche Nodes sind automatisch überwacht. Nach Ausfällen sorgt Amazon für die komplette Wiederherstellung der Services. Weitere Managementleistungen sind das Loadbalancing und die Planung der Ausführung von Abfragen.

Vorteile beim Einsatz von Amazon Redshift

Durch den Einsatz von Amazon Redshift als Data Warehouse Service aus der Cloud bieten sich zahlreiche Vorteile. Amazon stellt ein skalierbares, sehr performantes Data Warehouse zur Verfügung, das sich für riesige Datenmengen eignet. Dadurch lassen sich die Kosten und der Aufwand für umfangreiche Analysen von Daten reduzieren. Die Einrichtung des Data Warehouses ist schnell erledigt und erfordert keine Investitionen in Hard- oder Software. Die Abrechnung des Services erfolgt nutzungsabhängig.

Durch die Verwendung einer optimierten Hardware, intelligentes Caching und eine parallelisierte Architektur erzielt Amazon Redshift einen hohen Durchsatz und niedrige Reaktionszeiten. Fast alle Verwaltungsaufgaben sind automatisiert und verursachen keinen zusätzlichen Aufwand. Datenbanken lassen sich mit verschiedenen Kryptografieverfahren verschlüsseln und bieten eine hohe Sicherheit. Dadurch ist Amazon Redshift für kritische Anwendungen aus den Bereichen des Finanzwesens, des Gesundheitswesens oder für staatliche Institutionen einsetzbar. Die Cluster des Data Warehouses sind per Amazon Virtual Private Cloud (VPC) isolierbar.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Information Builders ist AWS-Partner

BI-Anwendungen in der Cloud

Information Builders ist AWS-Partner

Ab sofort sind die Business-Intelligence- (BI), Analytics- und Datenmanagement-Lösungen von Information Builders auch Cloud-basiert über die Amazon Web Services (AWS) verfügbar. lesen

Tibco aktualisiert BI-Flaggschiff Spotfire

Nachbericht Tibco Now 2018

Tibco aktualisiert BI-Flaggschiff Spotfire

Tibco Software, ein Spezialist für Daten- und Prozessintegration sowie von Big Data Analytics, hat auf seiner internationalen Anwenderkonferenz Tibco Now in Las Vegas zahlreiche Neuheiten für seine Flaggschiffprodukte präsentiert. Zudem vertieft der Pionier des Informationsbusses seine Kooperation mit Partnern wie AWS und treibt seine IoT-Angebote voran. lesen

Ein erster Blick auf Amazon QuickSight

Business Intelligence aus der Cloud

Ein erster Blick auf Amazon QuickSight

Self-Service BI ist schon seit Jahren der wichtigste Trend im Bereich Business Intelligence. Mitarbeiter in Fachbereichen erstellen Ad-hoc-Abfragen und analysieren Leistungsdaten. Mit QuickSight macht Amazon nun bekannten Cloud-Angeboten wie Qlik, Tableau, Microsoft PowerBI und SAP Lumira Konkurrenz. lesen

OSISoft und AWS kooperieren

Analyse von Industriedaten

OSISoft und AWS kooperieren

OSIsoft gibt die Zusammenarbeit mit Amazon Web Services (AWS) bekannt. Dienste und Funktionen werden entwickelt, die es Kunden leichter machen sollen, komplexe Analysen an großen Mengen von Industriedaten aus dem PI-System von OSIsoft durchzuführen und so die OT-IT-Lücke zu schließen. lesen

Datameer setzt künftig zuerst auf die Cloud

Elastic Big Data Preparation and Exploration

Datameer setzt künftig zuerst auf die Cloud

Mit dem neuen Release seiner Plattform vollzieht Datameer den Schritt zum Lösungsanbieter mit Cloud-Fokus. Die aktuelle Version ist über Amazon Web Services (AWS) verfügbar und setzt verstärkt auf den bedarfsgerechten Einsatz von Ressourcen. lesen

Das Virtual Data Warehouse verhilft zur schnelleren digitalen Transformation

Big Data und Virtual Data Warehouse

Das Virtual Data Warehouse verhilft zur schnelleren digitalen Transformation

Das traditionelle Data Warehouse ist auf die Verarbeitung strukturierter Daten ausgelegt, welche es effizient und performant erledigt. Doch Big Data besteht aus unstrukturierten Daten, Datenströmen, die in großen Mengen und mit hoher Geschwindigkeit eintreffen. Um Leistung und Effizienz zu erhalten, aber Flexibilität hinzuzugewinnen, bietet das Virtual Data Warehouse eine vielversprechende Alternative. lesen

SAS stellt Machine Learning und visuelle Analytik in den Vordergrund

Nachbericht SAS Forum 2017

SAS stellt Machine Learning und visuelle Analytik in den Vordergrund

Auf seiner Anwenderkonferenz „SAS Forum Deutschland 2017“ in Bonn stellte der US-amerikanische Analytics-Spezialist seine junge Self-Service-Analyse-Plattform SAS Viya in der Version 3.2 vor. Sie ist auf moderne Technologien und Einsatzszenarien ausgerichtet. Angebote für IoT-basiertes Edge Computing, Betrugsermittlung und Analytics-as-a-Service ergänzen die Neuerungen. lesen

DataVirtuality launcht Cloud-Service für Datenintegration

Data Warehouses per Pipes füllen

DataVirtuality launcht Cloud-Service für Datenintegration

Mit Pipes hat DataVirtuality einen neuen Cloud-Service gestartet. Der Dienst ermöglicht den unkomplizierten Transfer von Daten aus Datenbanken und Cloud-Services in ein Data Warehouse. lesen

Top 10 der Business Intelligence Trends für das Jahr 2017

Kommentar von Lars Milde, Tableau

Top 10 der Business Intelligence Trends für das Jahr 2017

2016 lagen Self-Service-Analysen im Trend. Viele Unternehmen führten den modernen Business-Analytics-Ansatz ein, bei dem IT und Geschäftsbetrieb zusammenarbeiten, um die eigenen Daten optimal zu nutzen. Die IT begann, skalierbare und ausbaufähige Technologien zu nutzen, Geschäftsanwender teilten ihre Daten und arbeiteten gemeinsam daran. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45587172 / Definitionen)