Definition

Was ist RDBMS?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Mit einem Relational Database Management System (RDBMS) lassen sich relationale Datenbanken erstellen, pflegen und administrieren. Daten sind in strukturierten Tabellen abgelegt und stehen in eindeutigen Beziehungen zueinander. Um auf die Daten zuzugreifen, kommt in der Regel SQL (Structured Query Language) zum Einsatz.

Die Abkürzung RDBMS steht für Relational Database Management System, was im Deutschen relationales Datenbankmanagementsystem bedeutet. Mithilfe des RDBMS ist es möglich, relationale Datenbanken und die zugehörigen Daten zu erstellen, zu pflegen und zu administrieren. Es handelt sich um eine strukturierte Art der Datenspeicherung, bei der die Daten in eindeutigen Beziehungen zueinander stehen und in Tabellen gespeichert sind. Daten lassen sich in unterschiedlichen Konstellationen untereinander kombinieren und auswerten.

Für die Datenspeicherung ist es notwendig, die Daten in eine normalisierte Form zu bringen und komplexe Datenobjekte so zu zerlegen, dass sie in Reihen und Spalten einer Tabelle unterzubringen sind. Der Zugriff auf die Daten erfolgt über die Beziehungen untereinander. Hierfür verwenden die meisten derzeit verfügbaren relationalen Datenbankmanagementsysteme die Sprache SQL (Structured Query Language). Mit ihr sind Abfragen aus großen Datenbeständen nach bestimmten Selektionskriterien binnen kurzer Zeit ausführbar. Bekannte RDBMS sind beispielsweise Oracle, Ingres, Sybase, IBM mit DB2 und Microsofts SQL Server. Da relationale Datenbanken nur begrenzt skalieren, haben sie bei großen Datenmengen, wie sie im Big-Data-Umfeld vorkommen, nur eingeschränkte Bedeutung. Erstmals vorgeschlagen wurden die Grundprinzipien des relationalen Datenbankmodells von Edgar F. Codd im Jahr 1970.

Das Grundprinzip relationaler Datenbanken

Grundlage der relationalen Datenbanken bildet die mathematisch definierte Relation. Für SQL stellt die relationale Algebra die theoretischen Grundlagen zur Verfügung. Sämtliche Daten einer relationalen Datenbank sind in Tabellen gespeichert, die untereinander in genau definierten Beziehungen stehen. Tabellen wiederum bestehen aus Zeilen und Spalten. Für die Zeile wird oft auch der Begriff Tupel verwendet. Die Spalten einer Tabelle sind die Attribute. Jedes Attribut in einer Tabelle kann einen definierten Bereich von Werten annehmen. In der Zeile (Tupel) sind die Attributwerte abgelegt. Über ein Relationsschema einer Tabelle können der Typ und die Anzahl der Attribute festgelegt werden.

Innerhalb einer relationalen Datenbank muss jeder Datensatz eindeutig zu identifizieren sein. Dies erfolgt über so genannte Schlüssel. Sie dürfen sich in einer eindeutigen Datenbank nicht verändern. Sämtliche Daten sind konsistent und redundanzfrei abzulegen. Deshalb dürfen die Daten jeweils nur einmal in der Datenbank gespeichert sein. Die Datensätze werden daher auf verschiedene Tabellen verteilt und untereinander verknüpft, wodurch die sogenannte Normalform der Daten entsteht. Unter Normalisierung der Daten versteht man folglich das Verteilen der Attribute in verschiedene Tabellen unter der Beachtung der Normalisierungsregeln. Nach der Normalisierung sind in einer relationalen Datenbank keine vermeidbaren Redundanzen mehr enthalten. Die Daten sind in sich konsistent. Die Normalisierung vermeidet Inkonsistenzen, beseitigt Redundanzen und schafft eine eindeutige Strukturierung. So genannte Primärschlüssel und Fremdschlüssel spielen für die Eindeutigkeit der Daten eine wichtige Rolle.

Die Vorteile des RDBMS

Ein RDBMS bietet zahlreiche Vorteile. Zu diesen Vorteilen zählen:

  • Bewährtes, ausgereiftes und zuverlässiges System zur Datenspeicherung,
  • gute Strukturierung der Daten,
  • redundanzfreie und konsistente Datenspeicherung,
  • komplexe Abfragen des Datenbestands nach verschiedensten Kriterien möglich,
  • standardisierte Abfragesprache SQL vorhanden und es ist eine
  • saubere Trennung zwischen Anwendungen und der Datenspeicherung möglich.

Grenzen und Nachteile des RDBMS

Ein gravierender Nachteil relationaler Datenbankmanagementsysteme ist, dass diese nur begrenzt skalierbar sind. Sie zeigen Schwächen, wenn es darum geht, große unstrukturierte Datenmengen zu speichern und performant abzufragen oder zu verarbeiten. Unstrukturierte Daten lassen sich zudem kaum im Schema einer relationalen Datenbank abbilden. Das macht relationale Datenbankmanagementsysteme weniger geeignet für Anwendungen im Big-Data-Umfeld. Hier werden häufig nicht-relationale Datenbanken (sogenannte NoSQL-Datenbanken) verwendet. Sie bieten die Möglichkeit, fast beliebige Arten von Daten zu speichern und stellen hohe Verarbeitungsgeschwindigkeiten zur Verfügung.

SQL als Datenbanksprache des RDBMS

SQL ist bei den meisten relationalen Datenbankmanagementsystemen die Datenbanksprache, um Datenstrukturen zu definieren und Daten in einer relationalen Datenbank einzufügen, zu verändern, abzufragen oder zu löschen. SQL basiert auf der relationalen Algebra und verwendet eine recht einfache und schnell zu erlernende Syntax, die nur wenige Grundbefehle kennt. Von RDBMS zu RDBMS kann sich die Syntax von SQL jedoch unterscheiden. Es existieren zahlreiche unterschiedliche SQL-Dialekte, obwohl die Befehle der SQL-Sprache von verschiedenen Normungsgremien standardisiert sind. Sämtliche SQL-Befehle lassen sich in die drei grundlegenden Kategorien DML, DDL und DCL einteilen:

  • DCL (Data Control Language): SQL-Befehle zur Verwaltung von Rechten und zur Kontrolle von Transaktionen
  • DML (Data Manipulation Language): SQL-Befehle für das Manipulieren (Ändern, Einfügen, Löschen und Abfragen) der Daten
  • DDL (Data Definition Language): SQL-Befehle zur Definition von Datenbankschemata

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Warum Big Data und BI künftig verschmelzen

Kommentar von Mark Zimmermann, Infomotion

Warum Big Data und BI künftig verschmelzen

Alle Unternehmen sammeln mittlerweile Daten – aber die wenigsten verarbeiten sie effizient. Ein Grund dafür ist häufig die organisationsinterne Trennung von Business Intelligence und Big Data. Meist verarbeiten Unternehmen sie in jeweils unterschiedlichen Abteilungen: Der CIO ist für BI verantwortlich, der CDO für die innovativen Big-Data-Projekte. Doch genau hier gehen Effizienz und Synergien verloren. Künftig werden beide Bereiche immer stärker zur Data Science verschmelzen. lesen

IoT-Basics – die technische Basis von Big Data

Data Science

IoT-Basics – die technische Basis von Big Data

Big Data beinhaltet eine Reihe von IT-Techniken wie Cluster Computing und MapReduce sowie mathematisch-statistischer Verfahren (Data Mining, Machine Learning). Der Beitrag gibt einen Überblick über die relevanten Datenbankenkonzepte (Hadoop- und NoSQL-Datenbanken) und Programmiersprachen. lesen

Informationsmanagement in Zeiten von Big Data

Datenbank ist nicht gleich Datenbank

Informationsmanagement in Zeiten von Big Data

Eine der größten Herausforderungen unserer Zeit heißt Big Data: Unternehmen sehen sich mit riesigen Datenmengen konfrontiert, die gewinnbringend verarbeitet und analysiert werden sollen. Bislang kamen dafür hauptsächlich relationale Datenbankmanagementsysteme zum Einsatz. Immer populärer werden indes NoSQL-Varianten (not only SQL). lesen

So setzen Sie Big-Data-Projekte erfolgreich um

Kommentar von Stefano Marmonti, Marklogic

So setzen Sie Big-Data-Projekte erfolgreich um

Angesichts der weltweiten Informationsflut und der Unterschiedlichkeit der Daten tun sich viele Unternehmen mit einem erfolgreichen Data Management schwer – ganz zu schweigen davon, daraus einen Wettbewerbsvorteil zu gewinnen. lesen

Top 10 der Big Data Trends für das Jahr 2017

Kommentar von Lars Milde, Tableau

Top 10 der Big Data Trends für das Jahr 2017

2016 war ein herausragendes Jahr für Big Data. Immer mehr Organisationen speichern, verarbeiten und generieren Mehrwert aus Daten unterschiedlichster Form und Größe. Dieses Jahr werden Systeme, die große Mengen strukturierter und unstrukturierter Daten unterstützen, weiter expandieren. Der Markt wird Plattformen fordern, die den Hütern der Daten helfen, Big Data zu regulieren und zu sichern, während die Endnutzer diese Daten analysieren. lesen

Das Hybridmodell – eine zukunftsorientierte Lösung für BI?

Kommentar von Wahid Bayat, Adesso

Das Hybridmodell – eine zukunftsorientierte Lösung für BI?

Der Bedarf an neuen Zugriffsmethoden auf Daten, die auf Grundlage von Standard-Datenhalden wie relationalen Datenbanken nicht länger realisierbar sind, wächst. Dieser Artikel beschreibt die Grundlagen und Einsatzmöglichkeiten sogenannter Hybridmodelle, die als Kombination aus mehreren Datenbanktechnologien deren Vorteile vereinen. lesen

Immer mehr Anwender bauen auf Pentaho

Pentaho User Meeting 2016

Immer mehr Anwender bauen auf Pentaho

Das Pentaho User Meeting ist das zentrale Treffen für alle Pentaho-Anwender aus dem deutschsprachigen Raum. Mehr als 70 Teilnehmer und zwölf Referenten belegen, wie stark das Interesse an der flexiblen Business-Intelligence-Plattform ist: Pentaho ist modular aufgebaut und besitzt eine offene Architektur, die sich mit einer großen Anzahl von Schnittstellen einfach in bestehende IT-Landschaften eingliedern lässt. lesen

Neue Lösungen machen Hadoop unternehmensreif

Kommentar von Bernard Doering, Cloudera

Neue Lösungen machen Hadoop unternehmensreif

Mit Big Data lassen sich Daten analysieren, um daraus Neues zu lernen, Theorien mit Fakten zu untermauern oder neue Produkte und vor allem Dienstleistungen zu entwickeln. Analysen versprechen Erkenntnisse für klügere geschäftliche Entscheidungen, Wettbewerbsvorteile, bessere Kundenbeziehungen sowie ganz neue Produkte. Basis für jedes Big-Data-Projekt ist jedoch zuerst einmal das Handling der riesigen Datenmengen. lesen

So funktionieren Abfragen in Apache Cassandra

Cassandra- und NoSQL-Basics, Teil 3

So funktionieren Abfragen in Apache Cassandra

Die NoSQL-Datenbank Cassandra ist als skalierbares, ausfallsicheres System für den Umgang mit großen Datenmengen auf verteilten Systemen (Clustern) konzipiert. Im dritten Teil geht es um das Arbeiten mit Cassandra. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44957080 / Definitionen)