Definition

Was ist eine relationale Datenbank?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Relationale Datenbanken ist das am weitesten verbreitete Datenbankmodell. Es setzt auf das relationale Datenbankmodell, das auf der Speicherung von Informationen in verschiedenen Tabellen basiert, die untereinander über Beziehungen (Relationen) verknüpft sind.

Eine relationale Datenbank wird für die Speicherung und Bearbeitung von Daten durch Computersysteme verwendet. Sie beruht auf dem relationalen Datenbankmodell und speichert Daten in verschiedenen Tabellen, die untereinander in Beziehung stehen. Das relationale Datenbankmodell wurde erstmals im Jahr 1970 von Edgar F. Codd beim Softwareunternehmen IBM vorgestellt. Bis heute sind relationale Datenbanken ein etablierter Standard und sehr weit verbreitet. Im Umfeld von Big-Data-Anwendungen und der Notwendigkeit der Speicherung und Verarbeitung besonders großer Datenmengen haben relationale Datenbanken aufgrund einiger Einschränkungen stark an Bedeutung verloren.

Das den relationalen Datenbanken zugehörige Datenbankmanagementsystem nennt sich RDBMS (Relational Database Management System). Um Daten in relationalen Datenbanken zu manipulieren oder Abfragen durchzuführen, kommt die Datenbanksprache SQL (Structured Query Language) zum Einsatz. Die theoretische Grundlage von SQL ist die relationale Algebra. Als Basis relationaler Datenbankmodelle dienen neben der relationalen Algebra die Elemente Tabellen, Attribute und Beziehungen. Relationale Datenbanken lassen sich sehr einfach erstellen und sind flexibel einsetzbar.

Grundlagen und Grundbegriffe relationaler Datenbanken

Um das Funktionsprinzip relationaler Datenbanken zu verstehen und mit ihnen zu arbeiten, müssen zunächst die grundlegenden Begriffe dieses Datenbankmodells bekannt sein. Die Daten werden in mehreren Tabellen gespeichert, die wiederum aus Spalten und Zeilen bestehen. Ein anderer Begriff für Zeile ist Tupel. Die Spalten der Tabelle werden als Attribute bezeichnet. Jedes Attribut der Tabelle kann einen definierten Wertebereich annehmen. In jedem Tupel sind je nach Anzahl der Spalten bestimmte Attributwerte gespeichert. Ein so genanntes Relationsschema legt die Anzahl und den Typ der Attribute einer Tabelle fest. Jeder Datensatz in einer relationalen Datenbank muss eindeutig identifizierbar sein. Hierfür sind ein oder mehrere Schlüssel definiert. Schlüssel dürfen sich in einer konsistenten Datenbank nicht ändern und beziehen sich immer auf Datensätze.

Die Normalisierung von relationalen Datenbanken

Ein Grundprinzip relationaler Datenbanken ist, dass diese stets konsistent und redundanzfrei sein müssen. Hierfür ist es notwendig, jeden Datensatz eindeutig zu identifizieren sowie alle Daten jeweils nur einmal in der Datenbank zu erfassen und zu speichern. Realisiert wird dies, indem die Datensätze auf verschiedene Tabellen verteilt und untereinander verknüpft werden. Es entstehen so genannte Normalformen der Daten. Der Vorgang nennt sich Normalisierung. Man versteht darunter die Verteilung der Attribute in mehrere Tabellen (Relationen) unter Beachtung der Normalisierungsregeln. Ist eine relationale Datenbank normalisiert, enthält sie keine vermeidbaren Redundanzen mehr und ist konsistent. Zusammengefasst sind die Ziele der Normalisierung von Datenbanken:

  • Eindeutige Strukturierung der Datenbank,
  • Beseitigung von Redundanzen sowie
  • Vermeidung von Inkonsistenzen.

Eine wichtige Rolle für die Eindeutigkeit innerhalb einer relationalen Datenbank spielen die sogenannten Schlüssel. Es kommen hierfür Primärschlüssel und Fremdschlüssel zum Einsatz.

Die Datenbanksprache SQL für relationale Datenbanken

Als Datenbanksprache für die Definition der Datenstruktur und zum Einfügen, Verändern, Löschen und Abfragen von Daten einer relationalen Datenbank dient SQL (Structured Query Language). Wie eingangs erwähnt, basiert SQL auf der relationalen Algebra. Die Sprache besitzt eine relativ einfache Syntax mit wenigen Grundbefehlen. Fast alle relationalen Datenbanken unterstützen den Einsatz von SQL. Die Syntax und der Umfang der Unterstützung können sich jedoch von Datenbank zu Datenbank unterscheiden. Die Befehle der Sprache SQL sind durch verschiedene Gremien normiert und standardisiert. Grundsätzlich lassen sich alle SQL-Befehle in drei verschiedene Kategorien einteilen. Diese drei Kategorien sind:

  • SQL-Befehle für das Ändern, Einfügen, Löschen und Abfragen von Daten (DML)
  • SQL-Befehle für die Definition von Datenbankschemas (DDL)
  • SQL-Befehle für die Verwaltung von Rechten und die Kontrolle von Transaktionen (DCL)

Probleme relationaler Datenbanken im Big-Data-Umfeld

Relationale Datenbanken lassen sich nicht beliebig skalieren und zeigen Schwächen, wenn es darum geht, besonders große Datenmengen zu speichern und sie schnell zu verarbeiten oder abzufragen. Zudem ist es kaum möglich, unstrukturierte Daten wie Bilder und Dokumente oder nicht relational abbildbare Daten in diesen Datenbanken zu speichern. Aus diesen Gründen sind relationale Datenbanken im Big-Data-Umfeld eher selten zu finden. Haben die Daten keine relationale Struktur und sind riesige Datenmengen vorhanden, kommen so genannte NoSQL-Datenbanken (nicht-relationale Datenbanken) zum Einsatz. Geht es jedoch um die Abbildung fester Strukturen und die eindeutige Verknüpfung von Daten untereinander, sind relationale Datenbanken nach wie vor die passende Wahl. Der Vorteil der NoSQL-Datenbanken liegt in ihrer hohen Verarbeitungsgeschwindigkeit und der Fähigkeit, fast beliebige Arten von Daten speichern zu können.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Neue Datenbanken braucht das Land

Kommentar von Bruno Šimić, Couchbase

Neue Datenbanken braucht das Land

Die Geschäftswelt ändert sich schneller als je zuvor. Treiber dafür sind die immer größer werdenden Datenbanken der Firmen. Kunden konsumieren immer mehr Daten, weil sie mit immer mehr mobillen und IoT-Geräten Informationen nutzen. Um diese Herausforderungen zu bewältigen, werden verteilte Cloud- und Big-Data-Technologien benötigt. lesen

Die vier Mythen des Datenmanagements im Internet der Dinge

Kommentar von Christian Lutz, Crate.io

Die vier Mythen des Datenmanagements im Internet der Dinge

Intelligente Systeme im Internet of Things haben einen großen Appetit auf Daten. Pipelines von Sensordaten – oft Millionen von Messwerten pro Minute und Dutzende von Nachrichtenformaten– müssen in Echtzeit integriert und analysiert werden, um das Verhalten von „Dingen“ zu überwachen, vorherzusagen oder zu kontrollieren. Nur so können Unternehmen Korrekturen etwa bei Störungen in der Fertigung vornehmen, um Produktionsausfälle oder Ausschuss zu vermeiden. lesen

Datenaufbereitung ist ein unterschätzter Prozess

Data Preparation

Datenaufbereitung ist ein unterschätzter Prozess

Der Prozess der Datenaufbereitung umfasst die Reinigung, Formung und Mischung von Daten, damit sie für analytische und andere Aufgaben in optimaler Qualität bereitstehen. Nur mit erstklassigen Daten lassen sich beispielsweise Lösungen für Machine Learning und Künstliche Intelligenz effizient, sicher und zuverlässig versorgen. lesen

Warum Self-Service Analytics nur eingeschränkt zu empfehlen ist

Kommentar von Merten Slominsky, MicroStrategy

Warum Self-Service Analytics nur eingeschränkt zu empfehlen ist

Wann haben Sie zuletzt Beethovens 9. Sinfonie selbst gespielt? Gar nicht? Die Frage mag irritieren, ist aber leicht zu beantworten. Wer klassische Musik genießen möchte, kauft sich entweder die CD oder ein Ticket fürs Konzerthaus. Anders ist es bei der Datenanalyse. Self-Service Analytics heißt der Trend, bei dem jeder Mitarbeiter zum BI-Experten ernannt wird. Mit teilweise erheblichen Nachteilen für Unternehmen. lesen

Serialisierbare ACID-Transaktionen direkt auf Streaming-Daten und ohne Datenbank

Data Artisans Streaming Ledger

Serialisierbare ACID-Transaktionen direkt auf Streaming-Daten und ohne Datenbank

Data Artisans, gegründet von den Initiatoren des „Apache Flink“- Projekts, hat heute auf der Flink Forward Berlin eine bereits zum Patent angemeldete Technologie vorgestellt. Diese erweitert die Bandbreite der Stream-Verarbeitung mit schnellen, serialisierbaren ACID-Transaktionen (Atomicity, Consistency, Isolation, Durability) direkt auf Streaming-Daten. lesen

10 Jahre Apache Cassandra – der steinige Weg zum Gipfel

Kommentar von Patrick McFadin, DataStax

10 Jahre Apache Cassandra – der steinige Weg zum Gipfel

Viele der technologischen Entwicklungen unserer Zeit müssen sich auf einen langen und steinigen Weg machen, ehe sie von den Menschen, die sie tagtäglich nutzen, wirklich akzeptiert werden. So auch das NoSQL-Datenbanksystem Apache Cassandra. lesen

Datastax-Nutzer setzen auf Cloud Service

NoSQL-Datenbanken und Big Data

Datastax-Nutzer setzen auf Cloud Service

Datastax gehört zu den erfolgreichen „Resten“ der NoSQL-Gründungswelle der Nuller-Jahre. Das Unternehmen bietet nun seine Datenbank auch in der Oracle-Cloud an, denn die Mehrzahl der Anwender nutzt sie bereits als Cloud-Service. Viel Engagement fließt in Weiterbildung und Unterstützung der Anwender bei der Implementierung neuer Geschäftsmodelle. lesen

IBM erweitert Db2

Neuerungen von IBM

IBM erweitert Db2

IBM hat kürzlich einige Ergänzungen und Erweiterungen seiner Datenbank-Software IBM Db2 bekanntgegeben. Db2 erhält eine neue Cloud-Version sowie eine neue In-Memory-Version, während neue Werkzeuge für Data Governance und Machine Learning speziell europäischen Kunden zur Verfügung gestellt werden. lesen

Big Data im Supply Chain Management

Spaltenorientierte Datenbanken und In-Memory

Big Data im Supply Chain Management

Big Data wird gemeinhin ungeordnetes Datenvolumen beschrieben, dessen Erfassung, Speicherung, Verwaltung und Analyse eine normale Datenbank nicht bewältigen kann. Allerdings geht es nicht nur um die Menge der enthaltenen Informationen, sondern auch darum, diese aus verschiedenen Blickwinkeln zu strukturieren und zu analysieren. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44887703 / Definitionen)