Definition

Was ist Normalisierung?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Die Normalisierung findet bei relationalen Datenbankschemata statt und hat zum Ziel, Redundanzen, Inkonsistenzen und Anomalien zu vermeiden und zu beseitigen. Zur Durchführung kommen bis zu fünf verschiedene aufeinander aufbauende Normalformen zum Einsatz. Normalisierte Datenbanken folgen einem klar strukturierten Modell.

Normalisierung beschreibt den Prozess der Strukturierung und Umorganisation eines relationalen Datenbankschemas. Informationen werden in mehrere Tabellen aufgeteilt und über Beziehungen mit dem Ziel miteinander verknüpft, Redundanzen, Inkonsistenzen und Anomalien zu vermeiden und beseitigen. Die Methode der Zerlegung entspricht der relationalen Entwurfstheorie. Im Idealfall enthält eine normalisierte Datenbank keine vermeidbaren Redundanzen mehr und ist in sich vollständig konsistent. Die Datenbank ist durch die Normalisierung effizienter organisiert, flexibler und belegt keinen unnötigen Speicherplatz mehr.

Um eine Datenbank zu normalisieren, werden die sogenannten Normalformen angewandt. Sie bauen aufeinander auf und führen jeweils zu einer höheren Stufe der Normalisierung. Insgesamt existieren fünf verschiedene Normalformen, von denen häufig allerdings nur die ersten drei Formen zum Einsatz kommen. Wurde eine Datenbank normalisiert, liegt sie in der ersten, zweiten, dritten, usw. Normalform vor. Während der Normalisierung ist unbedingt zu vermeiden, dass Informationen verloren gehen. Die Normalisierung findet in der Regel bereits beim Entwurf einer relationalen Datenbank statt. Soll eine mit Informationen gefüllte Datenbank im Nachhinein normalisiert werden, entsteht ein erhöhter Aufwand.

Die Ziele der Normalisierung

Ein wesentliches Ziel der Normalisierung ist die Beseitigung von redundanten Informationen. Es existieren nach der Normalisierung keine Datendopplungen mehr und jede Information ist nur an einer Stelle der Datenbank abgelegt. Durch die Beseitigung der Redundanzen erhöht sich die Konsistenz der Datenbank. Weiteres zentrales Ziel der Normalisierung ist das Entfernen von Anomalien. Anomalien entstehen beispielsweise dadurch, dass Änderungen einer Information nicht an allen notwendigen Stellen einer Datenbank stattgefunden haben. Die Ziele der Normalisierung sind, kurz zusammengefasst, folgende:

  • Schaffung eines Datenbankmodells mit klarer Struktur
  • Beseitigung aller vermeidbarer Redundanzen
  • Vermeidung jeglicher Anomalien

Mögliche Nachteile durch eine Normalisierung

Die Normalisierung kann auch einige Nachteile mit sich bringen. So speichert eine vollständig normalisierte Datenbank zusammengehörige Daten nicht in einer, sondern in mehreren verschiedenen, miteinander verknüpften Tabellen. Für Anwender ist das Datenbankschema auf den ersten Blick unübersichtlicher. Um die zusammengehörenden Informationen zu erhalten, ist die Zusammenführung der Daten aus den verschiedenen Tabellen notwendig. Die Datenabfragen arbeiten mit Joins und sammeln die gewünschten Informationen aus den einzelnen Tabellen. Komplexe und umfangreiche Joins führen zu einer starken Belastung des Datenbanksystems.

Ein weiterer Nachteil ist, dass die Normalisierung einen erheblichen Aufwand darstellen kann. Er steigt zusätzlich, wenn die Normalisierung nicht schon beim Entwurf des relationalen Datenbankschemas stattfindet, sondern bei einer bereits mit Daten gefüllten Datenbank.

Die verschiedenen Normalformen

Die verschiedenen Normalformen bauen aufeinander auf. Das bedeutet, dass jede Normalform neben den eigenen Kriterien die Kriterien der jeweils niedrigeren Normalformen erfüllen muss. Die gängigen Normalformen sind:

  • die erste Normalform (1NF)
  • die zweite Normalform (2NF)
  • die dritte Normalform (3NF)
  • die Boyce-Codd-Normalform (3.5NF oder BCNF)
  • die vierte Normalform (4NF)
  • die fünfte Normalform (5NF)

In der Praxis finden meistens nur die ersten drei Normalformen (1NF, 2NF und 3NF) Anwendung. Die dritte Normalform eines Datenbankentwurfs gilt als ausreichend für eine gute Balance zwischen Leistung, Speicherplatzeffizienz, Flexibilität und Redundanz. 3.5NF, 4NF und 5NF kommen häufig beispielsweise bei wissenschaftlichen Datenbankentwürfen zum Einsatz. Es folgt eine kurze Beschreibungen der verschiedenen Normalformen, da eine ausführliche Darstellung den Rahmen dieser Definition sprengen würde.

Die erste Normalform (1NF)

In der ersten Normalform darf jedes Attribut nur einen atomaren (nicht zusammengesetzten) Wertebereich haben. Relationen müssen frei von Wiederholungsgruppen sein. Zum Beispiel ist das Feld "Name" einer Tabelle in die beiden Datenbankfelder "Vorname" und "Nachname" aufzuspalten.

Die zweite Normalform (2NF)

Für die zweite Normalform muss die erste Normalform vorliegen. Zusätzlich darf jeder Datensatz nur einen einzigen Sachverhalt abbilden. Beinhaltet eine Tabelle mehrere Sachverhalte, wird sie in mehrere Tabellen aufgespalten. Beispielsweise erfolgt eine Aufteilung in thematische Tabellen wie "Produktdaten", "Bestelldaten" und "Kundendaten".

Die dritte Normalform (3NF)

Die dritte Normalform gilt als eingehalten, wenn die zweite Normalform erfüllt ist und keine transitiven (indirekten) Abhängigkeiten mehr bestehen. Beispiel ist das Aufspalten einer Tabelle mit "Kunde", "Postleitzahl" und "Ort" in zwei Tabellen mit "Kunde" und "Ort" sowie "Ort" und "Postleitzahl".

Die Boyce-Codd-Normalform (3.5NF oder BCNF)

Die Boyce-Codd-Normalform ist eine Verschärfung der dritten Normalform.

Die vierte Normalform (4NF)

Eine Datenbank der vierten Normalform enthält nur noch triviale, mehrwertige Abhängigkeiten.

Die fünfte Normalform (5NF)

Die fünfte Normalform beseitigt voneinander abhängige mehrwertige Abhängigkeiten.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Neue Datenbanken braucht das Land

Kommentar von Bruno Šimić, Couchbase

Neue Datenbanken braucht das Land

Die Geschäftswelt ändert sich schneller als je zuvor. Treiber dafür sind die immer größer werdenden Datenbanken der Firmen. Kunden konsumieren immer mehr Daten, weil sie mit immer mehr mobillen und IoT-Geräten Informationen nutzen. Um diese Herausforderungen zu bewältigen, werden verteilte Cloud- und Big-Data-Technologien benötigt. lesen

So deckt der Local Outlier Factor Anomalien auf

Grundlagen Statistik & Algorithmen, Teil 7

So deckt der Local Outlier Factor Anomalien auf

Um Trends zu erkennen, wird oft die Clusteranalyse herangezogen. Der k-Means-Algorithmus etwa zeigt an, wo sich Analyseergebnisse in einer Normalverteilung ballen. Für manche Zwecke ist es aber aufschlussreicher, Ausreißer zu untersuchen, denn sie bilden die Antithese zum „Normalen“, etwa im Betrugswesen. Der Local-Outlier-Factor-Algorithmus (LOF) ist in der Lage, den Abstand von Ausreißern zu ihren Nachbarn zu berechnen und deckt so Anomalien auf. lesen

Was das IoT von FinTechs lernen kann

Viele Technologie-Ansätze für das Internet der Dinge existieren bereits

Was das IoT von FinTechs lernen kann

Tageslichtsensoren optimieren die Energie­er­zeu­gung von "Smart Cities“, Amazon-Kühl­schränke bestellen automatisch Lebens­mittel nach: nahezu unbemerkt erobert das Internet der Dinge (IoT), ein Netzwerk drahtlos ver­bun­dener Alltagsgeräte, unser Leben. Was wir vom Internet der Dinge lernen und wie wir von ihm profitieren können, beginnt sich gerade erst abzuzeichnen. Doch auch das IoT kann und sollte von anderen Branchen lernen. lesen

Teradata automatisiert die vierte Analytics-Dimension

Zeitreihen-Auswertung für Edge-Computing-Anwendungen

Teradata automatisiert die vierte Analytics-Dimension

Kurz vor der europäischen „Universe“-Konferenz Ende April hat der Analytics-Spezialist Teradata einige signifikante Ankündigungen gemacht. Sie indizieren einen Trend: raus aus der „Splendid Isolation“, rein in sinnvolle Partnerschaften, zum Beispiel mit Cisco und NVIDIA. Auf der Produktseite stellt der Anbieter zudem eine Software vor, welche die Analyse von Sensordaten „on the edge“ vereinfachen soll. lesen

Die Maschine lernt nie aus

Künstliche Intelligenz im Beschaffungsmanagement

Die Maschine lernt nie aus

Künstliche Intelligenz (KI) ist ein neues Stichwort im Beschaffungsmanagement. Aber was kann sie wirklich leisten? Technologisch hat KI schon seit längerem einen hohen Reifegrad erreicht, doch erst die heute verfügbaren großen Datenmengen und die hohe und günstige Rechenpower ermöglichen entsprechende Anwendungen für das Procurement lesen

Big Data, SQL und NoSQL – eine kurze Übersicht

Kommentar von Alexander Lapp, Adacor Hosting

Big Data, SQL und NoSQL – eine kurze Übersicht

Die Begriffe Big Data, SQL und NoSQL, relationale oder objektorientierte Datenbanken werden häufig in einen Topf geworfen und in beliebigen Querverbindungen miteinander verglichen. Tatsächlich hat das eine mit dem anderen zwangsweise nichts zu tun. Woher kommt dann diese Denkweise und wie kann man die Themen korrekt einordnen? lesen

Bewerbermanagement mit automatisierter Datensegmentierung

Kommentar von Hans-Joachim Jänichen, Goetzfried

Bewerbermanagement mit automatisierter Datensegmentierung

Eingehende Bewerbungen werden automatisch in die Datenbank eingelesen, mit den in der ausgeschriebenen Stelle hinterlegten Anforderungen abgeglichen und nach Qualifikationen und Erfahrungen gewichtet. Für viele Personaler klingt dieses Szenario nach Zukunftsmusik. Doch dank moderner Dokumentenanalysetools lassen sich schon heute Bewerbungsverfahren deutlich vereinfachen und beschleunigen. lesen

Relationale Datenbanken sind ungeeignet

Kommentar von Stefano Marmonti, Marklogic

Relationale Datenbanken sind ungeeignet

Laut Forrester Research werden die Ausgaben für Technologie in Europa 2016 um 4,1 Prozent ansteigen, vorwiegend für Applikationen in den Bereichen Big Data und Analytics. Weltweit werden die Investitionen in diese Technologien sogar um 24 Prozent steigen, auf 108 Milliarden US-Dollar. Da Unternehmen immer stärker in die Erfassung und Analyse ihrer Daten mit immer größeren, intelligenteren Anwendungen investieren, sollten sich auch die Anforderungen an die Datenbanken ändern. lesen

Daten revolutionieren die Automobilindustrie

Internet of Things

Daten revolutionieren die Automobilindustrie

Die Fahrzeugbranche steht vor riesigen Herausforderungen: Das Auto verliert mehr und mehr seine Rolle als Statussymbol und nutzungsbasierte Modelle anstelle des Autokaufs verbreiten sich. Hinzu kommt Druck: Der Verkehr soll umweltfreundlicher werden. Hier kommen datenbasierte Geschäftsmodelle ins Spiel, die Autoherstellern und Zulieferern den Weg in die Zukunft weisen sollen. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45988916 / Definitionen)