Definition

Was ist Validierung?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Datenvalidierung prüft Daten auf Einhaltung bestimmter Validierungsregeln. Diese wurden zuvor aufgestellt und beinhalten beispielsweise Vorgaben zu Wertebereichen oder Formaten. Die Datenvalidierung verbessert die Ergebnisse der Datenverarbeitung und Datenanalyse. Sie kann bei der Eingabe der Daten, direkt vor dem Start oder während der Datenverarbeitung stattfinden.

Das Wort „validieren“ geht auf das lateinische Wort „valere“ zurück und bedeutet „den Wert von etwas feststellen“. Im Umfeld der Informationstechnik, Softwareentwicklung und der Datenverarbeitung wird die Datenvalidierung häufig angewandt. Bei der Datenvalidierung findet eine Prüfung der Daten auf Einhaltung bestimmter zuvor aufgestellter Validierungsregeln statt. Die Prüfung kann sich auf Kriterien wie die Einhaltung eines definierten Wertebereichs, einer bestimmten Syntax oder eines bestimmten Formats beziehen.

Ohne eine Validierung kommt es unter Umständen zu Anwendungsfehlern oder falschen Ergebnissen bei der Datenverarbeitung. Deshalb stellt die Validierung der Daten eine Grundvoraussetzung für eine korrekte und sinnvolle Datenverarbeitung dar. An welcher Stelle die Validierung stattfindet, kann sich von Anwendungsfall zu Anwendungsfall unterscheiden. Oft werden Daten bereits bei der Eingabe durch einen Benutzer mithilfe einer Programmlogik validiert. Auch bei der Übernahme von Daten aus anderen Prozessen und Anwendungen oder vor dem Start und während der Datenverarbeitung kann die Validierung stattfinden. Die Validierung der Benutzereingaben ist in fast allen Anwendungen üblich.

Ziele der Datenvalidierung

Typische Ziele der Datenvalidierung sind:

  • Schaffung eines sauberen Datenbestands hinsichtlich Kriterien wie Format, Syntax und Wertebereich
  • Verbesserung der Nutzbarkeit der Daten
  • Vermeidung von Programmfehlern durch die Verarbeitung nicht-valider Daten
  • korrekte Ergebnisse bei der Ausführung von Programmen und Datenverarbeitungsprozessen
  • höhere Effizienz der Datenverarbeitung
  • Einhaltung von Vorgaben und Richtlinien

Mögliche Vorgehensweise bei der Datenvalidierung

Wie, in welcher Phase und in welchem Umfang die Datenvalidierung stattfindet, ist von der jeweiligen Anwendung und der Art der Daten abhängig. Eng verknüpft mit der Validierung ist die Protokollierung des Validierungsvorgangs, aus der sich Optimierungsmaßnahmen bei zukünftigen Validierungen ableiten lassen.

Grundsätzlich ist es sinnvoll, die Daten zu validieren, bevor sie in eine Datenbank oder Anwendung aufgenommen werden. Diese Validierung findet beispielsweise direkt bei der Dateneingabe durch einen Benutzer oder bei der Datenübernahme aus einem anderen Prozess statt.

Die Entwickler der Benutzer- und Programmschnittstellen arbeiten nach dem Grundsatz, alle Daten aus externen Quellen zu prüfen, die sich sinnvoll prüfen lassen. Stellt die Validierung Fehler fest, wird die Datenübernahme verweigert und es erfolgt in der Regel eine Rückmeldung an den Benutzer oder den liefernden Prozess mit Details zu den erkannten Mängeln. Benutzer oder externe Prozesse werden aufgefordert, diese Mängel zu beseitigen und Daten in der erwarteten Form zu liefern.

Eine weitere Phase, in der die Validierung stattfinden kann, ist die Übergabe der Daten aus der Datenbank an die Verarbeitungslogik. In diesem Fall geht man davon aus, dass sich in der Datenbank auch nicht-valide Daten befinden können. Jeder Datensatz wird bei der Übergabe an die weiterverarbeitenden Programme auf Validität geprüft.

In einigen Fällen führen Programme die Validierung zur Laufzeit durch. Die Programme sind in ihrer Laufzeitumgebung in der Lage, nicht-valide Daten zu erkennen und weitere Schritte einzuleiten. Beispielsweise wird eine Fehlermeldung ausgegeben, die Prozessierung nicht-valider Daten verweigert oder auf die Verarbeitung nicht-valider Daten hingewiesen. Um Folgefehler durch die Verarbeitung nicht-valider Daten zu vermeiden, sollte die Möglichkeit der Ausgrenzung nicht-valider Daten oder des Programmabbruchs immer bestehen.

Typische Validierungsregeln

Egal, zu welchem Zeitpunkt eine Validierung stattfindet, der erste Schritt ist immer die Definition der Validierungsregeln. In den meisten Fällen verfolgt die Definition einen sogenannten Whitelist-Ansatz. Das bedeutet, dass die Regeln festlegen, welche Art von Daten erlaubt sind. Alle Daten, die die Kriterien der Regeln nicht erfüllen, sind nicht-valide. Der Blacklist-Ansatz ist wesentlich seltener. Bei diesem Ansatz werden Regeln aufgestellt, die die Kriterien für nicht-valide Daten festlegen. Alle Daten, die diesen Kriterien nicht entsprechen, gelten als valide. Typische Kriterien der Validierungsregeln sind:

  • Format
  • Syntax
  • Wertebereich
  • Eingabe erforderlich oder leere Datenfelder erlaubt

Abgrenzung von Verifizierung und Validierung

Manchmal kommt es vor, dass Begriffe wie Validierung und Verifizierung im Umfeld der Datenverarbeitung nicht sauber getrennt werden. Beide Begriffe lassen sich jedoch klar voneinander abgrenzen. Die Verifizierung bezieht sich eher auf die Richtigkeit von Daten und das Ergebnis des Datenverarbeitungsprozesses. Sie prüft Daten und Ergebnisse anhand verschiedener Kriterien auf Korrektheit beziehungsweise auf die Übereinstimmung mit den zuvor aufgestellten Erwartungen. Die Validierung hingegen prüft, ob Daten für weitere Datenverarbeitungsschritte nutzbar sind und die Datenverarbeitungsprozesse überhaupt auf Basis der Daten Ergebnisse liefern können. Ob ein Datenelement oder ein Ergebnis letztendlich als korrekt betrachtet wird, ist nicht Bestandteil der Validierung.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Dynatrace bietet nun auch Business Analytics

Erweiterung der Software Intelligence Platform

Dynatrace bietet nun auch Business Analytics

Auf dem Perform Summit in Barcelona früher im Jahr hatte es sich schon angedeutet: Dynatrace hat seine Software Intelligence Plattform zur Performance-Messung um Digital Business Analytics erweitert. Sie vereint nun Application Performance Management (APM), Cloud Infrastructure Monitoring, Digital Experience Management und AIOps. lesen

Google-KI erkennt Hautkrankheiten

Deep-Learning-System für Dermatologie

Google-KI erkennt Hautkrankheiten

Wer eine Hauterkrankung hat, sucht oft zunächst seinen Hausarzt auf. Doch deren Diagnosefähigkeit lässt gegenüber den Experten auf einem Spezialgebiet meist zu wünschen übrig, und der Patient bekommt keine optimale Behandlung. Eine Google-KI soll bei zahlreichen Hauterkrankungen eine Quote wie ein Dermatologe erreichen. lesen

Blockchain oder IOTA – wer macht das Rennen?

Distributed-Ledger-Anwendungen

Blockchain oder IOTA – wer macht das Rennen?

Die Blockchain und IOTA sind beide Distributed-Ledger-Anwendungen – und dennoch könnten sie kaum unterschiedlicher sein. Denn beide verfolgen nicht nur andere Ziele, sie sind auch noch von ihrer Struktur her vollkommen verschieden. Was sie jedoch vereint, ist ihr Potenzial. lesen

Streaming von Rohdaten ist ein Erfolgsfaktor

Kommentar von Michael Diestelberg, Webtrekk

Streaming von Rohdaten ist ein Erfolgsfaktor

Durch die fortschreitende digitale Transformation nehmen die Verfügbarkeit und das Sammeln von Daten – über interne Prozesse oder die eigenen Kunden – immer weiter zu. Laut Schätzungen von IDC Research wird das jährlich kumulierte Datenvolumen im Jahr 2025 weltweit bereits 180 Zettabyte umfassen. Das entspricht einer Milliarde Terabytes, ein kaum vorstellbares Ausmaß. Für Unternehmen stellt das eine wachsende Ressource und ein enormes Wissenspotenzial dar. lesen

Mit Predictive Intelligence Cyber-Attacken verhindern

Kommentar von Sebastian Ganschow, Dimension Data Germany

Mit Predictive Intelligence Cyber-Attacken verhindern

Hackerangriffe sind in Zeiten der Digitalisierung zu einer permanenten Bedrohung nicht nur für Großfirmen, sondern auch für mittlere und kleinere Unternehmen geworden. Ist eine Cyber-Attacke erstmal erfolgt, sind die finanziellen Einbußen und der Imageschäden enorm. Im Idealfall identifizieren Unternehmen deshalb Angriffe bereits im Vorfeld – und wehren sie ab. Großes Potenzial bietet in diesem Zusammenhang das Framework der Predictive Intelligence. lesen

Die DSGVO hebelt klassische Datenmanagement-Ansätze aus

Kommentar von Stefan Reinhardt, Eccenca

Die DSGVO hebelt klassische Datenmanagement-Ansätze aus

Die Datenschutzgrundverordnung (DSGVO) ist für Unternehmen kein rein juristisches Problem. Sie greift mit ihren Anforderungen direkt in die betrieblichen Abläufe ein – und wirft damit technische und organisatorische Probleme auf. Sinnvoll beantworten kann diese nur ein Umdenken des Datenmanagements. lesen

So klappt’s mit Microsoft Power BI

Business Intelligence mit Microsoft

So klappt’s mit Microsoft Power BI

Power BI gilt als eines der vielversprechendsten BI-Tools, doch viele Unternehmen tun sich schwer damit, den Self-Service-Ansatz, den Microsoft verfolgt, mit Governance und Reporting in Einklang zu bringen. Dieser Artikel soll einen Weg aufzeigen, wie Power BI erfolgreich eingeführt werden kann. lesen

Wie Fujitsu KI-Simulation in Echtzeit ermöglicht

AI Solver

Wie Fujitsu KI-Simulation in Echtzeit ermöglicht

Die Fujitsu-Plattform AI Solver ersetzt herkömmliche physikbasierte Simulationen durch schnelle, hochgradig genaue KI-Simulationen. Simulationsberechnungen können damit bis zu 3.000-mal schneller durchgeführt werden. lesen

Mathworks erweitert Deep-Learning-Funktionen im neuen Release

Matlab und Simulink 2018b

Mathworks erweitert Deep-Learning-Funktionen im neuen Release

Mathworks hat das Release 2018b von Matlab und Simulink vorgestellt, das Deep Learning in den Fokus der Neuheiten stellt. So löst beispielsweise die Deep Learning Toolbox die vorherige Neural Network Toolbox ab, um Netzarchitekturen einfacher zu entwerfen. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46247801 / Definitionen)