Dipl.-Ing. (FH) Stefan Luber ♥ BigData-Insider

Dipl.-Ing. (FH) Stefan Luber


IT-Service Luber

Stefan Luber ist Diplom-Ingenieur (FH) der Nachrichtentechnik und arbeitet mit über 30 Jahren Berufserfahrung als freiberuflicher Autor sowie technischer Redakteur. Er ist spezialisiert auf IT- und Telekommunikationsthemen und verfasst hochwertige, suchmaschinenoptimierte Inhalte, Whitepaper, Produkttests, Blog-Artikel und technische Dokumentationen.

Seine Expertise umfasst ein breites Spektrum an IT-Themen, darunter Netzwerke (DSL, Mobilfunk, TCP/IP, Routing, Switching, VoIP), Webhosting, E-Commerce, Content-Management-Systeme wie WordPress, Suchmaschinenoptimierung (SEO), Smart Home, Cloud Computing, Business Intelligence, Big Data, Künstliche Intelligenz, IoT und IT-Sicherheit.

Luber hat für verschiedene Unternehmenswebseiten, Blogs und Fachportale wie Security-Insider, BigData-Insider, Storage-Insider, CloudComputing-Insider und IP-Insider Artikel verfasst, in denen er komplexe technische Sachverhalte verständlich aufbereitet.

Neben seiner Tätigkeit als Autor bietet er IT-Services an und betreibt mit dem IT-Service Luber eine eigene Webseite, auf der er seine Dienstleistungen und Veröffentlichungen präsentiert.

Seine berufliche Laufbahn umfasst Positionen wie Systemingenieur Netzwerkplanung/Internetworking bei verschiedenen Systemhäusern und Netzbetreibern und Manager im Bereich IP-TV-Netze bei der Deutschen Telekom AG. Seit August 2011 ist er als freier Autor und technischer Redakteur tätig.

Artikel des Autors

 (© aga7ta - stock.adobe.com)
Definition

Was ist Dask?

Dask ist eine Open-Source-basierte Library, mit der sich Rechenaufgaben auf mehrere Rechner verteilen und parallel ausführen lassen. Die Bibliothek ist in Python geschrieben und beispielsweise für das High Performance Computing einsetzbar. Dask wird in der Wissenschaft und im kommerziellen Bereich unter anderem für das Maschinelle Lernen genutzt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist High Performance Computing (HPC)?

Unter High Performance Computing, HPC, sind Technologien und Verfahren zusammengefasst, mit denen sich komplexe Rechenaufgaben mit hoher Leistung ausführen lassen. Für das Hochleistungsrechnen werden Aufgaben parallelisiert und die Rechenleistung mehrerer Systeme aggregiert. Typische Einsatzbereiche sind Wissenschaft und Forschung, Simulationstechnik, Grafikberechnungen oder Business Intelligence.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Quantum Neural Network?

Ein Quantum Neural Network ist ein Künstliches Neuronales Netzwerk, das auf den Funktionsprinzipien der Quantenmechanik basiert. Es nutzt sogenannte Qubits, die mehrere Zustände gleichzeitig annehmen können und miteinander verschränkt sind. Quantum Neural Networks sollen schneller arbeiten und komplexere Problemstellungen lösen, als dies mit herkömmlichen Neuronalen Netzen möglich ist.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Augmented Analytics?

Augmented Analytics erweitert und automatisiert die Analysemöglichkeiten von Business-Intelligence-Lösungen durch die Nutzung von Methoden und Algorithmen der Künstlichen Intelligenz (KI) und des Machine Learnings (ML). Per Natural Language Processing (NLP) ist die Interaktion des Nutzers mit der Analysesoftware in natürlicher Sprache möglich.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein KPI-Dashboard?

Ein KPI-Dashboard stellt wichtige Leistungskennzahlen eines Unternehmens in visualisierter, leicht verständlicher Form dar. Das Dashboard bietet interaktive Funktionen, lässt sich mit anderen teilen und aktualisiert die Daten bei Bedarf in Echtzeit. Mithilfe eines KPI-Dashboards lässt sich die Zielerreichung verschiedener Unternehmensbereiche messen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Decision Tree?

Ein Decision Tree ist ein baumartiges, gerichtetes Diagramm zur Entscheidungsfindung. Es besteht aus Wurzel, Knoten, Ästen und Blättern. Die Knoten bilden die entscheidungsabhängigen Verzweigungspunkte. Typischer Einsatzbereich der Decision Trees sind Klassifizierungsaufgaben. Aus vielen einzelnen Decision Trees lassen sich Entscheidungswälder wie der Random Forest bilden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Logstash?

Logstash ist eine Open-Source-basierte Software zur Erfassung, Verarbeitung, Transformation und Weiterleitung von Daten. Sie stellt Datenverarbeitungspipelines zur Verfügung und arbeitet mit Plug-ins und Filtern. Zusammen mit Elasticsearch und Kibana bildet Logstash den sogenannten Elastic Stack. Er lässt sich zur Analyse und Visualisierung großer Datenmengen verwenden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Elasticsearch?

Elasticsearch ist eine Open-Source-Suchmaschine auf Basis von Apache Lucene. Sie arbeitet mit Indices, die aus JSON-Dokumenten im NoSQL-Format bestehen. Die Suchmaschine arbeitet sehr schnell, ist für die Suche in großen Datenmengen einsetzbar (Big Data) und unterstützt für eine hohe Verfügbarkeit verteilte Architekturen. Zusammen mit Kibana und Logstash bildet Elasticsearch den Elastic Stack.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Couchbase?

Couchbase ist eine dokumentenorientierte nicht-relationale Datenbank (NoSQL-Datenbank). Sie speichert Informationen in Form von JSON-Dokumenten. Die Couchbase-Lösung umfasst Couchbase Server und Couchbase Mobile. Für das Abfragen und Verändern von Daten steht die Abfragesprache N1QL zur Verfügung, die ähnlich wie SQL für relationale Datenbanken arbeitet.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Data Catalog?

Ein Data Catalog ist ein Service oder ein Tool, das verschiedene Daten-Assets in einem zentralen Metadatenverzeichnis verwaltet. Der Datenkatalog vereinfacht den Zugang zu den Daten. Häufiger Anwendungsbereich sind das Big-Data-Umfeld und Data Warehouses. Der Data Catalog kann auch als Cloud-Service bei verschiedenen Cloud-Providern genutzt werden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Apache Tez?

Apache Tez ist ein Open-Source-basiertes Framework, das zusammen mit Hadoop für Big-Data-Anwendungen geeignet ist. Es sorgt für eine performante Verarbeitung der Daten und wird häufig als Alternative zu Hadoop MapReduce eingesetzt. Ursprünglich wurde es von Hortonworks entwickelt. Seit 2013 ist es ein Apache-Projekt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Quantile Random Forest?

Ein Quantile Random Forest ist eine spezielle Form des Random Forests. Er kommt für Klassifizierungs- und Regressionsaufgaben zum Einsatz und wird häufig im Umfeld des Machine Learnings verwendet. Das Besondere am Quantile Random Forest ist, dass Vorhersagen bezüglich verschiedener Quantile möglich werden. Es ist abschätzbar, ob vorhergesagte Werte bestimmte Schwellwerte erreichen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Apache Samza?

Apache Samza ist ein Open-Source-basiertes Framework für das Stream Processing. Es wird von der Apache Software Foundation weiterentwickelt und ermöglicht die Verarbeitung von Prozessdaten aus verschiedenen Quellen in nahezu Echtzeit. Unter anderem lassen sich mit Apache Samza statusbehaftete Anwendungen realisieren.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was sind Rohdaten?

Rohdaten sind ungeprüfte und unbearbeitete Daten, wie sie von einer Datenquelle geliefert werden. Sie liegen in dem Format vor, wie es von der jeweiligen Datenquelle bereitgestellt wird. Für gewöhnlich werden die Rohdaten zur Nutzung in weiteren Anwendungen oder Prozessen mithilfe verschiedener Techniken und Methoden aufbereitet.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine User Defined Function?

Eine User Defined Function (UDF) ist eine vom Anwender selbst erstellte Funktion. Verschiedene Programmierumgebungen und Datenbankmanagementsysteme erlauben die Definition und Nutzung von User Defined Functions. Die Funktionen müssen der Syntax der zugrundeliegenden Programmierumgebung entsprechen. Häufig werden UDFs beispielsweise in SQL-Datenbankumgebungen genutzt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist das ARIMA-Modell?

Das ARIMA-Modell ermöglicht die Beschreibung und Analyse von Zeitreihen. Es handelt sich um eine leistungsstarke Modellklasse, die den autoregressiven Teil und den gleitenden Mittelwertbeitrag des ARMA-Modells um die Differenzierung und Integration zur Trendbeseitigung und Herstellung der Stationarität erweitert.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist CIFAR-10?

CIFAR-10 ist ein Datensatz, der aus 60.000 kleinen Einzelbildern besteht. Die farbigen Bilder haben jeweils eine Größe von 32 x 32 Pixel und sind in zehn verschiedene Klassen eingeteilt. Der Datensatz kommt zum Trainieren und Testen von Algorithmen des maschinellen Lernens und der Bildverarbeitung zum Einsatz. Neben CIFAR-10 existiert mit CIFAR-100 ein Datensatz mit 100 verschiedenen Klassen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Random Forest?

Random Forest ist ein Algorithmus, der sich für Klassifizierungs- und Regressionsaufgaben nutzen lässt. Er kombiniert die Ergebnisse vieler verschiedener Entscheidungsbäume, um bestmögliche Entscheidungen zu treffen. Der Lernalgorithmus gehört zu den Verfahren des überwachten Lernens und ist im Machine Learning einsetzbar. Das Verfahren ist relativ einfach und bietet kurze Trainingszeiten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Cypher?

Cypher ist eine Abfragesprache mit deklarativem Charakter für Property-Graphdatenbanken. Sie ermöglicht, komplexe Abfragen einfach zu formulieren und besitzt eine übersichtliche Syntax. Cypher stellt eine wichtige Quelle zur Entwicklung des neuen Standards einer Graph Query Language (GQL) dar. GQL soll, wie es SQL bereits für relationale Datenbanken ist, eine universelle Abfragesprache für Property-Graphdatenbanken werden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Kibana?

Kibana ist eine Open-Source-Analyse- und -Visualisierungsplattform. Sie bildet zusammen mit Elasticsearch und Logstash den Elastic-Stack und ermöglicht die Visualisierung der per Elasticsearch erhobenen Daten. Kibana beherrscht die klassischen Visualisierungsformen wie Histogramme, Liniendiagramme oder Kreisdiagramme und erlaubt die Darstellung von Zeitreihen oder geografischen Daten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist TPOT?

TPOT ist ein Open Source Tool für automatisiertes maschinelles Lernen (AutoML). Aufgabe des Tools ist es, optimale Machine Learning Pipelines für die jeweilige Aufgabenstellung des maschinellen Lernens zu finden. Hierfür verwendet TPOT die sogenannte genetische Programmierung. Das Tool basiert auf der scikit-learn-Bibliothek.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Apache TinkerPop?

Apache TinkerPop ist ein Open Source Framework für das Graph Computing. Es ermöglicht die Online-Transaktionsverarbeitung der Daten in Graphdatenbanken und graphbasierten Analysesystemen. Zur Datenabfrage der Graphen kommt die Sprache Gremlin zum Einsatz. TinkerPop stellt ein komplettes Ecosystem für das Graph Computing zur Verfügung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Pseudonymisierung?

Die Pseudonymisierung ersetzt Identifikationsmerkmale wie etwa Namen mit anderen Kennzeichen wie Schlüsseln oder Pseudonymen. Dadurch wird die eindeutige Feststellung der Identität einer Person im pseudonymisierten Datensatz zwar verhindert, doch ist der Vorgang grundsätzlich umkehrbar, da die ursprüngliche Zuordnungsvorschrift in einer externen Datensammlung erhalten bleibt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Anonymisierung?

Die Anonymisierung verhindert, dass sich Daten bestimmten Personen zuordnen lassen. Hierfür entfernt, ersetzt, aggregiert oder verfälscht der Vorgang des Anonymisierens personenbezogene Daten oder personenbeziehbare Daten. Für vollständig anonymisierte Daten gelten bestimmte Vorgaben der DSGVO nicht. Zwischen Anonymisierung und Pseudonymisierung bestehen deutliche Unterschiede.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Complex Event Processing?

Complex Event Processing verarbeitet verschiedene Ereignisströme in nahezu Echtzeit. Um neues Wissen aus den voneinander abhängigen Events zu generieren und mit diesem Wissen beispielsweise Geschäftsprozesse zu steuern, werden die Events erfasst, gruppiert, analysiert und Abhängigkeiten extrahiert.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Behavioral Analytics?

Behavioral Analytics ist ein Teilbereich der Business Analytics und wertet das Verhalten der User digitaler Plattformen wie Onlineshops oder Social Media Sites systematisch aus. Ziel ist es, das Userverhalten besser zu verstehen und vorherzusagen, um die Plattformen hinsichtlich besserer Produkte und mehr Erfolg zu optimieren. Grundlage der Auswertungen bilden große gesammelte Datenmengen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Customer Experience?

Die Customer Experience ist die Summe aller Erfahrungen, die ein Kunde mit einem Unternehmen oder einer Marke macht. Sie umfasst die subjektive Bewertung der Erlebnisse des Kunden an den verschiedenen Kontaktpunkten (Touchpoints) während einer Customer Journey. Das Customer Experience Management versucht, die Kundenerlebnisse im Sinne positiver Erfahrungen zu beeinflussen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist automatisiertes Machine Learning (AutoML)?

Automatisiertes Machine Learning, AutoML, vereinfacht das maschinelle Lernen durch Automatisierung verschiedener Machine-Learning-Prozesse. Je nach Komplexität und Umfang der Aufgabe lassen sich einzelne Schritte oder der komplette Prozess automatisieren. Ziel ist es, auch Anwendern ohne spezifische Programmierkenntnisse und Machine Learning Know-how die Problemlösungsmöglichkeiten des maschinellen Lernens zu eröffnen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was sind gepulste neuronale Netze?

Ein gepulstes neuronales Netz, engl. Spiking Neural Network, ist eine besondere Form eines künstlichen neuronalen Netzes, das hinsichtlich Abläufe und Aufbau der Funktionsweise eines echten biologischen Gehirns sehr nahekommt. Es wird auch als neuronales Netz der dritten Generation bezeichnet. Gepulste neuronale Netze berücksichtigen die zeitlichen Komponenten der Neuronen-Impulse.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Amazon SageMaker?

Amazon SageMaker ist ein voll verwalteter Cloud-Service von Amazon, der im Rahmen der Amazon Web Services (AWS) verfügbar ist. Mithilfe des Dienstes lassen sich Machine-Learning-Modelle schneller und einfacher erstellen, trainieren und für produktive Zwecke bereitstellen. Genutzt wird Amazon SageMaker beispielsweise von Datenwissenschaftlern oder Entwicklern.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Digitalisierung?

Digitalisierung bezeichnet im ursprünglichen Sinn das Umwandeln von analogen Werten in digitale Formate. Diese Daten lassen sich informationstechnisch verarbeiten. Oft steht der Begriff Digitalisierung aber auch für die digitale Revolution oder die digitale Transformation.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist das Internet of Things?

Im Internet der Dinge (Englisch: Internet of Things, IoT) bekommen Gegenstände eine eindeutige Identität und können miteinander kommunizieren oder Befehle entgegennehmen. Mit dem Internet of Things lassen sich Anwendungen automatisieren und Aufgaben ohne Eingriff von außen erledigen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Machine Learning?

Machine Learning, im Deutschen maschinelles Lernen, ist ein Teilgebiet der künstlichen Intelligenz. Durch das Erkennen von Mustern in vorliegenden Datenbeständen sind IT-Systeme in der Lage, eigenständig Lösungen für Probleme zu finden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist SAP BW?

SAP BW ist ein Business-Intelligence-Paket von SAP und ermöglicht umfangreiche Auswertungen und Reports auf Basis von unterschiedlichsten Unternehmensdaten. Es besteht aus einer Kombination von Datenbanken, Datenbankmanagement-Tools sowie Analyse und Reporting-Anwendungen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Natural Language Processing?

Die Abkürzung NLP steht für Natural Language Processing und beschreibt Techniken und Methoden zur maschinellen Verarbeitung natürlicher Sprache. Ziel ist eine direkte Kommunikation zwischen Mensch und Computer auf Basis der natürlichen Sprache.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Cyber-physisches System (CPS)?

In einem Cyber-physischen System (cyber-physical system, CPS) sind mechanische Komponenten über Netzwerke und moderne Informationstechnik miteinander verbunden. Sie ermöglichen die Steuerung und die Kontrolle von komplexen Systemen und Infrastrukturen. Für die Industrie 4.0 spielen Cyber-physische Systeme eine zentrale Rolle.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Data Warehouse?

Das Data Warehouse stellt ein zentrales Datenbanksystem dar, das zu Analysezwecken im Unternehmen einsetzbar ist. Das System extrahiert, sammelt und sichert relevante Daten aus verschiedenen heterogenen Datenquellen und versorgt nachgelagerte Systeme.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Neuronales Netz?

Künstliche Neuronale Netze (KNN) sind inspiriert durch das menschliche Gehirn und lassen sich für maschinelles Lernen und die Künstliche Intelligenz einsetzen. Es lassen sich mit diesen Netzen verschiedene Problemstellungen computerbasiert lösen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Entität?

Eine Entität in der Informatik ist ein einzelnes, eindeutig identifizierbares Informationsobjekt. Es kann sich sowohl um existierende als auch um abstrakte Objekte handeln. Entitäten sind zusammen mit den Entitätstypen und Attributen sowie den Beziehungen zwischen den Entitäten wesentliche Elemente der Datenmodellierung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Deep Learning?

Deep Learning ist ein Teilbereich des Machine Learnings und nutzt neuronale Netze sowie große Datenmengen. Die Lernmethoden richten sich nach der Funktionsweise des menschlichen Gehirns und resultieren in der Fähigkeit eigener Prognosen oder Entscheidungen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ACID?

Der Begriff ACID (Atomicity, Consistency, Isolation, Durability) beschreibt Regeln und Eigenschaften zur Durchführung von Transaktionen in Datenbankmanagementsystemen (DBMS). Hält die Transaktion das ACID-Prinzip ein, gelten die Informationen in den Datenbanksystemen als verlässlich und konsistent.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist CRISP-DM?

CRISP-DM (Cross Industry Standard Process for Data Mining) ist ein von der EU gefördertes, branchenübergreifendes Standardmodell für das Data Mining. Es wurde 1996 unter Mitarbeit zahlreicher namhafter Konzerne entwickelt und definiert insgesamt sechs verschiedene Prozessphasen. CRISP-DM ist anwendungsneutral und in beliebigen Bereichen einsetzbar.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Chatbot?

Bei einem Chatbot handelt es sich um ein technisches Dialogsystem, mit dem per Texteingabe oder Sprache kommuniziert werden kann. Chatbots werden häufig eingesetzt, um Anfragen automatisiert und ohne direkten menschlichen Eingriff zu beantworten oder zu bearbeiten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Datenbankmanagementsystem?

Das Datenbankmanagementsystem, abgekürzt DBMS, ist neben den eigentlichen Daten der wichtigste Bestandteil einer jeden Datenbank. Es übernimmt die Aufgabe der Organisation und Strukturierung der Daten. Gleichzeitig kontrolliert es lesende und schreibende Zugriffe.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Data Mining?

Data Mining ist die systematische Anwendung computergestützter Methoden, um in vorhandenen Datenbeständen Muster, Trends oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren unter anderem auf statistischen Methoden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine relationale Datenbank?

Relationale Datenbanken ist das am weitesten verbreitete Datenbankmodell. Es setzt auf das relationale Datenbankmodell, das auf der Speicherung von Informationen in verschiedenen Tabellen basiert, die untereinander über Beziehungen (Relationen) verknüpft sind.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Normalisierung?

Die Normalisierung findet bei relationalen Datenbankschemata statt und hat zum Ziel, Redundanzen, Inkonsistenzen und Anomalien zu vermeiden und zu beseitigen. Zur Durchführung kommen bis zu fünf verschiedene aufeinander aufbauende Normalformen zum Einsatz. Normalisierte Datenbanken folgen einem klar strukturierten Modell.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist NoSQL?

NoSQL steht für „Not only SQL“ und bezeichnet Datenbanksysteme, die einen nicht-relationalen Ansatz verfolgen. Diese Datenbanken, denen verschiedene Datenbankmodelle zugrunde liegen können, sind horizontal skalierbar und lassen sich für Big-Data-Anwendungen einsetzen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Data Lake?

Beim Data Lake handelt es sich um einen sehr großen Datenspeicher, der die Daten aus den unterschiedlichsten Quellen in ihrem Rohformat aufnimmt. Er kann sowohl unstrukturierte als auch strukturierte Daten enthalten und lässt sich für Big-Data-Analysen einsetzen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ETL (Extract, Transform, Load)?

Beim ETL-Prozess handelt es sich um mehrere Einzelschritte, durch die sich Daten aus verschiedenen Datenquellen per Extrahieren und Aufbereiten in ein Data Warehouse integrieren lassen. Der Prozess kommt häufig zur Verarbeitung großer Datenmengen im Big-Data- und Business-Intelligence-Umfeld zum Einsatz.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Random Forest?

Random Forest ist ein Algorithmus, der sich für Klassifizierungs- und Regressionsaufgaben nutzen lässt. Er kombiniert die Ergebnisse vieler verschiedener Entscheidungsbäume, um bestmögliche Entscheidungen zu treffen. Der Lernalgorithmus gehört zu den Verfahren des überwachten Lernens und ist im Machine Learning einsetzbar. Das Verfahren ist relativ einfach und bietet kurze Trainingszeiten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Hadoop?

Bei Hadoop handelt es sich um ein auf Java basierendes Software Framework. Mit ihm lassen sich große Datenmengen auf verteilten Systemen in hoher Geschwindigkeit verarbeiten. Es ist zur Bewältigung der Datenverarbeitung im Big-Data-Umfeld geeignet.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Validierung?

Datenvalidierung prüft Daten auf Einhaltung bestimmter Validierungsregeln. Diese wurden zuvor aufgestellt und beinhalten beispielsweise Vorgaben zu Wertebereichen oder Formaten. Die Datenvalidierung verbessert die Ergebnisse der Datenverarbeitung und Datenanalyse. Sie kann bei der Eingabe der Daten, direkt vor dem Start oder während der Datenverarbeitung stattfinden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Predictive Maintenance?

Predictive Maintenance verfolgt als eine der Kernkomponenten von Industrie 4.0 einen vorausschauenden Ansatz und wartet Maschinen und Anlagen proaktiv, um Ausfallzeiten niedrig zu halten. Das Verfahren nutzt hierfür von Sensoren erfasste Messwerte und Daten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein BLOB?

Ein BLOB (Binary Large Object ) ist ein großes binäres Datenobjekt, das von Datenbanken meist in besonderer Form verarbeitet und gespeichert wird. Typische BLOBs sind Dateien wie Video-, Audio- oder Bilddateien

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Convolutional Neural Network?

Das Convolutional Neural Network ist eine besondere Form des künstlichen neuronalen Netzwerks. Es besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich Bild- und Spracherkennung sehr gut geeignet.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was sind unstrukturierte Daten?

Unstrukturierte Daten sind Informationen, die in einer nicht identifizierbaren und nicht normalisierten Datenstruktur vorliegen. Es kann sich beispielsweise um Texte, Bilder oder Audio- und Videodateien handeln. Im Big-Data-Umfeld haben unstrukturierte Daten eine große Bedeutung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Pivot-Tabelle?

Eine Pivot-Tabelle strukturiert in Tabellenform vorliegende Daten, fasst sie zusammen und ermöglicht ihre Auswertung. Die Tabellenart gehört zu den Grundfunktionen aller gängigen Tabellenkalkulationsanwendungen. Für die Erstellung einer Pivot-Tabelle sind nur wenige Grundbedingungen zu erfüllen. Komplexe Formeln oder das Anwenden von SQL-Datenbankabfragen sind dank Pivot-Tabellen zum Teil überflüssig.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Apache Kafka?

Apache Kafka ist eine Open Source Software, die die Speicherung und Verarbeitung von Datenströmen über eine verteilte Streaming-Plattform ermöglicht. Sie stellt verschiedene Schnittstellen bereit, um Daten in Kafka-Cluster zu schreiben, Daten zu lesen oder in und aus Drittsysteme zu importieren und zu exportieren.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ODBC?

Bei ODBC (Open Database Connectivity) handelt es sich um eine standardisierte, offene Schnittstelle für den Zugriff auf unterschiedliche Datenbankmanagementsysteme. Über ODBC-Treiber können Anwendungen direkt Anweisungen an Datenbanken erteilen oder Abfragen ausführen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist das ARIMA-Modell?

Das ARIMA-Modell ermöglicht die Beschreibung und Analyse von Zeitreihen. Es handelt sich um eine leistungsstarke Modellklasse, die den autoregressiven Teil und den gleitenden Mittelwertbeitrag des ARMA-Modells um die Differenzierung und Integration zur Trendbeseitigung und Herstellung der Stationarität erweitert.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Support Vector Machine?

Die Support Vector Machine (SVM) ist eine mathematische Methode, die im Umfeld des maschinellen Lernens zum Einsatz kommt. Sie gestattet das Klassifizieren von Objekten und ist vielfältig nutzbar. Unterstützt werden die lineare und die nicht-lineare Objektklassifizierung. Typische Anwendungsbereiche sind die Bild-, Text- oder Handschrifterkennung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Big Data Analytics?

Big Data Analytics ermöglicht es, große Datenmengen aus unterschiedlichen Quellen zu analysieren. Die gewonnenen Informationen oder erkannten Muster lassen sich einsetzen, um beispielsweise Unternehmensprozesse zu optimieren.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist das Industrial Internet of Things (IIoT)?

Das Industrial Internet of Things (IIoT) stellt die industrielle Ausprägung des Internet of Things (IoT) dar. Es repräsentiert im Gegensatz zum IoT nicht die verbraucherorientierten Konzepte, sondern konzentriert sich auf die Anwendung des Internets der Dinge im produzierenden und industriellen Umfeld.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Smart City?

In einer Smart City werden moderne Technologien aus den Bereichen Energie, Mobilität, Stadtplanung, Verwaltung und Kommunikation so miteinander vernetzt, dass sich die Lebensqualität für die Bewohner steigert. Gleichzeitig profitiert die Nachhaltigkeit der Stadt.

Weiterlesen
Definition

Was ist Generative AI?

Generative AI (Artificial Intelligence) ist eine Form von Künstlicher Intelligenz (KI), die auf Basis von Vorgaben und vorhandenen Informationen Inhalte generiert. Es kommen KI-Verfahren und -Technologien wie trainierte neuronale Netzwerke, maschinelles Lernen (Deep Learning) und KI-Algorithmen zum Einsatz, um nach Anweisungen Texte, Bilder, Audio- und Videoinhalte, Programmcode, 3D-Modelle und anderes zu erzeugen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Smart Factory?

Die Smart Factory steht im Zentrum der sogenannten Industrie 4.0. Sie stellt eine Produktionsumgebung zur Verfügung, die sich im Idealfall ohne menschlichen Eingriff selbst organisiert. Dazu zählen Fertigungsanlagen und Logistiksysteme. Kernkomponenten sind cyber-physische Systeme und die intelligente Vernetzung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Management-Informationssystem (MIS)?

Bei einem Management-Informationssystem (MIS) handelt es sich um ein computerunterstütztes Informationssystem, das wichtige Unternehmensinformationen für die Führungsebene sammelt und aufbereitet. Auf Basis der Informationen lassen sich Analysen durchführen, Probleme lösen oder strategische Entscheidungen treffen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Digitaler Zwilling?

Ein Digitaler Zwilling repräsentiert ein reales Objekt in der digitalen Welt. Es kann sich um materielle oder immaterielle Objekte handeln. Die Digitalen Zwillinge sind aus Daten und Algorithmen aufgebaut und können über Sensoren mit der realen Welt gekoppelt sein. Für die Prozesse der Industrie 4.0 stellen Digitale Zwillinge die Basis dar.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Python?

Python ist eine Programmiersprache, die dank ihrer klaren Syntax und einfachen Lesbarkeit leicht zu erlernen ist und sich sehr vielseitig einsetzen lässt. Für die gängigen Betriebssysteme ist Python frei verfügbar. Die üblichen Programmierparadigmen wie die objektorientierte oder funktionale Programmierung werden unterstützt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist der k-Means-Algorithmus?

Der k-Means-Algorithmus ist ein Rechenverfahren, das sich für die Gruppierung von Objekten, die sogenannte Clusteranalyse, einsetzen lässt. Dank der effizienten Berechnung der Clusterzentren und dem geringen Speicherbedarf eignet sich der Algorithmus sehr gut für die Analyse großer Datenmengen, wie sie im Big-Data-Umfeld üblich sind.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Data Literacy?

Data Literacy oder Datenkompetenz beschreibt die Fähigkeit, mit Daten kompetent umzugehen. Sie umfasst verschiedene Einzelkompetenzen, um Daten zu erfassen, anzupassen, zu verändern, zu interpretieren und zu präsentieren. Die Datenkompetenz ist Grundlage und wichtiger Skill der Digitalisierung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist XGBoost?

XGBoost ist eine frei verfügbare Bibliothek mit Open-Source-Lizenz. Sie ermöglicht überwachtes maschinelles Lernen mit dem Boosted-Tree-Algorithmus, einem Baumalgorithmus mit Gradient Boosting. Die Bibliothek ist für Betriebssysteme wie Linux, Windows oder macOS verfügbar und arbeitet mit Programmiersprachen wie C++, Java, Python, R und Julia.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist TCO (Total Cost of Ownership)?

Total Cost of Ownership, abgekürzt TCO, ist eine ganzheitliche Kostenbetrachtung von Produkten, Gütern oder Services, die nicht nur die Anschaffungskosten, sondern auch laufende direkte und indirekt Kosten über den kompletten Lebenszyklus hinweg berücksichtigt. Die Kostenbetrachtung bietet wichtige Hilfestellungen zur Beantwortung betriebswirtschaftlicher Fragestellungen wie Investitionsentscheidungen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine IT-Strategie?

Die IT-Strategie macht Vorgaben über die zukünftige Entwicklung der Informationstechnik (IT) und IT-Infrastruktur eines Unternehmens. Sie folgt immer der Unternehmensstrategie und ist eine zentrale Komponente des IT-Managements. Ziel der Strategie ist es, durch das Management der IT und die Definition der Rahmenbedingungen die langfristigen Unternehmensziele zu erreichen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist OPC UA?

OPC UA (Open Platform Communications Unified Architecture) ist eine Sammlung von Standards für die Kommunikation und den Datenaustausch im Umfeld der Industrieautomation. Mithilfe von OPC UA werden sowohl der Transport von Machine-to-Machine-Daten als auch Schnittstellen und die Semantik von Daten beschrieben. Die komplette Architektur ist serviceorientiert aufgebaut.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Data Steward?

Neben dem Data Owner hat der Data Steward eine Schlüsselposition in der Umsetzung der Data Governance inne. Er ist verantwortlich für die Einhaltung der Datenqualität und setzt die strategischen Vorgaben der Data Governance fachlich um. Innerhalb des Unternehmens agiert er als Ansprechpartner für die verschiedenen Fachabteilungen bei Fragen oder Problemen zur Datenqualität.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein KPI (Key Performance Indicator)?

Ein Key Performance Indicator, kurz KPI, ist eine aussagekräftige Kennzahl, mit der sich die Leistung einer Aktivität einer Organisation oder eines Unternehmens messen lässt. Es existieren viele verschiedene KPIs für unterschiedlichen Unternehmensbereiche und Tätigkeiten. Die leicht verständlichen Leistungsindikatoren können zur kontinuierlichen Überprüfung der Zielerreichung eingesetzt werden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Data Science?

Data Science ist eine angewandte, interdisziplinäre Wissenschaft. Ziel der Datenwissenschaft ist es, Wissen aus Daten zu generieren, um beispielsweise die Unternehmenssteuerung zu optimieren oder die Entscheidungsfindung zu unterstützen. Es kommen Methoden und Wissen aus verschiedenen Bereichen wie Mathematik, Statistik, Stochastik, Informatik und Branchen-Know-how zum Einsatz.

Weiterlesen