Dipl.-Ing. (FH) Stefan Luber ♥ BigData-Insider

Dipl.-Ing. (FH) Stefan Luber

Stefan Luber arbeitet als freiberuflicher Autor und technischer Redakteur für IT-Fachthemen und deckt als Dipl.-Ing. (FH) der Nachrichtentechnik ein breites Spektrum an IT-Themen ab.

Artikel des Autors

Definition

Was ist QNX?

QNX ist ein Unix-ähnliches Echtzeitbetriebssystem, das auf eine Entwicklung an der kanadischen Universität Waterloo in den 1980er-Jahren zurückgeht. Das Betriebssystem hat einen Echtzeit-Mikrokernel und lässt sich auf eingebetteten Systemen für viele verschiedene Anwendungen einsetzen. Im Automotive-Bereich wird es beispielsweise für das Fahrzeug-Infotainment genutzt. Mittlerweile gehört das Betriebssystem zu BlackBerry. Der Quellcode des Kernels ist seit 2007 öffentlich zugänglich.

Weiterlesen
Definition

Was ist VxWorks?

VxWorks ist ein proprietäres Real-Time Operating System von Wind River Systems. Es eignet sich für eine Vielzahl unterschiedlicher Prozessorarchitekturen. Die VxWorks-Entwicklungsumgebung ist auf verschiedenen Betriebssystemen wie Windows, Unix oder Linux einsetzbar. Typische Anwendungen von VxWorks sind in der Luft- und Raumfahrt, Medizintechnik, Industrieautomation, Netzwerktechnik und in zahlreichen weiteren Bereichen zu finden.

Weiterlesen
Definition

Was ist Fonduer?

Fonduer ist ein Python-Softwarepaket und Framework, mit dem sich Anwendungen für Knowledge Base Construction aus vielfältig und stark formatierten Daten realisieren lassen. Die Software steht unter Open-Source-Lizenz und ist frei verfügbar. Informationen lassen sich mit Fonduer aus stark formatierten Datenquellen wie Webseiten, Produktdatenblättern oder Geschäftsberichten extrahieren und in strukturierter Form in Datenbanken ablegen.

Weiterlesen
Definition

Was ist TinyML?

TinyML ist ein Machine-Learning-Ansatz, der maschinelles Lernen auf ressourcenbeschränkten Mikrocontrollern ermöglicht. Die eingesetzten Algorithmen arbeiten energieeffizient und kommen mit wenig Arbeitsspeicher und Rechenleistung aus. Die Machine-Learning-Inferenz lässt sich auf eingebetteten Systemen ausführen und ermöglicht vielfältige Anwendungen im IoT- und Edge-Computing-Umfeld.

Weiterlesen
Definition

Was ist das Megatron-Turing Natural Language Generation Model (MT-NLG)?

Das Megatron-Turing Natural Language Generation Model (MT-NLG) ist ein von den Unternehmen Microsoft und Nvidia entwickeltes und trainiertes generatives Sprachmodell. Es ist mit circa 530 Milliarden Parametern dreimal größer als das GPT-3-Sprachmodell. Für das Training des MT-NLG kamen Nvidia Selene Supercomputer und ein spezieller Software-Stack für verteiltes maschinelles Lernen zum Einsatz.

Weiterlesen
Definition

Was ist Apache Hop?

Apache Hop ist eine auf Open Source Software basierende Plattform für Daten-Engineering und Daten-Orchestrierung. Daten-Workflows und -Pipelines lassen sich über eine grafische Benutzeroberfläche visuell einrichten und mit Metadaten beschreiben. Apache Hop läuft in einer Java-Umgebung und ist betriebssystemunabhängig einsetzbar. Die Funktionalität der Hop-Engine lässt sich über Plug-ins erweitern.

Weiterlesen
Definition

Was ist RabbitMQ?

RabbitMQ ist eine frei verfügbare Message-Broker-Software unter Mozilla Public License. Sie ist eine Implementierung des Advanced Messaging Queue Protocols (AMQP) und verwaltet als zwischengeschalteter Dienst den Nachrichtenaustausch zwischen Sender und Empfänger. Die Software ist in der Programmiersprache Erlang geschrieben und für alle gängigen Betriebssysteme verfügbar.

Weiterlesen
Definition

Was ist Data Maturity?

Die Data Maturity (deutsch: Datenreife) beschreibt die Fähigkeit einer Organisation, effektiv mit Daten umzugehen und sie sinnvoll für interne oder externe Prozesse zu nutzen. Zu Beschreibung des Reifegrads im Umgang mit den Daten existieren verschiedene Datenreifemodelle. Sie definieren unterschiedliche Stufen der Data Maturity.

Weiterlesen
Definition

Was ist Egeria?

Egeria ist ein Open-Source-Standard der Open Data Platform initiative (ODPi). Er soll die Verwaltung und den plattform- und herstellerunabhängigen Austausch von Metadaten vereinfachen. Der Standard stellt die Integrationslogik, offene Application Programming Interfaces (APIs) und Formate für den Austausch und das Teilen von Metadaten in heterogenen Datenstrukturen zur Verfügung.

Weiterlesen
Definition

Was ist Metabase?

Metabase ist der Name einer Open Source Software. Sie bietet Self-Service Business Intelligence (BI) und ermöglicht umfangreiche Datenanalysen. Die Ergebnisse lassen sich in Dashboards visualisieren und mit anderen teilen. Für die Auswertung der Daten und deren Visualisierung sind keine spezifischen SQL-Kenntnisse notwendig. Metabase arbeitet mit vielen verschiedenen Datenbanksystemen zusammen.

Weiterlesen
Definition

Was ist das Multitask Unified Model (MUM)?

Das Multitask Unified Model (MUM) ist eine neue Technologie für die Google-Suche. Sie arbeitet KI-gestützt und ist in der Lage, komplexe Suchanfragen zu verstehen und zu beantworten. MUM ist multimodal und bezieht Informationen in verschiedenen Sprachen und unterschiedlichen Formaten in die Beantwortung der Fragen mit ein. Sie versteht neben Text auch Bilder, Videos und Audiodateien. Das Update wird für Ende 2021 beziehungsweise Anfang 2022 erwartet.

Weiterlesen
Definition

Was ist GDELT?

GDELT ist eine frei zugängliche Datenbank, die weltweit Ereignisse und Nachrichten erfasst, speichert und für Analysezwecke bereitstellt. Seit 1979 sammelt das GDELT-Projekt die Daten zahlreicher Print-, Online- und Broadcast-Medien in mehr als 100 verschiedenen Sprachen. Die Daten sind auch über die Google Cloud Platform (GCP) verfügbar und lassen sich mit Google BigQuery auswerten.

Weiterlesen
Definition

Was ist ein Directed Acyclic Graph (DAG)?

Ein Directed Acyclic Graph (DAG) ist eine abstrakte Struktur, die aus Knoten und Kanten besteht. Die Kanten bilden die Verbindungen zwischen den Knoten und besitzen eine Richtung. Schleifen sind in der Struktur ausgeschlossen. Folgt man der Richtung der Kanten, gelangt man von einem Startpunkt (Startknoten) zu einem Zielknoten und niemals zurück an den Ausgangsknoten. Es entsteht eine topologische Ordnung. Mit DAGs lassen sich beispielsweise kausale Zusammenhänge gut darstellen.

Weiterlesen
Definition

Was ist Nvidia AI Enterprise?

Nvidia AI Enterprise ist eine Software Suite für die Ausführung von Workloads Künstlicher Intelligenz und für Datenanalysen. Sie ist Cloud-native und bietet eine hohe Performance. Vorgesehen ist die Software Suite für Nvidia-zertifizierte Systeme und die Virtualisierungsplattform VMware vSphere. Nvidia AI Enterprise zertifizierte Systeme mit Nvidia-GPUs sind von zahlreichen namhaften Hardwareherstellern erhältlich.

Weiterlesen
Definition

Was ist Apache Superset?

Bei Apache Superset handelt es sich um eine Business-Intelligence-Webanwendung. Die Open Source Software ist ein Projekt der Apache Software Foundation und lässt sich zum Untersuchen und Visualisieren großer Datenmengen einsetzen. Sie ist intuitiv bedienbar und bietet viele Darstellungsmöglichkeiten – von einfachen Liniendiagrammen bis zu komplexen räumlichen Diagrammen. Apache Superset steht unter Apache-2.0-Lizenz und unterstützt viele verschiedene Datenbanken.

Weiterlesen
Definition

Was ist Zephyr Real-Time Operating System (RTOS)?

Das Zephyr Real-Time Operating System (RTOS) ist ein frei verfügbares Open-Source-Echtzeitbetriebssystem der Linux Foundation. Es ist für das Internet der Dinge (IoT) konzipiert. Aufgrund des geringen Ressourcenbedarfs eignet es sich für Geräte mit beschränkter Leistungsfähigkeit wie eingebettete Geräte. Das Zephyr RTOS unterstützt eine Vielzahl verschiedener Hardware-Plattformen.

Weiterlesen
Definition

Was ist Nucleus RTOS?

Nucleus RTOS ist ein Echtzeitbetriebssystem (Real-Time Operating System) von Mentor Graphics. Es ist für eingebettete System vorgesehen und unterstützt eine Vielzahl an 32- und 64-Bit-Hardwareplattformen. Das Echtzeitbetriebssystem eignet sich für IoT- und Cloud-Anwendungen und bietet Funktionen wie Multicore-Support, Power-Management, Multimedia-Support, Verschlüsselung und vieles mehr.

Weiterlesen
Definition

Was ist OMA Device Management?

OMA Device Management ist ein von der Open Mobile Alliance spezifiziertes Protokoll. Es ist zur Verwaltung mobiler Geräten wie Mobiltelefone, Smartphones, Tablets und anderer mobiler Smart Devices vorgesehen. Zu den unterstützten Funktionen des Protokolls zählen die Konfiguration der Geräte, die Durchführung von Software-Updates, das Monitoring des Gerätestatus und das Fehlermanagement.

Weiterlesen
Definition

Was ist Nvidia Drive OS?

Nvidia Drive OS ist ein Betriebssystem, auf dessen Basis sich Anwendungen für autonomes Fahren entwickeln und betreiben lassen. Das Betriebssystem ist für die Nvidia-Drive-Hardwareplattform vorgesehen und stellt eine sichere und zuverlässige Anwendungsumgebung zur Verfügung. Services von Nvidia Drive OS sind beispielsweise das sichere Booten, Firewall oder Over-the-air-Updates (OTA-Updates).

Weiterlesen
Definition

Was ist Operational Intelligence?

Operational Intelligence (OI) beschreibt einen methodischen und technologischen Ansatz, der Business-Analysen in Echtzeit ermöglicht. Entscheidungen und Maßnahmen lassen sich direkt aus den in Echtzeit bereitgestellten Datenanalysen ableiten. OI sorgt für transparente Geschäftsprozesse. Datensammlung und -analyse sind automatisiert und direkt in den Systemablauf integrierbar. Echtzeitvisualisierungen und interaktive Dashboards zählen zu den zentralen OI-Merkmalen.

Weiterlesen
Definition

Was ist Yedalog?

Yedalog ist der Name einer von Google entwickelten deklarativen Programmiersprache. Sie lässt sich für Aufgaben der Verarbeitung und Manipulation semistrukturierter Daten sowie für parallele Datenpipelines einsetzen. Yedalog basiert auf Datalog. Yedalog-Programme können auf einzelnen Rechnern oder in verteilten Umgebungen ausgeführt werden. Die Nachfolgesprache von Yedalog ist die ebenfalls von Google entwickelte freie Open-Source-Programmiersprache Logica.

Weiterlesen
Definition

Was ist AWS DeepRacer?

Mit dem AWS DeepRacer bietet Amazon eine unterhaltsame Einstiegsmöglichkeit in das Machine Learning und Reinforcement Learning. Es lassen sich Machine-Learning-Modelle erstellen, trainieren und optimieren, die anschließend in Form eines KI-gestützten Rennsimulators an virtuellen Rennen teilnehmen können. Durch den Einsatz des Hardware-basierten autonomen DeepRacer-Modellautos sind Rennen auf echten Strecken möglich.

Weiterlesen
Definition

Was ist Apache Druid?

Apache Druid ist eine Open Source Software, mit der sich ein High-Performance-Datenspeicher für Echtzeitanalysen realisieren lässt. Der Datenspeicher vereint Konzepte von Zeitreihendatenbanken und Data Warehouses. Es handelt sich um einen fehlertoleranten, spaltenorientiert arbeitenden, verteilten Datenspeicher. Typische Anwendungen sind im OLAP- und im Business-Intelligence-Umfeld zu finden.

Weiterlesen
Definition

Was ist Debezium?

Debezium ist ein Open Source Framework für Change Data Capture (CDC). Es erfasst Änderungen in einer Datenbank und stellt sie in Form von Event-Streams anderen Anwendungen zur Verfügung. Die Verbindung zu den Datenbanken und deren Überwachung ist über Konnektoren realisiert. Es sind Konnektoren für zahlreiche verschiedene Datenbankmanagementsysteme verfügbar.

Weiterlesen
Definition

Was ist ucode?

Das ucode-System ist ein Nummernsystem, mit dem sich physische Objekte oder Orte mit eindeutigen Nummern kennzeichnen und identifizieren lassen. Es basiert auf 128 Bit langen ucodes, die sich mit verschiedenen Tag-Arten wie RFID-Tags oder gedruckten Tags abbilden lassen. Das ucode-System kann beispielsweise als eine Komponente des Internets der Dinge (IoT) zum Einsatz kommen.

Weiterlesen
Definition

Was ist FreeRTOS?

FreeRTOS ist ein kostenlos erhältliches Open-Source-Echtzeitbetriebssystem für eingebettete Systeme. Es eignet sich für viele unterschiedliche Mikrocontroller-Architekturen und steht unter MIT-Lizenz. Mittlerweile hat Amazon die Hauptverantwortung für das Projekt und die Weiterentwicklung der Software übernommen. Neben dem Kernel des Betriebssystems sind viele Bibliotheken für unterschiedliche Funktionen verfügbar.

Weiterlesen
Definition

Was ist WebSocket?

WebSocket ist ein auf dem Transportprotokoll TCP basierendes Netzwerkprotokoll, das bidirektionale Verbindungen zwischen einer Webanwendung und einem WebSocket-Server herstellt. Diese Verbindungen erlauben einen effizienten, schnellen und dynamischen Informationsaustausch. Sie eignen sich für Echtzeit-Web-Applikationen. Alle derzeit gängigen Webbrowser unterstützen WebSocket. Die WebSocket-Verbindung wird in einem Handshake-Verfahren über eine HTTP-Anfrage ausgehandelt und aufgebaut.

Weiterlesen
Definition

Was ist The Physical Web?

The Physical Web ist ein ursprünglich von Google im Jahr 2014 gestartetes Open-Source-Projekt. Es soll eine einfache Interaktion mit physischen Objekten per Smartphone ermöglichen. Die Technik basiert auf Beacons und Bluetooth Low Energy oder Network Service Discovery. Mittlerweile hat Google die Unterstützung der Technik weitestgehend eingestellt. Seit 2018 versucht die Physical Web Association das Projekt fortzuführen.

Weiterlesen
Definition

Was ist das Constrained Application Protocol (CoAP)?

Das Constrained Application Protocol ist ein von der Standardisierungsorganisation IETF speziell für Geräte mit geringer Leistung und für schmalbandige Netzwerke mit eingeschränkter Verbindungsqualität entwickeltes Web-Transfer-Protokoll. Es eignet sich für das Internet der Dinge (IoT) und die Machine-to-Machine-Kommunikation (M2M). CoAP basiert auf den Funktionsprinzipien der REST-Architektur und verwendet standardmäßig UDP für den Transport der Daten.

Weiterlesen
Definition

Was ist AWS DeepLens?

AWS DeepLens ist eine bei Amazon erhältliche Machine-Learning-fähige, programmierbare Videokamera. Sie eignet sich für die Objekterkennung oder die Objektklassifizierung und die Entwicklung eigener Machine-Learning-basierter Videoanwendungen. Benutzerdefinierte Deep-Learning-Modelle oder Beispielmodelle lassen sich lokal auf der Videokamera bereitstellen. Anhand von Tutorials und Beispielcode ermöglicht Amazon den Entwicklern einen schnellen Einstieg in das Machine Learning.

Weiterlesen
Definition

Was ist Digitalisierung?

Digitalisierung bezeichnet im ursprünglichen Sinn das Umwandeln von analogen Werten in digitale Formate. Diese Daten lassen sich informationstechnisch verarbeiten. Oft steht der Begriff Digitalisierung aber auch für die digitale Revolution oder die digitale Transformation.

Weiterlesen
Definition

Was ist SAP BW?

SAP BW ist ein Business-Intelligence-Paket von SAP und ermöglicht umfangreiche Auswertungen und Reports auf Basis von unterschiedlichsten Unternehmensdaten. Es besteht aus einer Kombination von Datenbanken, Datenbankmanagement-Tools sowie Analyse und Reporting-Anwendungen.

Weiterlesen
Definition

Was ist das Internet of Things?

Im Internet der Dinge (Englisch: Internet of Things, IoT) bekommen Gegenstände eine eindeutige Identität und können miteinander kommunizieren oder Befehle entgegennehmen. Mit dem Internet of Things lassen sich Anwendungen automatisieren und Aufgaben ohne Eingriff von außen erledigen.

Weiterlesen
Definition

Was ist Machine Learning?

Machine Learning, im Deutschen maschinelles Lernen, ist ein Teilgebiet der künstlichen Intelligenz. Durch das Erkennen von Mustern in vorliegenden Datenbeständen sind IT-Systeme in der Lage, eigenständig Lösungen für Probleme zu finden.

Weiterlesen
Definition

Was ist Natural Language Processing?

Die Abkürzung NLP steht für Natural Language Processing und beschreibt Techniken und Methoden zur maschinellen Verarbeitung natürlicher Sprache. Ziel ist eine direkte Kommunikation zwischen Mensch und Computer auf Basis der natürlichen Sprache.

Weiterlesen
Definition

Was ist ein Neuronales Netz?

Künstliche Neuronale Netze (KNN) sind inspiriert durch das menschliche Gehirn und lassen sich für maschinelles Lernen und die Künstliche Intelligenz einsetzen. Es lassen sich mit diesen Netzen verschiedene Problemstellungen computerbasiert lösen.

Weiterlesen
Definition

Was ist ein Cyber-physisches System (CPS)?

In einem Cyber-physischen System (cyber-physical system, CPS) sind mechanische Komponenten über Netzwerke und moderne Informationstechnik miteinander verbunden. Sie ermöglichen die Steuerung und die Kontrolle von komplexen Systemen und Infrastrukturen. Für die Industrie 4.0 spielen Cyber-physische Systeme eine zentrale Rolle.

Weiterlesen
Definition

Was ist ein Data Warehouse?

Das Data Warehouse stellt ein zentrales Datenbanksystem dar, das zu Analysezwecken im Unternehmen einsetzbar ist. Das System extrahiert, sammelt und sichert relevante Daten aus verschiedenen heterogenen Datenquellen und versorgt nachgelagerte Systeme.

Weiterlesen
Definition

Was ist CRISP-DM?

CRISP-DM (Cross Industry Standard Process for Data Mining) ist ein von der EU gefördertes, branchenübergreifendes Standardmodell für das Data Mining. Es wurde 1996 unter Mitarbeit zahlreicher namhafter Konzerne entwickelt und definiert insgesamt sechs verschiedene Prozessphasen. CRISP-DM ist anwendungsneutral und in beliebigen Bereichen einsetzbar.

Weiterlesen
Definition

Was ist eine relationale Datenbank?

Relationale Datenbanken ist das am weitesten verbreitete Datenbankmodell. Es setzt auf das relationale Datenbankmodell, das auf der Speicherung von Informationen in verschiedenen Tabellen basiert, die untereinander über Beziehungen (Relationen) verknüpft sind.

Weiterlesen
Definition

Was ist Deep Learning?

Deep Learning ist ein Teilbereich des Machine Learnings und nutzt neuronale Netze sowie große Datenmengen. Die Lernmethoden richten sich nach der Funktionsweise des menschlichen Gehirns und resultieren in der Fähigkeit eigener Prognosen oder Entscheidungen.

Weiterlesen
Definition

Was ist ein Chatbot?

Bei einem Chatbot handelt es sich um ein technisches Dialogsystem, mit dem per Texteingabe oder Sprache kommuniziert werden kann. Chatbots werden häufig eingesetzt, um Anfragen automatisiert und ohne direkten menschlichen Eingriff zu beantworten oder zu bearbeiten.

Weiterlesen
Definition

Was ist Data Mining?

Data Mining ist die systematische Anwendung computergestützter Methoden, um in vorhandenen Datenbeständen Muster, Trends oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren unter anderem auf statistischen Methoden.

Weiterlesen
Definition

Was ist ein Datenbankmanagementsystem?

Das Datenbankmanagementsystem, abgekürzt DBMS, ist neben den eigentlichen Daten der wichtigste Bestandteil einer jeden Datenbank. Es übernimmt die Aufgabe der Organisation und Strukturierung der Daten. Gleichzeitig kontrolliert es lesende und schreibende Zugriffe.

Weiterlesen
Definition

Was ist NoSQL?

NoSQL steht für „Not only SQL“ und bezeichnet Datenbanksysteme, die einen nicht-relationalen Ansatz verfolgen. Diese Datenbanken, denen verschiedene Datenbankmodelle zugrunde liegen können, sind horizontal skalierbar und lassen sich für Big-Data-Anwendungen einsetzen.

Weiterlesen
Definition

Was ist ein Data Lake?

Beim Data Lake handelt es sich um einen sehr großen Datenspeicher, der die Daten aus den unterschiedlichsten Quellen in ihrem Rohformat aufnimmt. Er kann sowohl unstrukturierte als auch strukturierte Daten enthalten und lässt sich für Big-Data-Analysen einsetzen.

Weiterlesen
Definition

Was ist Hadoop?

Bei Hadoop handelt es sich um ein auf Java basierendes Software Framework. Mit ihm lassen sich große Datenmengen auf verteilten Systemen in hoher Geschwindigkeit verarbeiten. Es ist zur Bewältigung der Datenverarbeitung im Big-Data-Umfeld geeignet.

Weiterlesen
Definition

Was ist eine Entität?

Eine Entität in der Informatik ist ein einzelnes, eindeutig identifizierbares Informationsobjekt. Es kann sich sowohl um existierende als auch um abstrakte Objekte handeln. Entitäten sind zusammen mit den Entitätstypen und Attributen sowie den Beziehungen zwischen den Entitäten wesentliche Elemente der Datenmodellierung.

Weiterlesen
Definition

Was ist ACID?

Der Begriff ACID (Atomicity, Consistency, Isolation, Durability) beschreibt Regeln und Eigenschaften zur Durchführung von Transaktionen in Datenbankmanagementsystemen (DBMS). Hält die Transaktion das ACID-Prinzip ein, gelten die Informationen in den Datenbanksystemen als verlässlich und konsistent.

Weiterlesen
Definition

Was ist Validierung?

Datenvalidierung prüft Daten auf Einhaltung bestimmter Validierungsregeln. Diese wurden zuvor aufgestellt und beinhalten beispielsweise Vorgaben zu Wertebereichen oder Formaten. Die Datenvalidierung verbessert die Ergebnisse der Datenverarbeitung und Datenanalyse. Sie kann bei der Eingabe der Daten, direkt vor dem Start oder während der Datenverarbeitung stattfinden.

Weiterlesen
Definition

Was ist Predictive Maintenance?

Predictive Maintenance verfolgt als eine der Kernkomponenten von Industrie 4.0 einen vorausschauenden Ansatz und wartet Maschinen und Anlagen proaktiv, um Ausfallzeiten niedrig zu halten. Das Verfahren nutzt hierfür von Sensoren erfasste Messwerte und Daten.

Weiterlesen
Definition

Was ist Normalisierung?

Die Normalisierung findet bei relationalen Datenbankschemata statt und hat zum Ziel, Redundanzen, Inkonsistenzen und Anomalien zu vermeiden und zu beseitigen. Zur Durchführung kommen bis zu fünf verschiedene aufeinander aufbauende Normalformen zum Einsatz. Normalisierte Datenbanken folgen einem klar strukturierten Modell.

Weiterlesen
Definition

Was ist Apache Kafka?

Apache Kafka ist eine Open Source Software, die die Speicherung und Verarbeitung von Datenströmen über eine verteilte Streaming-Plattform ermöglicht. Sie stellt verschiedene Schnittstellen bereit, um Daten in Kafka-Cluster zu schreiben, Daten zu lesen oder in und aus Drittsysteme zu importieren und zu exportieren.

Weiterlesen
Definition

Was ist ETL (Extract, Transform, Load)?

Beim ETL-Prozess handelt es sich um mehrere Einzelschritte, durch die sich Daten aus verschiedenen Datenquellen per Extrahieren und Aufbereiten in ein Data Warehouse integrieren lassen. Der Prozess kommt häufig zur Verarbeitung großer Datenmengen im Big-Data- und Business-Intelligence-Umfeld zum Einsatz.

Weiterlesen
Definition

Was ist ODBC?

Bei ODBC (Open Database Connectivity) handelt es sich um eine standardisierte, offene Schnittstelle für den Zugriff auf unterschiedliche Datenbankmanagementsysteme. Über ODBC-Treiber können Anwendungen direkt Anweisungen an Datenbanken erteilen oder Abfragen ausführen.

Weiterlesen
Definition

Was ist Big Data Analytics?

Big Data Analytics ermöglicht es, große Datenmengen aus unterschiedlichen Quellen zu analysieren. Die gewonnenen Informationen oder erkannten Muster lassen sich einsetzen, um beispielsweise Unternehmensprozesse zu optimieren.

Weiterlesen
Definition

Was ist ein Digitaler Zwilling?

Ein Digitaler Zwilling repräsentiert ein reales Objekt in der digitalen Welt. Es kann sich um materielle oder immaterielle Objekte handeln. Die Digitalen Zwillinge sind aus Daten und Algorithmen aufgebaut und können über Sensoren mit der realen Welt gekoppelt sein. Für die Prozesse der Industrie 4.0 stellen Digitale Zwillinge die Basis dar.

Weiterlesen
Definition

Was ist ein BLOB?

Ein BLOB (Binary Large Object ) ist ein großes binäres Datenobjekt, das von Datenbanken meist in besonderer Form verarbeitet und gespeichert wird. Typische BLOBs sind Dateien wie Video-, Audio- oder Bilddateien

Weiterlesen
Definition

Was sind unstrukturierte Daten?

Unstrukturierte Daten sind Informationen, die in einer nicht identifizierbaren und nicht normalisierten Datenstruktur vorliegen. Es kann sich beispielsweise um Texte, Bilder oder Audio- und Videodateien handeln. Im Big-Data-Umfeld haben unstrukturierte Daten eine große Bedeutung.

Weiterlesen
Definition

Was ist Random Forest?

Random Forest ist ein Algorithmus, der sich für Klassifizierungs- und Regressionsaufgaben nutzen lässt. Er kombiniert die Ergebnisse vieler verschiedener Entscheidungsbäume, um bestmögliche Entscheidungen zu treffen. Der Lernalgorithmus gehört zu den Verfahren des überwachten Lernens und ist im Machine Learning einsetzbar. Das Verfahren ist relativ einfach und bietet kurze Trainingszeiten.

Weiterlesen
Definition

Was ist das Industrial Internet of Things (IIoT)?

Das Industrial Internet of Things (IIoT) stellt die industrielle Ausprägung des Internet of Things (IoT) dar. Es repräsentiert im Gegensatz zum IoT nicht die verbraucherorientierten Konzepte, sondern konzentriert sich auf die Anwendung des Internets der Dinge im produzierenden und industriellen Umfeld.

Weiterlesen
Definition

Was ist eine Smart Factory?

Die Smart Factory steht im Zentrum der sogenannten Industrie 4.0. Sie stellt eine Produktionsumgebung zur Verfügung, die sich im Idealfall ohne menschlichen Eingriff selbst organisiert. Dazu zählen Fertigungsanlagen und Logistiksysteme. Kernkomponenten sind cyber-physische Systeme und die intelligente Vernetzung.

Weiterlesen
Definition

Was ist eine Smart City?

In einer Smart City werden moderne Technologien aus den Bereichen Energie, Mobilität, Stadtplanung, Verwaltung und Kommunikation so miteinander vernetzt, dass sich die Lebensqualität für die Bewohner steigert. Gleichzeitig profitiert die Nachhaltigkeit der Stadt.

Weiterlesen
Definition

Was ist ein Convolutional Neural Network?

Das Convolutional Neural Network ist eine besondere Form des künstlichen neuronalen Netzwerks. Es besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich Bild- und Spracherkennung sehr gut geeignet.

Weiterlesen
Definition

Was ist XGBoost?

XGBoost ist eine frei verfügbare Bibliothek mit Open-Source-Lizenz. Sie ermöglicht überwachtes maschinelles Lernen mit dem Boosted-Tree-Algorithmus, einem Baumalgorithmus mit Gradient Boosting. Die Bibliothek ist für Betriebssysteme wie Linux, Windows oder macOS verfügbar und arbeitet mit Programmiersprachen wie C++, Java, Python, R und Julia.

Weiterlesen
Definition

Was ist OPC UA?

OPC UA (Open Platform Communications Unified Architecture) ist eine Sammlung von Standards für die Kommunikation und den Datenaustausch im Umfeld der Industrieautomation. Mithilfe von OPC UA werden sowohl der Transport von Machine-to-Machine-Daten als auch Schnittstellen und die Semantik von Daten beschrieben. Die komplette Architektur ist serviceorientiert aufgebaut.

Weiterlesen
Definition

Was ist eine Support Vector Machine?

Die Support Vector Machine (SVM) ist eine mathematische Methode, die im Umfeld des maschinellen Lernens zum Einsatz kommt. Sie gestattet das Klassifizieren von Objekten und ist vielfältig nutzbar. Unterstützt werden die lineare und die nicht-lineare Objektklassifizierung. Typische Anwendungsbereiche sind die Bild-, Text- oder Handschrifterkennung.

Weiterlesen
Definition

Was ist ein Management-Informationssystem (MIS)?

Bei einem Management-Informationssystem (MIS) handelt es sich um ein computerunterstütztes Informationssystem, das wichtige Unternehmensinformationen für die Führungsebene sammelt und aufbereitet. Auf Basis der Informationen lassen sich Analysen durchführen, Probleme lösen oder strategische Entscheidungen treffen.

Weiterlesen
Definition

Was ist eine Pivot-Tabelle?

Eine Pivot-Tabelle strukturiert in Tabellenform vorliegende Daten, fasst sie zusammen und ermöglicht ihre Auswertung. Die Tabellenart gehört zu den Grundfunktionen aller gängigen Tabellenkalkulationsanwendungen. Für die Erstellung einer Pivot-Tabelle sind nur wenige Grundbedingungen zu erfüllen. Komplexe Formeln oder das Anwenden von SQL-Datenbankabfragen sind dank Pivot-Tabellen zum Teil überflüssig.

Weiterlesen
Definition

Was ist Python?

Python ist eine Programmiersprache, die dank ihrer klaren Syntax und einfachen Lesbarkeit leicht zu erlernen ist und sich sehr vielseitig einsetzen lässt. Für die gängigen Betriebssysteme ist Python frei verfügbar. Die üblichen Programmierparadigmen wie die objektorientierte oder funktionale Programmierung werden unterstützt.

Weiterlesen
Definition

Was ist Data Literacy?

Data Literacy oder Datenkompetenz beschreibt die Fähigkeit, mit Daten kompetent umzugehen. Sie umfasst verschiedene Einzelkompetenzen, um Daten zu erfassen, anzupassen, zu verändern, zu interpretieren und zu präsentieren. Die Datenkompetenz ist Grundlage und wichtiger Skill der Digitalisierung.

Weiterlesen
Definition

Was ist eine IT-Strategie?

Die IT-Strategie macht Vorgaben über die zukünftige Entwicklung der Informationstechnik (IT) und IT-Infrastruktur eines Unternehmens. Sie folgt immer der Unternehmensstrategie und ist eine zentrale Komponente des IT-Managements. Ziel der Strategie ist es, durch das Management der IT und die Definition der Rahmenbedingungen die langfristigen Unternehmensziele zu erreichen.

Weiterlesen
Definition

Was ist das ARIMA-Modell?

Das ARIMA-Modell ermöglicht die Beschreibung und Analyse von Zeitreihen. Es handelt sich um eine leistungsstarke Modellklasse, die den autoregressiven Teil und den gleitenden Mittelwertbeitrag des ARMA-Modells um die Differenzierung und Integration zur Trendbeseitigung und Herstellung der Stationarität erweitert.

Weiterlesen
Definition

Was ist TCO (Total Cost of Ownership)?

Total Cost of Ownership, abgekürzt TCO, ist eine ganzheitliche Kostenbetrachtung von Produkten, Gütern oder Services, die nicht nur die Anschaffungskosten, sondern auch laufende direkte und indirekt Kosten über den kompletten Lebenszyklus hinweg berücksichtigt. Die Kostenbetrachtung bietet wichtige Hilfestellungen zur Beantwortung betriebswirtschaftlicher Fragestellungen wie Investitionsentscheidungen.

Weiterlesen
Definition

Was ist der k-Means-Algorithmus?

Der k-Means-Algorithmus ist ein Rechenverfahren, das sich für die Gruppierung von Objekten, die sogenannte Clusteranalyse, einsetzen lässt. Dank der effizienten Berechnung der Clusterzentren und dem geringen Speicherbedarf eignet sich der Algorithmus sehr gut für die Analyse großer Datenmengen, wie sie im Big-Data-Umfeld üblich sind.

Weiterlesen
Definition

Was ist CUDA?

CUDA ist eine von NVIDIA entwickelte Technologie und Programmierschnittstelle, mit der sich die Rechenleistung von Grafikprozessoren (GPUs) für Anwendungen nutzen lässt. Aufgrund der hohen Rechenleistung und parallelen Arbeitsweise der GPUs sind bei bestimmten Anwendungen enorme Performancegewinne erzielbar.

Weiterlesen
Definition

Was ist Data Quality?

Die Data Quality bestimmt, wie gut sich Datenbestände für vorgesehene Aufgaben eignen. Das können beispielsweise Anwendungen aus dem Business-Intelligence-Umfeld sein. Es existieren zahlreiche Kriterien, anhand derer sich die Data Quality bewerten lässt.

Weiterlesen
Definition

Was ist MapReduce?

Bei MapReduce handelt es sich um ein von Google entwickeltes Verfahren, mit dem sich große strukturierte oder unstrukturierte Datenmengen mit hoher Geschwindigkeit verarbeiten lassen. MapReduce nutzt die Parallelisierung von Aufgaben und deren Verteilung auf mehrere Systeme.

Weiterlesen
Definition

Was ist Prescriptive Analytics?

Prescriptive Analytics geht der Frage nach, wie sich verschiedene Vorgehensweisen auf ein Ergebnis auswirken. Unternehmen erhalten dadurch Handlungsanweisungen und die Möglichkeit, die Entscheidungsfindung zu automatisieren. Prescriptive Analytics ist Teil der Business-Analyse.

Weiterlesen