Dipl.-Ing. (FH) Stefan Luber ♥ BigData-Insider

Dipl.-Ing. (FH) Stefan Luber

Stefan Luber arbeitet als freiberuflicher Autor und technischer Redakteur für IT-Fachthemen und deckt als Dipl.-Ing. (FH) der Nachrichtentechnik ein breites Spektrum an IT-Themen ab.

Artikel des Autors

0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist ein Data Engineer?

Ein Data Engineer schafft die Grundlagen für eine professionelle Nutzung von Daten. Er trägt Daten zusammen, bereitet sie auf und stellt sie Datenkonsumenten wie Datenwissenschaftlern oder Datenanalysten zur Verfügung. Neben dem Erstellen von Datenpipelines beschäftigt er sich mit relationalen Datenbanken, Big-Data- und Cloud-Technologien, ETL-Tools und einigem mehr. Ein Data Engineer benötigt umfangreiches Wissen im Bereich Datenverarbeitung und Dateninfrastrukturen.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist ein Data Architect?

Ein Data Architect übersetzt geschäftliche und prozessuale Anforderungen in eine ganzheitliche Datenarchitektur. Er ist für Design, Implementierung und Pflege dieser Architektur verantwortlich. Zu seinen Aufgaben zählen unter anderem die Auswahl des Technologie-Stacks, die Entscheidung für On-premises- oder cloudbasierte Architekturen und die Festlegung von Datenquellen. Im Vergleich zum Data Engineer ist er weniger praktisch, sondern mehr konzeptionell und strategisch tätig.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist der Dirichlet-Prozess?

Beim Dirichlet-Prozess handelt es sich um eine Familie stochastischer Prozesse der Wahrscheinlichkeitstheorie. Er basiert auf der nach Johann Peter Gustav Lejeune Dirichlet benannten Dirichletverteilung, einer Familie multivarianter Wahrscheinlichkeitsverteilungen. Der Dirichlet-Prozess bildet eine Wahrscheinlichkeitsverteilung von Wahrscheinlichkeitsverteilungen. Einsatzbereiche sind die bayessche Inferenz und Anwendungen wie maschinelles Lernen, Data Mining oder die Verarbeitung natürlicher Sprache.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist die Levenshtein-Distanz?

Die Levenshtein-Distanz ist die minimale Anzahl der notwendigen Änderungen, um zwei Zeichenketten aneinander anzugleichen. Sie wird auch als Editierdistanz bezeichnet und ermöglicht computerbasiert zu berechnen, wie ähnlich zwei Zeichenketten sind. Der Algorithmus arbeitet mit einer Matrixberechnung. Typischerweise kommt die Editierdistanz für Anwendungen wie die Rechtschreibprüfung oder für Suchfunktionen zum Einsatz.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Latent Dirichlet Allocation (LDA)?

Latent Dirichlet Allocation (LDA) ist ein für die Themenmodellierung eingesetztes generatives, statistisches Wahrscheinlichkeitsmodell. Es ist in der Lage, latente Themen eines Dokuments zu identifizieren und Wörter diesen Themen zuzuordnen. LDA wird häufig im Umfeld der Verarbeitung natürlicher Sprache (Natural Language Processing – NLP) verwendet, ist aber auch in der Bildverarbeitung und anderen Anwendungen, wie in der Bioinformatik, einsetzbar.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Chinchilla?

Chinchilla ist ein sehr leistungsfähiges Sprachmodell von DeepMind. Es umfasst „nur“ 70 Milliarden Parameter, wurde aber mit 1,4 Billionen Token trainiert. Chinchilla übertrifft Sprachmodelle mit wesentlich mehr Parametern wie GPT-3, Gopher oder Megatron-Turing NLG in fast allen NLP-Benchmarks. Das Chinchilla-Sprachmodell geht auf ein 2022 von DeepMind veröffentlichtes Paper zurück, das das optimale Verhältnis der Anzahl von Parametern und Trainings-Token von Sprachmodellen empirisch untersucht.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Apache Pulsar?

Apache Pulsar ist der Name eines verteilten Publish-Subscribe-Messaging-Systems der Apache Software Foundation (ASF). Die Open Source Software wurde ursprünglich von Yahoo entwickelt und konkurriert mit anderen Messaging- und Streaming-Systemen wie Apache Kafka. Als dauerhaften Nachrichtenspeicher nutzt Pulsar Apache BookKeeper. Das Messaging-System arbeitet Cloud-nativ, ist in großem Umfang skalierbar, bietet eine niedrige Latenz und garantiert die Zustellung der Nachrichten.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist PaLM (Pathways Language Model)?

Das Pathways Language Model (PaLM) ist ein von Google 2022 vorgestelltes Sprachmodell. Es hat 540 Milliarden Parameter und erzielt in verschiedenen NLP-Benchmarks beeindruckende Ergebnisse. In einigen Bereichen soll es mit menschlichen Leistungen vergleichbar sein. PaLM nutzt die multitaskingfähige Pathways-KI-Architektur. Trainiert wurde das Sprachmodell per Few-Shot Learning auf dem Pathways-System mit 6.144 TPU-v4-Chips.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Vertex AI?

Vertex AI ist ein voll gemanagter Cloud-Service der Google Cloud Platform (GCP). Er stellt eine Machine-Learning-Plattform für alle Lebenszyklen von Machine-Learning-Anwendungen bereit – vom Training der Modelle bis zu ihrem produktiven Einsatz. KI-Tools wie AutoML, AI Platform und viele weitere sind über eine einheitliche Benutzeroberfläche und API erreichbar. Die Plattform ist für Datenwissenschaftler und ML-Engineers konzipiert und deckt das MLOps-Konzept (Machine Learning Operations) ab

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Spanner Change Streams?

Mit Spanner Change Streams lassen sich Änderungen in einer Google-Cloud-Spanner-Datenbank in nahezu Echtzeit nachverfolgen und streamen. Change Streams sind für komplette Datenbanken oder einzelne Tabellen und Tabellenbereiche konfigurierbar. Das Change-Streams-Feature ist Bestandteil von Google Cloud Spanner, einem Cloud-Service für relationale Datenbanken, und wird ohne Extrakosten im Rahmen des nutzungsbasierten Preismodells abgerechnet.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Google Cloud Spanner?

Google Cloud Spanner ist ein cloudbasierter Service für eine vollständig von Google verwaltete relationale Datenbank. Sie wird auf der Google Cloud Platform (GCP) produziert und ist horizontal skalierbar. Die Datenbank bietet SQL-Unterstützung, strikte Konsistenz und eine Verfügbarkeit von bis zu 99,999 Prozent. Der global verteilte Datenbankdienst steht für Google-Kunden seit 2017 öffentlich zur Verfügung und dient auch als Basis zahlreicher interner Services von Google.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist BigQuery?

BigQuery ist ein Analytics-Webservice von Google. Der Webservice wird auf der Google Cloud Platform (GCP) produziert und stellt ein vollständig von Google verwaltetes, serverloses Data Warehouse zur Verfügung. BigQuery eignet sich für die Abfrage, Analyse und Verarbeitung großer Datenmengen. Abfragen sind über SQL möglich. Die Cloud-Data-Warehouse-Lösung bietet einen nativen Support von Künstlicher Intelligenz und maschinellem Lernen.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist BigLake?

BigLake ist eine zentrale Datenplattform und Speicher-Engine aus der Google Cloud. Sie integriert Data Warehouses und Data Lakes und sorgt für eine vereinheitlichte Analytik und Zugriffssteuerung. Es lassen sich strukturierte und unstrukturierte Daten aus verschiedenen Datenquellen Cloud-übergreifend zusammenführen. Für das Speichern von BigLake-Tabellen sind neben Google Cloud Storage auch AWS- oder Azure-Cloud-Speicher nutzbar.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist eine Speicherprogrammierbare Steuerung (SPS)?

Eine Speicherprogrammierbare Steuerung (SPS) kommt in industriellen Umgebungen zur automatisierten Steuerung und Regelung von Maschinen, Anlagen und Prozessen zum Einsatz. Das digitale, elektronische System ist programmierbar und setzt sich aus verschiedenen Einzelkomponenten zusammen. Eine SPS kann als modulares System, als kompaktes Gerät oder als eingebettete Chip-Lösung realisiert sein.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Part-of-Speech-Tagging (POS-Tagging)?

Automatisiertes Part-of-Speech-Tagging, kurz: POS-Tagging, ist eine Teildisziplin der Computerlinguistik. Aufgabe des POS-Taggings ist es, den Wörtern eines Textes die jeweils passende Wortart zuzuordnen. Wortarten sind beispielsweise Nomen, Verb, Adverb, Pronomen, Konjunktion, Artikel und andere. Für verschiedene Sprachen existieren Standard-Tag-Sets, in denen die verfügbaren Wortart-Tags definiert sind. Zum Taggen kommen unterschiedliche Verfahren wie überwachtes oder unüberwachtes maschinelles Lernen zum Einsatz.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Named Entity Recognition (NER)?

Named Entity Recognition (NER) ist eine Teildisziplin der Computerlinguistik. Ihre Aufgabe ist es, Eigennamen (benannte Entitäten) in natürlichsprachigen Texten automatisiert zu erkennen und diese vordefinierten Kategorien zuzuordnen. Eigennamen sind beispielsweise Namen von Personen, Firmennamen, Orte, Ereignisse oder Zeitangaben. NER lässt sich wörterbuchbasiert, regelbasiert oder mithilfe von überwachtem maschinellem Lernen durchführen.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist ein Conditional Random Field Layer?

Ein Conditional Random Field Layer (CRF-Layer) ist eine zusätzliche Ebene eines probabilistischen Modells innerhalb eines Machine-Learning-Modells. CRF-Layer kommen beispielsweise in BiLSTM-CRF-Modellen zusammen mit bidirektionalen Long Short-Term Memory (LSTM) zum Einsatz. Sie helfen Problemstellungen zu lösen, wie sie beispielsweise im Natural Language Processing (NLP) beim Part-of-Speech-Tagging (POS-Tagging) oder bei Named Entity Recognition (NER) auftreten.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist eine Gated Recurrent Unit (GRU)?

Eine Gated Recurrent Unit ist ein Mechanismus und mathematisches Verfahren für Erinnerungsprozesse in rekurrenten neuronalen Netzwerken. Die Funktionalität ist vergleichbar mit der von Long Short-Term Memory (LSTM). Die Anzahl der Parameter ist jedoch geringer. Eine Gated Recurrent Unit besteht aus einem Update-Gate und einem Reset-Gate. Mit GRU lassen sich die für rekurrente neuronale Netze typischen Gradientenprobleme wie verschwindende Gradienten lösen.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Mbed?

Mbed ist ein freies Betriebssystem und eine Entwicklungsplattform für ARM-Cortex-M-basierte 32-Bit-Mikrocontroller. Es wurde speziell für Anwendungen und Geräte des Internets der Dinge entworfen. Mbed stellt alle zur Entwicklung und zum Betrieb von Anwendungen auf IoT-Geräten benötigten Komponenten zur Verfügung. Dazu gehören Echtzeitbetriebssystem, Treiber, Bibliotheken, Entwicklungsoberfläche sowie Konnektivitäts- und Sicherheitsfunktionen.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Operations Research (OR)?

Modelle. Es wird der vollständige Prozess der Entscheidungsfindung von der Analyse der Problemstellung bis zur Kontrolle der Wirkung betrachtet. Operations Research arbeitet interdisziplinär und nutzt Methoden der angewandten Mathematik, Informatik, Statistik sowie der Ingenieurs- und Wirtschaftswissenschaften und anderer Fachbereiche.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist Model Drift?

Model Drift ist ein Begriff aus dem Umfeld des maschinellen Lernens. Er bezieht sich auf das Phänomen, dass die Vorhersagegenauigkeit von Machine-Learning-Modellen mit der Zeit nachlassen kann. Ursachen hierfür sind beispielsweise, dass Annahmen oder Variablenbhängigkeiten, die beim Erstellen und Trainieren der Modelle noch gültig waren, sich über die Zeit verändert haben. Maßnahmen wie das Retraining oder Tuning der Modelle können den Model Drift beseitigen.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist das Dataflow Model?

Das Dataflow Model ist ein von Google entworfenes Datenverarbeitungsmodell und ein praktischer Ansatz zur Verarbeitung großer, ungebundener und unsortierter Datenmengen. Es ist in dem im Jahr 2015 veröffentlichten Paper „The Dataflow Model: A Practical Approach to Balancing Correctness, Latency, and Cost in Massive-Scale, Unbounded, Out-of-Order Data Processing“ im Detail beschrieben.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist One-Shot-Lernen?

Beim One-Shot-Lernen handelt es sich um eine Methode des Machine Learnings (ML), die den Trainingsaufwand deutlich reduziert und maschinelles Lernen dem menschlichem Lernen ähnlicher macht. ML-Modelle sind dank One-Shot-Lernen in der Lage, mit nur einem (oder wenigen) Trainingsbeispielen einer bestimmten Objektklasse anschließend korrekte Klassifizierungen vorzunehmen. Typischer Einsatzbereich des One-Shot-Lernens ist die Gesichtserkennung.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist der Lesk-Algorithmus?

Der Lesk-Algorithmus kommt in der Computerlinguistik und linguistischen Datenverarbeitung zum Einsatz. Mit dem Algorithmus lässt sich die in einem vorliegenden Text beabsichtigte Bedeutung von mehrdeutigen Wörtern bestimmen. Dieser Vorgang wird als Wortsinn-Disambiguierung (im Englischen: Word Sense Disambiguation – WSD) bezeichnet. Der Lesk-Algorithmus stützt sich auf maschinenlesbare Wörterbücher und sucht nach größtmöglichen Überlappungen im Kontext der mehrdeutigen Begriffe.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist MLOps?

Machine Learning Operations (MLOps) überträgt das in der Softwareentwicklung etablierte DevOps-Konzept auf maschinelles Lernen. Mit Machine Learning Operations lässt sich das Entwickeln, Bereitstellen, Verwalten und Überwachen von Machine-Learning-Modellen effizienter gestalten. Data-Science-Prozesse werden in enger Zusammenarbeit der Datenwissenschaftler, Entwickler und Betriebsbereiche operationalisiert. Dank MLOps erzielen Unternehmen schnelleren und größeren geschäftlichen Nutzen aus maschinellem Lernen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist RoBERTa?

RoBERTa ist die Bezeichnung eines von Facebook und der Washington University entwickelten optimierten BERT-Pretraining-Ansatzes (BERT = Bidirectional Encoder Representations from Transformers). BERT wurde ursprünglich von Google entworfen und hat zu einem deutlichen Leistungsschub der Sprachmodelle für Natural Language Processing (NLP) beigetragen. RoBERTa basiert vollständig auf BERT und modifiziert einige Trainingsmethoden und -parameter.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist BERT?

Bidirectional Encoder Representations from Transformers (BERT) ist eine ursprünglich von Google entwickelte Technik für das Pretraining von Transformer-basierten NLP-Modellen. Die mit BERT bidirektional trainierten Sprachmodelle erfassen Beziehungen und kontextuelle Zusammenhänge der Wörter besser. BERT ist für verschiedene Anwendungen wie Frage-Antworten-Systeme einsetzbar. Google hat die BERT-Technik in die eigene Google-Suche implementiert.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist GatorTron?

GatorTron ist ein von der University of Florida (UF) Health für den medizinischen Bereich entwickeltes Natural-Language-Processing-Modell. Es basiert auf der Transformer-Architektur und dem Megatron-Framework von Nvidia. Mit seinen rund neun Milliarden Parametern ist GatorTron das aktuell größte medizinische NLP-Modell. Für das Training wurden von der UF Health bereitgestellte, anonymisierte medizinische Daten von über zwei Millionen Patienten verwendet.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Aufmerksamkeitsmechanismus?

Der Aufmerksamkeitsmechanismus wird eingesetzt, um Beschränkungen einfacher Encoder-Decoder-Modelle zu beseitigen und die Effizienz von Machine-Learning-Modellen zu steigern. Modelle mit integrierten Aufmerksamkeitsmechanismen lassen sich beispielsweise für das Natural Language Processing oder die Bilderkennung verwenden. Moderne, auf der Transformer-Architektur basierende Sprachmodelle wie GPT-3 nutzen Mechanismen der Selbstaufmerksamkeit.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist der Zero Redundancy Optimizer (ZeRO)?

Der Zero Redundancy Optimizer (ZeRO) ist zusammen mit der DeepSpeed-Library einsetzbar und optimiert den Speicherbedarf für das Training von großen Deep-Learning-Modellen mit vielen Milliarden Parametern. ZeRO wurde von Microsoft entwickelt und ist unter Open-Source-Lizenz frei verfügbar. Verwendet wurde der Zero Redundancy Optimizer beispielsweise für das Training der Sprachmodelle GPT-2 und Turing-NLG 17B.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Digitalisierung?

Digitalisierung bezeichnet im ursprünglichen Sinn das Umwandeln von analogen Werten in digitale Formate. Diese Daten lassen sich informationstechnisch verarbeiten. Oft steht der Begriff Digitalisierung aber auch für die digitale Revolution oder die digitale Transformation.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist SAP BW?

SAP BW ist ein Business-Intelligence-Paket von SAP und ermöglicht umfangreiche Auswertungen und Reports auf Basis von unterschiedlichsten Unternehmensdaten. Es besteht aus einer Kombination von Datenbanken, Datenbankmanagement-Tools sowie Analyse und Reporting-Anwendungen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist das Internet of Things?

Im Internet der Dinge (Englisch: Internet of Things, IoT) bekommen Gegenstände eine eindeutige Identität und können miteinander kommunizieren oder Befehle entgegennehmen. Mit dem Internet of Things lassen sich Anwendungen automatisieren und Aufgaben ohne Eingriff von außen erledigen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Machine Learning?

Machine Learning, im Deutschen maschinelles Lernen, ist ein Teilgebiet der künstlichen Intelligenz. Durch das Erkennen von Mustern in vorliegenden Datenbeständen sind IT-Systeme in der Lage, eigenständig Lösungen für Probleme zu finden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Natural Language Processing?

Die Abkürzung NLP steht für Natural Language Processing und beschreibt Techniken und Methoden zur maschinellen Verarbeitung natürlicher Sprache. Ziel ist eine direkte Kommunikation zwischen Mensch und Computer auf Basis der natürlichen Sprache.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Neuronales Netz?

Künstliche Neuronale Netze (KNN) sind inspiriert durch das menschliche Gehirn und lassen sich für maschinelles Lernen und die Künstliche Intelligenz einsetzen. Es lassen sich mit diesen Netzen verschiedene Problemstellungen computerbasiert lösen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Cyber-physisches System (CPS)?

In einem Cyber-physischen System (cyber-physical system, CPS) sind mechanische Komponenten über Netzwerke und moderne Informationstechnik miteinander verbunden. Sie ermöglichen die Steuerung und die Kontrolle von komplexen Systemen und Infrastrukturen. Für die Industrie 4.0 spielen Cyber-physische Systeme eine zentrale Rolle.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Data Warehouse?

Das Data Warehouse stellt ein zentrales Datenbanksystem dar, das zu Analysezwecken im Unternehmen einsetzbar ist. Das System extrahiert, sammelt und sichert relevante Daten aus verschiedenen heterogenen Datenquellen und versorgt nachgelagerte Systeme.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist CRISP-DM?

CRISP-DM (Cross Industry Standard Process for Data Mining) ist ein von der EU gefördertes, branchenübergreifendes Standardmodell für das Data Mining. Es wurde 1996 unter Mitarbeit zahlreicher namhafter Konzerne entwickelt und definiert insgesamt sechs verschiedene Prozessphasen. CRISP-DM ist anwendungsneutral und in beliebigen Bereichen einsetzbar.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine relationale Datenbank?

Relationale Datenbanken ist das am weitesten verbreitete Datenbankmodell. Es setzt auf das relationale Datenbankmodell, das auf der Speicherung von Informationen in verschiedenen Tabellen basiert, die untereinander über Beziehungen (Relationen) verknüpft sind.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Deep Learning?

Deep Learning ist ein Teilbereich des Machine Learnings und nutzt neuronale Netze sowie große Datenmengen. Die Lernmethoden richten sich nach der Funktionsweise des menschlichen Gehirns und resultieren in der Fähigkeit eigener Prognosen oder Entscheidungen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Chatbot?

Bei einem Chatbot handelt es sich um ein technisches Dialogsystem, mit dem per Texteingabe oder Sprache kommuniziert werden kann. Chatbots werden häufig eingesetzt, um Anfragen automatisiert und ohne direkten menschlichen Eingriff zu beantworten oder zu bearbeiten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Data Mining?

Data Mining ist die systematische Anwendung computergestützter Methoden, um in vorhandenen Datenbeständen Muster, Trends oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren unter anderem auf statistischen Methoden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Datenbankmanagementsystem?

Das Datenbankmanagementsystem, abgekürzt DBMS, ist neben den eigentlichen Daten der wichtigste Bestandteil einer jeden Datenbank. Es übernimmt die Aufgabe der Organisation und Strukturierung der Daten. Gleichzeitig kontrolliert es lesende und schreibende Zugriffe.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist NoSQL?

NoSQL steht für „Not only SQL“ und bezeichnet Datenbanksysteme, die einen nicht-relationalen Ansatz verfolgen. Diese Datenbanken, denen verschiedene Datenbankmodelle zugrunde liegen können, sind horizontal skalierbar und lassen sich für Big-Data-Anwendungen einsetzen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Data Lake?

Beim Data Lake handelt es sich um einen sehr großen Datenspeicher, der die Daten aus den unterschiedlichsten Quellen in ihrem Rohformat aufnimmt. Er kann sowohl unstrukturierte als auch strukturierte Daten enthalten und lässt sich für Big-Data-Analysen einsetzen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Hadoop?

Bei Hadoop handelt es sich um ein auf Java basierendes Software Framework. Mit ihm lassen sich große Datenmengen auf verteilten Systemen in hoher Geschwindigkeit verarbeiten. Es ist zur Bewältigung der Datenverarbeitung im Big-Data-Umfeld geeignet.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Entität?

Eine Entität in der Informatik ist ein einzelnes, eindeutig identifizierbares Informationsobjekt. Es kann sich sowohl um existierende als auch um abstrakte Objekte handeln. Entitäten sind zusammen mit den Entitätstypen und Attributen sowie den Beziehungen zwischen den Entitäten wesentliche Elemente der Datenmodellierung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ACID?

Der Begriff ACID (Atomicity, Consistency, Isolation, Durability) beschreibt Regeln und Eigenschaften zur Durchführung von Transaktionen in Datenbankmanagementsystemen (DBMS). Hält die Transaktion das ACID-Prinzip ein, gelten die Informationen in den Datenbanksystemen als verlässlich und konsistent.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Validierung?

Datenvalidierung prüft Daten auf Einhaltung bestimmter Validierungsregeln. Diese wurden zuvor aufgestellt und beinhalten beispielsweise Vorgaben zu Wertebereichen oder Formaten. Die Datenvalidierung verbessert die Ergebnisse der Datenverarbeitung und Datenanalyse. Sie kann bei der Eingabe der Daten, direkt vor dem Start oder während der Datenverarbeitung stattfinden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Predictive Maintenance?

Predictive Maintenance verfolgt als eine der Kernkomponenten von Industrie 4.0 einen vorausschauenden Ansatz und wartet Maschinen und Anlagen proaktiv, um Ausfallzeiten niedrig zu halten. Das Verfahren nutzt hierfür von Sensoren erfasste Messwerte und Daten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Normalisierung?

Die Normalisierung findet bei relationalen Datenbankschemata statt und hat zum Ziel, Redundanzen, Inkonsistenzen und Anomalien zu vermeiden und zu beseitigen. Zur Durchführung kommen bis zu fünf verschiedene aufeinander aufbauende Normalformen zum Einsatz. Normalisierte Datenbanken folgen einem klar strukturierten Modell.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Apache Kafka?

Apache Kafka ist eine Open Source Software, die die Speicherung und Verarbeitung von Datenströmen über eine verteilte Streaming-Plattform ermöglicht. Sie stellt verschiedene Schnittstellen bereit, um Daten in Kafka-Cluster zu schreiben, Daten zu lesen oder in und aus Drittsysteme zu importieren und zu exportieren.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ETL (Extract, Transform, Load)?

Beim ETL-Prozess handelt es sich um mehrere Einzelschritte, durch die sich Daten aus verschiedenen Datenquellen per Extrahieren und Aufbereiten in ein Data Warehouse integrieren lassen. Der Prozess kommt häufig zur Verarbeitung großer Datenmengen im Big-Data- und Business-Intelligence-Umfeld zum Einsatz.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ODBC?

Bei ODBC (Open Database Connectivity) handelt es sich um eine standardisierte, offene Schnittstelle für den Zugriff auf unterschiedliche Datenbankmanagementsysteme. Über ODBC-Treiber können Anwendungen direkt Anweisungen an Datenbanken erteilen oder Abfragen ausführen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Big Data Analytics?

Big Data Analytics ermöglicht es, große Datenmengen aus unterschiedlichen Quellen zu analysieren. Die gewonnenen Informationen oder erkannten Muster lassen sich einsetzen, um beispielsweise Unternehmensprozesse zu optimieren.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Digitaler Zwilling?

Ein Digitaler Zwilling repräsentiert ein reales Objekt in der digitalen Welt. Es kann sich um materielle oder immaterielle Objekte handeln. Die Digitalen Zwillinge sind aus Daten und Algorithmen aufgebaut und können über Sensoren mit der realen Welt gekoppelt sein. Für die Prozesse der Industrie 4.0 stellen Digitale Zwillinge die Basis dar.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein BLOB?

Ein BLOB (Binary Large Object ) ist ein großes binäres Datenobjekt, das von Datenbanken meist in besonderer Form verarbeitet und gespeichert wird. Typische BLOBs sind Dateien wie Video-, Audio- oder Bilddateien

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was sind unstrukturierte Daten?

Unstrukturierte Daten sind Informationen, die in einer nicht identifizierbaren und nicht normalisierten Datenstruktur vorliegen. Es kann sich beispielsweise um Texte, Bilder oder Audio- und Videodateien handeln. Im Big-Data-Umfeld haben unstrukturierte Daten eine große Bedeutung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Random Forest?

Random Forest ist ein Algorithmus, der sich für Klassifizierungs- und Regressionsaufgaben nutzen lässt. Er kombiniert die Ergebnisse vieler verschiedener Entscheidungsbäume, um bestmögliche Entscheidungen zu treffen. Der Lernalgorithmus gehört zu den Verfahren des überwachten Lernens und ist im Machine Learning einsetzbar. Das Verfahren ist relativ einfach und bietet kurze Trainingszeiten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist das Industrial Internet of Things (IIoT)?

Das Industrial Internet of Things (IIoT) stellt die industrielle Ausprägung des Internet of Things (IoT) dar. Es repräsentiert im Gegensatz zum IoT nicht die verbraucherorientierten Konzepte, sondern konzentriert sich auf die Anwendung des Internets der Dinge im produzierenden und industriellen Umfeld.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Smart Factory?

Die Smart Factory steht im Zentrum der sogenannten Industrie 4.0. Sie stellt eine Produktionsumgebung zur Verfügung, die sich im Idealfall ohne menschlichen Eingriff selbst organisiert. Dazu zählen Fertigungsanlagen und Logistiksysteme. Kernkomponenten sind cyber-physische Systeme und die intelligente Vernetzung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Smart City?

In einer Smart City werden moderne Technologien aus den Bereichen Energie, Mobilität, Stadtplanung, Verwaltung und Kommunikation so miteinander vernetzt, dass sich die Lebensqualität für die Bewohner steigert. Gleichzeitig profitiert die Nachhaltigkeit der Stadt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Convolutional Neural Network?

Das Convolutional Neural Network ist eine besondere Form des künstlichen neuronalen Netzwerks. Es besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich Bild- und Spracherkennung sehr gut geeignet.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist XGBoost?

XGBoost ist eine frei verfügbare Bibliothek mit Open-Source-Lizenz. Sie ermöglicht überwachtes maschinelles Lernen mit dem Boosted-Tree-Algorithmus, einem Baumalgorithmus mit Gradient Boosting. Die Bibliothek ist für Betriebssysteme wie Linux, Windows oder macOS verfügbar und arbeitet mit Programmiersprachen wie C++, Java, Python, R und Julia.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist OPC UA?

OPC UA (Open Platform Communications Unified Architecture) ist eine Sammlung von Standards für die Kommunikation und den Datenaustausch im Umfeld der Industrieautomation. Mithilfe von OPC UA werden sowohl der Transport von Machine-to-Machine-Daten als auch Schnittstellen und die Semantik von Daten beschrieben. Die komplette Architektur ist serviceorientiert aufgebaut.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Support Vector Machine?

Die Support Vector Machine (SVM) ist eine mathematische Methode, die im Umfeld des maschinellen Lernens zum Einsatz kommt. Sie gestattet das Klassifizieren von Objekten und ist vielfältig nutzbar. Unterstützt werden die lineare und die nicht-lineare Objektklassifizierung. Typische Anwendungsbereiche sind die Bild-, Text- oder Handschrifterkennung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Management-Informationssystem (MIS)?

Bei einem Management-Informationssystem (MIS) handelt es sich um ein computerunterstütztes Informationssystem, das wichtige Unternehmensinformationen für die Führungsebene sammelt und aufbereitet. Auf Basis der Informationen lassen sich Analysen durchführen, Probleme lösen oder strategische Entscheidungen treffen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Pivot-Tabelle?

Eine Pivot-Tabelle strukturiert in Tabellenform vorliegende Daten, fasst sie zusammen und ermöglicht ihre Auswertung. Die Tabellenart gehört zu den Grundfunktionen aller gängigen Tabellenkalkulationsanwendungen. Für die Erstellung einer Pivot-Tabelle sind nur wenige Grundbedingungen zu erfüllen. Komplexe Formeln oder das Anwenden von SQL-Datenbankabfragen sind dank Pivot-Tabellen zum Teil überflüssig.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Python?

Python ist eine Programmiersprache, die dank ihrer klaren Syntax und einfachen Lesbarkeit leicht zu erlernen ist und sich sehr vielseitig einsetzen lässt. Für die gängigen Betriebssysteme ist Python frei verfügbar. Die üblichen Programmierparadigmen wie die objektorientierte oder funktionale Programmierung werden unterstützt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Data Literacy?

Data Literacy oder Datenkompetenz beschreibt die Fähigkeit, mit Daten kompetent umzugehen. Sie umfasst verschiedene Einzelkompetenzen, um Daten zu erfassen, anzupassen, zu verändern, zu interpretieren und zu präsentieren. Die Datenkompetenz ist Grundlage und wichtiger Skill der Digitalisierung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine IT-Strategie?

Die IT-Strategie macht Vorgaben über die zukünftige Entwicklung der Informationstechnik (IT) und IT-Infrastruktur eines Unternehmens. Sie folgt immer der Unternehmensstrategie und ist eine zentrale Komponente des IT-Managements. Ziel der Strategie ist es, durch das Management der IT und die Definition der Rahmenbedingungen die langfristigen Unternehmensziele zu erreichen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist das ARIMA-Modell?

Das ARIMA-Modell ermöglicht die Beschreibung und Analyse von Zeitreihen. Es handelt sich um eine leistungsstarke Modellklasse, die den autoregressiven Teil und den gleitenden Mittelwertbeitrag des ARMA-Modells um die Differenzierung und Integration zur Trendbeseitigung und Herstellung der Stationarität erweitert.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist TCO (Total Cost of Ownership)?

Total Cost of Ownership, abgekürzt TCO, ist eine ganzheitliche Kostenbetrachtung von Produkten, Gütern oder Services, die nicht nur die Anschaffungskosten, sondern auch laufende direkte und indirekt Kosten über den kompletten Lebenszyklus hinweg berücksichtigt. Die Kostenbetrachtung bietet wichtige Hilfestellungen zur Beantwortung betriebswirtschaftlicher Fragestellungen wie Investitionsentscheidungen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist der k-Means-Algorithmus?

Der k-Means-Algorithmus ist ein Rechenverfahren, das sich für die Gruppierung von Objekten, die sogenannte Clusteranalyse, einsetzen lässt. Dank der effizienten Berechnung der Clusterzentren und dem geringen Speicherbedarf eignet sich der Algorithmus sehr gut für die Analyse großer Datenmengen, wie sie im Big-Data-Umfeld üblich sind.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist CUDA?

CUDA ist eine von NVIDIA entwickelte Technologie und Programmierschnittstelle, mit der sich die Rechenleistung von Grafikprozessoren (GPUs) für Anwendungen nutzen lässt. Aufgrund der hohen Rechenleistung und parallelen Arbeitsweise der GPUs sind bei bestimmten Anwendungen enorme Performancegewinne erzielbar.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Data Quality?

Die Data Quality bestimmt, wie gut sich Datenbestände für vorgesehene Aufgaben eignen. Das können beispielsweise Anwendungen aus dem Business-Intelligence-Umfeld sein. Es existieren zahlreiche Kriterien, anhand derer sich die Data Quality bewerten lässt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist MapReduce?

Bei MapReduce handelt es sich um ein von Google entwickeltes Verfahren, mit dem sich große strukturierte oder unstrukturierte Datenmengen mit hoher Geschwindigkeit verarbeiten lassen. MapReduce nutzt die Parallelisierung von Aufgaben und deren Verteilung auf mehrere Systeme.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Prescriptive Analytics?

Prescriptive Analytics geht der Frage nach, wie sich verschiedene Vorgehensweisen auf ein Ergebnis auswirken. Unternehmen erhalten dadurch Handlungsanweisungen und die Möglichkeit, die Entscheidungsfindung zu automatisieren. Prescriptive Analytics ist Teil der Business-Analyse.

Weiterlesen