Die DATA Storage & Analytics Technology Conference 2020, die am 17. September in Würzburg und am 24. September in Neuss stattfindet, verspricht spannende Keynotes. BigData-Insider hat als Mitveranstalter und Medienpartner die Keynote-Speaker im Vorfeld um eine Preview gebeten. Hier im Interview: Dr. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC).
Die DATA Storage & Analytics Technology Conference 2020, die aufgrund der Coronakrise am 30. April und 12. Mai dieses Jahres online sowie am 17. September in Würzburg und am 24. September in Neuss stattfindet, verspricht spannende „Keynotes“. BigData-Insider hat als Mitveranstalter und Medienpartner die Keynote-Speaker im Vorfeld um eine Preview gebeten. Hier im Interview: Dr. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC).
Teradata lud Anfang April ins südfranzösische Nizza zur europäischen Ausgabe der Hausmesse Teradata Universe ein. Rund 1.000 Teilnehmer ergriffen die Gelegenheit und informierten sich über aktuelle Analytics-Kundenprojekte.
Das Marktforschungsunternehmen Experton Group hat zum zweiten Mal in Folge den Big-Data-Markt in Deutschland unter die Lupe genommen. Für die kommenden Jahre geht das Analystenhaus von einem jährlichen Wachstum von rund 24 Prozent aus. Im Jahr 2019 sollen in Deutschland nach Einschätzung der Marktforscher rund drei Milliarden Euro mit Produkten und Services umgesetzt werden.
Digitalisierung bezeichnet im ursprünglichen Sinn das Umwandeln von analogen Werten in digitale Formate. Diese Daten lassen sich informationstechnisch verarbeiten. Oft steht der Begriff Digitalisierung aber auch für die digitale Revolution oder die digitale Transformation.
Der im Internet und in den Unternehmen verfügbare Datenberg – diese Tatsache wird als Big Data umschrieben – wird immer größer, unübersichtlicher und lässt sich nur schwer verarbeiten. Immer technologisch anspruchsvollere Tools und Programme sollen die Datenflut zähmen.
Im Internet der Dinge (Englisch: Internet of Things, IoT) bekommen Gegenstände eine eindeutige Identität und können miteinander kommunizieren oder Befehle entgegennehmen. Mit dem Internet of Things lassen sich Anwendungen automatisieren und Aufgaben ohne Eingriff von außen erledigen.
Machine Learning, im Deutschen maschinelles Lernen, ist ein Teilgebiet der künstlichen Intelligenz. Durch das Erkennen von Mustern in vorliegenden Datenbeständen sind IT-Systeme in der Lage, eigenständig Lösungen für Probleme zu finden.
Die Abkürzung NLP steht für Natural Language Processing und beschreibt Techniken und Methoden zur maschinellen Verarbeitung natürlicher Sprache. Ziel ist eine direkte Kommunikation zwischen Mensch und Computer auf Basis der natürlichen Sprache.
SAP BW ist ein Business-Intelligence-Paket von SAP und ermöglicht umfangreiche Auswertungen und Reports auf Basis von unterschiedlichsten Unternehmensdaten. Es besteht aus einer Kombination von Datenbanken, Datenbankmanagement-Tools sowie Analyse und Reporting-Anwendungen.
Künstliche Neuronale Netze (KNN) sind inspiriert durch das menschliche Gehirn und lassen sich für maschinelles Lernen und die Künstliche Intelligenz einsetzen. Es lassen sich mit diesen Netzen verschiedene Problemstellungen computerbasiert lösen.
CRISP-DM (Cross Industry Standard Process for Data Mining) ist ein von der EU gefördertes, branchenübergreifendes Standardmodell für das Data Mining. Es wurde 1996 unter Mitarbeit zahlreicher namhafter Konzerne entwickelt und definiert insgesamt sechs verschiedene Prozessphasen. CRISP-DM ist anwendungsneutral und in beliebigen Bereichen einsetzbar.
In einem Cyber-physischen System (cyber-physical system, CPS) sind mechanische Komponenten über Netzwerke und moderne Informationstechnik miteinander verbunden. Sie ermöglichen die Steuerung und die Kontrolle von komplexen Systemen und Infrastrukturen. Für die Industrie 4.0 spielen Cyber-physische Systeme eine zentrale Rolle.
Data Mining ist die systematische Anwendung computergestützter Methoden, um in vorhandenen Datenbeständen Muster, Trends oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren unter anderem auf statistischen Methoden.
Das Data Warehouse stellt ein zentrales Datenbanksystem dar, das zu Analysezwecken im Unternehmen einsetzbar ist. Das System extrahiert, sammelt und sichert relevante Daten aus verschiedenen heterogenen Datenquellen und versorgt nachgelagerte Systeme.
Deep Learning ist ein Teilbereich des Machine Learnings und nutzt neuronale Netze sowie große Datenmengen. Die Lernmethoden richten sich nach der Funktionsweise des menschlichen Gehirns und resultieren in der Fähigkeit eigener Prognosen oder Entscheidungen.
So unterschiedlich die Auswirkungen der Corona-Pandemie auch sind, eines ist sicher: Als Reaktion darauf haben die Unternehmen ihre Digitalisierung beschleunigt. Doch wie wirkt sich das auf den Analytics-Markt aus? Michael O’Connell, Chief Analytics Officer von TIBCO Software, wagt den Blick in die Glaskugel und trifft zehn Vorhersagen für 2021.
Eine Entität in der Informatik ist ein einzelnes, eindeutig identifizierbares Informationsobjekt. Es kann sich sowohl um existierende als auch um abstrakte Objekte handeln. Entitäten sind zusammen mit den Entitätstypen und Attributen sowie den Beziehungen zwischen den Entitäten wesentliche Elemente der Datenmodellierung.
Datenvalidierung prüft Daten auf Einhaltung bestimmter Validierungsregeln. Diese wurden zuvor aufgestellt und beinhalten beispielsweise Vorgaben zu Wertebereichen oder Formaten. Die Datenvalidierung verbessert die Ergebnisse der Datenverarbeitung und Datenanalyse. Sie kann bei der Eingabe der Daten, direkt vor dem Start oder während der Datenverarbeitung stattfinden.
NoSQL steht für „Not only SQL“ und bezeichnet Datenbanksysteme, die einen nicht-relationalen Ansatz verfolgen. Diese Datenbanken, denen verschiedene Datenbankmodelle zugrunde liegen können, sind horizontal skalierbar und lassen sich für Big-Data-Anwendungen einsetzen.
Relationale Datenbanken ist das am weitesten verbreitete Datenbankmodell. Es setzt auf das relationale Datenbankmodell, das auf der Speicherung von Informationen in verschiedenen Tabellen basiert, die untereinander über Beziehungen (Relationen) verknüpft sind.
Die Data Quality bestimmt, wie gut sich Datenbestände für vorgesehene Aufgaben eignen. Das können beispielsweise Anwendungen aus dem Business-Intelligence-Umfeld sein. Es existieren zahlreiche Kriterien, anhand derer sich die Data Quality bewerten lässt.
Digital Twins setzen sich zunehmend durch: Laut Gartner verwenden 75 Prozent der Organisationen, die IIoT (Industrial Internet of Things) implementieren, bereits den Digital Twin oder planen dies innerhalb eines Jahres zu tun. Das Konzept entwickelt sich so zu einem wichtigen Teil einer Predictive-Analytics-Strategie. Die meisten Organisationen sind jedoch noch nicht über das Pilotenstadium hinausgekommen und setzen es nicht in großem Maßstab ein. Warum aber ergreifen viele Unternehmen noch nicht die Möglichkeiten, die der Digital Twin ihnen bietet?
Bei einem Chatbot handelt es sich um ein technisches Dialogsystem, mit dem per Texteingabe oder Sprache kommuniziert werden kann. Chatbots werden häufig eingesetzt, um Anfragen automatisiert und ohne direkten menschlichen Eingriff zu beantworten oder zu bearbeiten.