Michael Matzer ♥ BigData-Insider

Michael Matzer

Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.

Artikel des Autors

Messpunkte und deren Abstand von einer nach der Methode der kleinsten Quadrate bestimmten Funktion. Hier wurde eine logistische Funktion als Modellkurve gewählt. (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 11

Methoden der Linearen Regressionsanalyse

Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis er in welchem Kundenkreis welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Heute gibt es eine große Zahl solcher Verfahren, denn sie werden für zahlreiche Zwecke benötigt, etwa in der Epidemiologie.

Weiterlesen
Operationalisierung von Advanced Analytics bedeutet die Überführung und Anwendung der aus dem Data Lab gewonnenen Erkenntnisse in die operativen Prozesse. (BARC, Tim Grosser)
Evolution

Der Übergang von Business Intelligence zu Advanced Analytics

Wenn einem BI-Nutzer Reports und Dashboards nicht mehr reichen, wird es Zeit für Prognose-Tools, die in den Disziplinen Advanced Analytics (AA) und Data Science zu finden sind. Doch AA-Modelle sind nur von begrenztem Wert, wenn man sie nicht in die Prozesse integriert. Wie der Übergang von BI zu AA gelingen kann, zeigt ein Webinar von BARC-Experte Timm Grosser.

Weiterlesen
Sport-Analytik erlaubt zeitnahe Auwertungen von Spielen, Sportlern und Statistiken für die Zuschauer, aber auch für Vereine und Trainer und Verbände.  (© kentoh - stock.adobe.com)
Big-Data-Analysen im Sport

Die Sportwelt profitiert von intelligenter Analytik

Die drei Analytik-Anbieter SAS, Exasol und Amazon Web Services haben den Sport als Wachstumsmarkt entdeckt. Zudem sind Organisationen wie die Deutsche Bundesliga auf Innovationen bei ihren Zuschauerangeboten angewiesen, um konkurrenzfähig zu bleiben. Mit den Lösungen der drei Anbieter reicht das Angebot von der einfachen Sportgrafik bis hin zu KI-basierten Angaben und Vorhersagen, die in Echtzeit angezeigt werden.

Weiterlesen
Neo4j 4.0 antwortet auf komplizierte Herausforderungen in der Entwicklung moderner Applikationen wie etwa unbegrenzte Skalierbarkeit, intelligenter Kontext von Daten und robuste Datensicherheit für Unternehmen. (Neo4j)
Neo4j v.4.0

Graph-Datenbank Neo4j wird noch skalierbarer

Neo4j, ein marktführender Anbieter von Graph-Datenbanktools, hat die Version 4.0 seiner Plattform verfügbar gemacht. Zu den Neuerungen gehören unbegrenzte Skalierbarkeit, mandantenfähige Multi-Datenbank-Nutzung, die Integration von Apache Kafka und die besonders für Unternehmen wichtige feingranulare Steuerung von Datensicherheit und Datenschutz.

Weiterlesen
Bestmögliche Gerade durch die „Punktwolke“ einer Messung (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 10

Mit einfacher Regressionsanalyse Mittelwerte in Prognosen ermitteln

Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis in welchem Kundenkreis er welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Um 1760 erfunden, gibt es heute eine große Zahl solcher Verfahren. Dieser Beitrag beginnt mit dem einfachsten, der Einfachen Linearen Regression (ELR).

Weiterlesen
Von den rund 65.000 Besuchern der AWS re:invent in Las Vegas konnten rund 11.000 den Keynotes in der Halle A direkt lauschen. (AWS)
Nachbericht AWS re:invent Las Vegas

AWS baut Redshift und SageMaker aus

Amazon Web Services (AWS) hat kürzlich auf seiner Kundenkonferenz AWS re:Invent den 65.000 Besuchern zahlreiche neue Services für Datenbanken und Analysefunktionen vorgestellt. Sie sollen Kunden besonders dabei unterstützen, große Datenmengen zu verarbeiten. Neuerungen in der KI-Entwicklungsumgebung Amazon SageMaker decken die gesamte Prozesskette bis hin zur Überwachung der KI-Modelle ab.

Weiterlesen
Ab sofort steht das E-Book „Graph-Datenbanken“ für registrierte Leser von BigData-Insider kostenlos zum Download bereit.  (Vogel IT-Medien)
E-Book von BigData-Insider

Graph-Datenbanken

Aus dem täglichen Umgang mit dem Internet ist die Nutzung von verknüpften Daten nicht mehr wegzudenken. Seien es Freundschaftskreise auf Facebook und LinkedIn, Taxi-Anforderungen auf Uber oder Empfehlungen auf Amazon und Ebay – immer tritt im Hintergrund eine Datenbank in Aktion, die verwandte Daten sucht und miteinander in Beziehung setzt. Dabei handelt es sich in den meisten Fällen um eine Graph-Datenbank.

Weiterlesen
Künstliche Intelligenz muss transparent arbeiten. Nur wenn die Ergebnisse nachvollziehbar sind, sind sie vertrauenswürdig. (© willyam - stock.adobe.com)
Trusted AI

So wird Künstliche Intelligenz vertrauenswürdig

Mit der Ausbreitung von KI-Anwendungen stellen sich Schöpfern wie Benutzern zwei zentrale Fragen: Was befindet sich in der Black Box, die den Algorithmus und das Deep-Learning-Modell verbirgt? Und zweitens: Wie lässt sich sicherstellen, dass kein Unbefugter diese Software für seine Zwecke manipuliert hat? Manche KI-Hersteller und -Berater haben darauf bereits eine Antwort.

Weiterlesen
Ab sofort steht das E-Book „Industrie 4.0 wird erwachsen“ kostenlos zum Download bereit. (Vogel IT-Medien)
E-Book von BigData-Insider

Industrie 4.0 wird erwachsen

Die Wirtschaftsstrategie „Industrie 4.0“ ist seit 2013 ein ausgearbeitetes Konzept und inzwischen durch eine Referenzarchitektur zu einem global vertretbaren und übertragbaren Konzept geworden. Der Begriff „Smart Factory“ ist von zentraler Bedeutung, denn in dieser Betriebsstätte sollen Werkstücke und Maschinen bzw. Roboter einander erkennen und miteinander interagieren, um eine Wertschöpfungskette zu bilden.

Weiterlesen
Deutsche Unternehmen haben das Potenzial von guter Planung erkannt, kämpfen aber mit Hindernissen – oder sind einfach mit dem Bestehenden zufrieden.  (Anaplan)
Benchmark-Studie

„The State of Connected Planning“ enthüllt große deutsche Defizite

Die international und jährlich durchgeführte Benchmark-Studie „The State of Connected Planning“ hat für Deutschland herausgefunden, dass für 82 Prozent der Befragten die Planung für das Kostenmanagement „von entscheidender Bedeutung ist“ und nach Ansicht von 89 Prozent, dass eine bessere Planungstechnologie die Geschäftsergebnisse verbessere. Doch die deutschen Planungsexperten stehen auch vor erheblichen Hindernissen, ihre Pläne umzusetzen.

Weiterlesen
Gierige Algorithmen bestimmen z. B. die Mindestmenge an Münzen für das jeweils nötige Wechselgeld. Im Bild sind die Schritte abgebildet, die ein Mensch gehen würde, um einen gierigen Algorithmus zu imitieren, der 36 Cents herausgibt, indem er Münzen mit den Werten {1, 5, 10, 20} verwendet. Die Münze mit dem höchsten Wert, der unter dem geschuldeten Betrag liegt, ist das „lokale Optimum“.  (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 9

Der Greedy-Algorithmus

Greedy-Algorithmen, oder gierige Algorithmen, bilden eine spezielle Klasse von Optimierungsalgorithmen, die in der Informatik auftreten. Sie zeichnen sich dadurch aus, dass sie schrittweise den Folgezustand auswählen, der zum Zeitpunkt der Wahl den größten Gewinn bzw. das beste Ergebnis (berechnet durch eine Bewertungsfunktion) verspricht z. B. Gradientenverfahren, so etwa die Berechnung von Wechselgeld oder des kürzesten Wegs. Greedy-Algorithmen sind oft schnell, lösen viele Probleme aber nicht optimal.

Weiterlesen
Eine Wagon-Intelligence-Telematikeinheit an einem Containertragwagen. Bereits über 25.000 Wagen wurden damit ausgerüstet. Die gesamte Flotte folgt bis 2020. (amspire lab/DB Cargo)
Splunk im Einsatz bei der DB Cargo

Digitalisierung für mehr Qualität und Service im Schienengüterverkehr

Splunk Enterprise, das Hauptprodukt des Operational-Intelligence-Spezialisten Splunk, ist bei DB Cargo im Einsatz, der Güterbahnsparte der Deutschen Bahn. Im Zuge der Digitalisierung und Automatisierung des Güterverkehrs und des Fuhrparks hilft Splunk Enterprise bei der Datenerfassung und -analyse in den Projekten „Wagon Intelligence“ und „TechLOK“. Die Software-Entwicklung der beiden Projekte findet im DB Cargo amspire lab in Frankfurt am Main statt.

Weiterlesen
Das E-Bool „Tools für Business Intelligence“ steht ab sofort kostenlos zum Download bereit. (Vogel IT-Medien)
E-Book von BigData-Insider

Tools für Business Intelligence

Der Wettbewerb in der Wirtschaft ist scharf und wird in der global vernetzten Wirtschaft zunehmend härter. Führungskräfte und Sachbearbeiter wollen schneller und genauer erfahren, wie leistungsfähig die operativen Systeme des eigenen Unternehmens sind und wie sie sich im wirtschaftlichen Umfeld noch besser durchsetzen können. Zudem wollen sie zusätzliche Geschäftsfelder erschließen und neue Businessmodelle entwickeln.

Weiterlesen
Kernidee von LOF ist, die lokale Dichte eines Punktes mit der seiner Nachbarn zu vergleichen- (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 7

So deckt der Local Outlier Factor Anomalien auf

Um Trends zu erkennen, wird oft die Clusteranalyse herangezogen. Der k-Means-Algorithmus etwa zeigt an, wo sich Analyseergebnisse in einer Normalverteilung ballen. Für manche Zwecke ist es aber aufschlussreicher, Ausreißer zu untersuchen, denn sie bilden die Antithese zum „Normalen“, etwa im Betrugswesen. Der Local-Outlier-Factor-Algorithmus (LOF) ist in der Lage, den Abstand von Ausreißern zu ihren Nachbarn zu berechnen und deckt so Anomalien auf.

Weiterlesen
In das Palais des Congrès in Paris fanden 16.5000 Besucher ihren Weg zur „Big Data Paris 2019“. (corp-agency.com)
Nachbericht Big Data Paris 2019

Big Data im Mittelpunkt

Am 11. und 12. März öffneten sich die Pforten zu einem der traditionsreichsten Treffen der Big-Data-Szene: Big Data Paris. Diesjähriges Motto: „Accelerate the Future“. Zum achten Mal in Folge erörterten renommierte Branchenpersönlichkeiten wie Ted Dunning (CTO von MapR) mit kundigen Teilnehmern sowohl die Business-Aspekte als auch die technischen und ethischen Herausforderungen der Nutzung von Massendaten.

Weiterlesen
Data Preparation kostet Zeit, ist aber unerlässlich. Geeignete Tools können den Prozess beschleunigen und vereinfachen. (© momius - stock.adobe.com)
Data Preparation

Datenaufbereitung ist ein unterschätzter Prozess

Der Prozess der Datenaufbereitung umfasst die Reinigung, Formung und Mischung von Daten, damit sie für analytische und andere Aufgaben in optimaler Qualität bereitstehen. Nur mit erstklassigen Daten lassen sich beispielsweise Lösungen für Machine Learning und Künstliche Intelligenz effizient, sicher und zuverlässig versorgen.

Weiterlesen
Ereigniszeitanalyse mit zensierten Daten für die Vertriebsabteilung: die Überlebensfunktion für Vertriebstechniker (durchgezogene Linie) und für Vertreter (gestrichelte Linie) in einem Kaplan-Meier-Schätzer. Vertriebstechniker sind ihrer Stelle wesentlich stärker und länger treu als Vertreter. Der blaue und rötliche Hintergrund deckt sich mit der jeweiligen Kurve. (SAS)
Grundlagen Statistik & Algorithmen, Teil 6

Die Ereigniszeitanalyse – wenn Anfang und Ende die Erfolgsrate bestimmen

Die Ereigniszeitanalyse bzw. Survival Analysis umfasst eine Reihe von Werkzeugen der Statistik, mit denen die Zeit bis zum Eintritt eines bestimmten Ereignisses zwischen Gruppen verglichen wird. Auf diese Weise will man die Wirkung von prognostischen Faktoren, einer medizinischen Behandlung oder von schädlichen Einflüssen abschätzen. Bei dem Ereignis kann es sich um etwas so Endgültiges wie den Tod handeln, aber auch um den Verlust einer Arbeitsstelle, eine Scheidung oder einen Beginn, etwa um eine Geburt oder einen Heilungseintritt.

Weiterlesen
Kernel-Maschinen werden verwendet, um nichtlinear trennbare Funktionen zu berechnen, um so eine linear trennbare Funktion höherer Ordnung zu erhalten.  (Kernel Machine.svg / Alisneaky, svg version by User:Zirguezi / CC BY-SA 4.0)
Grundlagen Statistik & Algorithmen, Teil 5

Optimale Clusteranalyse und Segmentierung mit dem k-Means-Algorithmus

Der k-Means-Algorithmus ist ein Rechenverfahren, das sich für die Gruppierung von Objekten, die sogenannte Clusteranalyse, einsetzen lässt. Dank der effizienten Berechnung der Clusterzentren und dem geringen Speicherbedarf eignet sich der Algorithmus sehr gut für die Analyse großer Datenmengen, wie sie im Big-Data-Umfeld üblich sind, so etwa in der Bildverarbeitung und in der Kundensegmentierung.

Weiterlesen
Cassandra Enterprise umfasst zahlreiche Leistungsmerkmale, die für Unternehmensnutzer wichtig sind. (Datastax)
NoSQL

NoSQL-Datenbanken im Vergleich

NoSQL-Datenbanken wurden aus der Notwendigkeit heraus entwickelt, große, unterschiedliche Mengen von Dimensionen wie Raum, Zeit und Lokation auf möglichst effiziente Weise zu speichern und zu verarbeiten. Mittlerweile sind sie die unabdingbare Alternative zu relationalen SQL-basierten Datenbanken. Doch nicht jede NoSQL-Datenbank eignet sich für jeden Zweck. Tatsächlich sind die meisten sogar recht spezialisiert.

Weiterlesen
Messpunkte und deren Abstand von einer nach der Methode der kleinsten Quadrate bestimmten Funktion. Hier wurde eine logistische Funktion als Modellkurve gewählt. (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 11

Methoden der Linearen Regressionsanalyse

Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis er in welchem Kundenkreis welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Heute gibt es eine große Zahl solcher Verfahren, denn sie werden für zahlreiche Zwecke benötigt, etwa in der Epidemiologie.

Weiterlesen
Kernel-Maschinen werden verwendet, um nichtlinear trennbare Funktionen zu berechnen, um so eine linear trennbare Funktion höherer Ordnung zu erhalten.  (Kernel Machine.svg / Alisneaky, svg version by User:Zirguezi / CC BY-SA 4.0)
Grundlagen Statistik & Algorithmen, Teil 5

Optimale Clusteranalyse und Segmentierung mit dem k-Means-Algorithmus

Der k-Means-Algorithmus ist ein Rechenverfahren, das sich für die Gruppierung von Objekten, die sogenannte Clusteranalyse, einsetzen lässt. Dank der effizienten Berechnung der Clusterzentren und dem geringen Speicherbedarf eignet sich der Algorithmus sehr gut für die Analyse großer Datenmengen, wie sie im Big-Data-Umfeld üblich sind, so etwa in der Bildverarbeitung und in der Kundensegmentierung.

Weiterlesen
COVID-19 gelangt höchstwahrscheinlich über das Protein ACE2 in menschliche Lungenzellen. Dieser Prozess – Endozytose genannt – wird reguliert durch AAK1 (ein anderes Protein). Baricitinib hemmt AAK1 und könnte möglicherweise so auch das Eindringen von COVID-19 in die Lungenzellen verhindern.  (Data Revenue)
Künstliche Intelligenz gegen COVID-19

So helfen KI-Modelle und Algorithmen im Kampf gegen das Corona-Virus

Machine Learning ist ein bedeutendes Instrument im Kampf gegen die Corona-Pandemie. Wenn Bürger, Behörden und Unternehmen diese Gelegenheit nutzen, um Daten zu sammeln, vorhandenes Wissen zu vereinen und ihre Fachkenntnisse zusammenzubringen, können viele Leben gerettet werden – sowohl heute als auch in der Zukunft. Wie vielfältig die Einsatzgebiete von Machine Learning in diesem Rahmen sind, soll diese Übersicht zeigen, die von Data Revenue erstellt wurde.

Weiterlesen
Gierige Algorithmen bestimmen z. B. die Mindestmenge an Münzen für das jeweils nötige Wechselgeld. Im Bild sind die Schritte abgebildet, die ein Mensch gehen würde, um einen gierigen Algorithmus zu imitieren, der 36 Cents herausgibt, indem er Münzen mit den Werten {1, 5, 10, 20} verwendet. Die Münze mit dem höchsten Wert, der unter dem geschuldeten Betrag liegt, ist das „lokale Optimum“.  (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 9

Der Greedy-Algorithmus

Greedy-Algorithmen, oder gierige Algorithmen, bilden eine spezielle Klasse von Optimierungsalgorithmen, die in der Informatik auftreten. Sie zeichnen sich dadurch aus, dass sie schrittweise den Folgezustand auswählen, der zum Zeitpunkt der Wahl den größten Gewinn bzw. das beste Ergebnis (berechnet durch eine Bewertungsfunktion) verspricht z. B. Gradientenverfahren, so etwa die Berechnung von Wechselgeld oder des kürzesten Wegs. Greedy-Algorithmen sind oft schnell, lösen viele Probleme aber nicht optimal.

Weiterlesen
Bestmögliche Gerade durch die „Punktwolke“ einer Messung (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 10

Mit einfacher Regressionsanalyse Mittelwerte in Prognosen ermitteln

Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis in welchem Kundenkreis er welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Um 1760 erfunden, gibt es heute eine große Zahl solcher Verfahren. Dieser Beitrag beginnt mit dem einfachsten, der Einfachen Linearen Regression (ELR).

Weiterlesen
Wie funktioniert der Random-Forest-Algorithmus? Antworten gibt der 12. Teil unserer Grundlagenreihe.   (© momius - stock.adobe.com)
Grundlagen Statistik & Algorithmen, Teil 12

Der Random-Forest-Klassikator als Entscheidungshilfe

Der Random-Forest-Algorithmus ist ein sogenanntes beaufsichtigtes Klassifikationsverfahren, das aus mehreren unkorrelierten Entscheidungsbäumen besteht, die eine Klassifizierung oder Vorhersage liefern. Weil sich die Entscheidungsbäume parallel verarbeiten lassen, kann der Algorithmus – bei entsprechend paralleler Ausführung – sehr schnell ausgeführt werden. Die Skalierung ist also leicht zu berechnen. Random Forests können auch der Regressionsanalyse dienen.

Weiterlesen
Data Preparation kostet Zeit, ist aber unerlässlich. Geeignete Tools können den Prozess beschleunigen und vereinfachen. (© momius - stock.adobe.com)
Data Preparation

Datenaufbereitung ist ein unterschätzter Prozess

Der Prozess der Datenaufbereitung umfasst die Reinigung, Formung und Mischung von Daten, damit sie für analytische und andere Aufgaben in optimaler Qualität bereitstehen. Nur mit erstklassigen Daten lassen sich beispielsweise Lösungen für Machine Learning und Künstliche Intelligenz effizient, sicher und zuverlässig versorgen.

Weiterlesen
IBMs neuer CEO Arvind Krishna eröffnete den IBM Data & AI Summit 2020. (2019 John O’Boyle)
Nachbericht IBM Data & AI Summit 2020

IBM liefert erweiterte KI-Fähigkeiten für Chatbots und Debattier-Software

Auf dem Online-Event „IBM Data & AI Summit 2020“ stellte Big Blues neuer CEO Arvind Krishna u. a. Erweiterungen für die KI-Technologien „Watson Assistant“ und „Project Debater“ vor. Während Watson Assistant als Framework die Erstellung von Chatbots für Banken, Callcenter und andere Funktionen erlaubt, nutzt Project Debater Sprachverarbeitungsmethoden, um virtuelle Debatten zu ermöglichen.

Weiterlesen
60.000 angemeldete Teilnehmer aus über 100 Ländern besuchten den von Databricks organisierten Spark+AI Summit 2020. (Databricks)
Nachbericht Spark+AI Summit 2020

Databricks erweitert Machine Learning Framework

Der von Databricks veranstaltete Spark+AI Summit startete kürzlich mit 60.000 angemeldeten Teilnehmern aus über 100 Ländern, die sich über die neuesten Trends und Entwicklungen aus der Welt der KI und des ML innerhalb der Apache Spark Community informierten. Databricks, der Erfinder und Betreuer von Apache Spark, hat sein 2018 vorgestelltes ML-Framework MLflow erweitert und der Open Source Community übergeben. Auf der neuen Version 3.0 von Spark bauen die neuen oder erweiterten Plattformkomponenten Delta Lake, Delta Engine und Redash auf.

Weiterlesen
„Artificial Intelligence of Things“: Die Verknüpfung von KI und dem IoT ermöglicht eine ganzheitliche Optimierung der Fertigung. (KUKA Group)
KUKA & AIoT

Maßgeschneiderte, KI-gestützte Lösungen im IIoT-Umfeld

Zunehmend wird Machine Learning im IIoT-Umfeld genutzt. Der Anwendungsfall Predictive Maintenance greift jedoch viel zu kurz, warnt Christian Liedtke, Head of Strategic Alliances bei KUKA. Doch wenn man KI und IoT ganzheitlich zu AIoT kombiniere und in einer optimierten Smart Factory umsetze, könnten die Unternehmen Effizienzsteigerungen von bis zu 30 Prozent erzielen

Weiterlesen
Ereigniszeitanalyse mit zensierten Daten für die Vertriebsabteilung: die Überlebensfunktion für Vertriebstechniker (durchgezogene Linie) und für Vertreter (gestrichelte Linie) in einem Kaplan-Meier-Schätzer. Vertriebstechniker sind ihrer Stelle wesentlich stärker und länger treu als Vertreter. Der blaue und rötliche Hintergrund deckt sich mit der jeweiligen Kurve. (SAS)
Grundlagen Statistik & Algorithmen, Teil 6

Die Ereigniszeitanalyse – wenn Anfang und Ende die Erfolgsrate bestimmen

Die Ereigniszeitanalyse bzw. Survival Analysis umfasst eine Reihe von Werkzeugen der Statistik, mit denen die Zeit bis zum Eintritt eines bestimmten Ereignisses zwischen Gruppen verglichen wird. Auf diese Weise will man die Wirkung von prognostischen Faktoren, einer medizinischen Behandlung oder von schädlichen Einflüssen abschätzen. Bei dem Ereignis kann es sich um etwas so Endgültiges wie den Tod handeln, aber auch um den Verlust einer Arbeitsstelle, eine Scheidung oder einen Beginn, etwa um eine Geburt oder einen Heilungseintritt.

Weiterlesen
Ab sofort steht das E-Book „IoT-Echtzeitanalyse“ kostenlos zum Download bereit.  (Vogel IT-Medien)
E-Book von BigData-Insider

IoT-Echtzeitanalyse

Das Sensor-gestützte Lieferketten-Management, die vorausschauende Wartung einer Windkraftanlage, der Arbeitsschutz von Mitarbeitern oder die KFZ-Versicherung eines vernetzten Autofahrers – sie alle haben eines gemeinsam: Ihre Daten werden in Echtzeit erfasst und einer zeitnahen Auswertung unterworfen. Das Internet der Dinge (Internet of Things, IoT) ist einer der größten Wachstumsbereiche der Industrie weltweit.

Weiterlesen
Operationalisierung von Advanced Analytics bedeutet die Überführung und Anwendung der aus dem Data Lab gewonnenen Erkenntnisse in die operativen Prozesse. (BARC, Tim Grosser)
Evolution

Der Übergang von Business Intelligence zu Advanced Analytics

Wenn einem BI-Nutzer Reports und Dashboards nicht mehr reichen, wird es Zeit für Prognose-Tools, die in den Disziplinen Advanced Analytics (AA) und Data Science zu finden sind. Doch AA-Modelle sind nur von begrenztem Wert, wenn man sie nicht in die Prozesse integriert. Wie der Übergang von BI zu AA gelingen kann, zeigt ein Webinar von BARC-Experte Timm Grosser.

Weiterlesen
Das Hauptgebäude (Gartenansicht) der Munich Re (© Munich Re / Marcus Buck, München)
Enterprise-Data-Warehouse-Plattform bei Munich Re

Migration auf SAP Analytics Cloud erfolgreich bewältigt

Munich RE hat Mitte vergangenen Jahres ein Projekt zur Einführung eines neuen Enterprise Data Warehouses (EDWH) für Rückversicherungsdaten erfolgreich abgeschlossen. Dabei wurde das klassische Reporting von Rückversicherungsdaten im Legacy-System „Global Data Warehouse (GDWH)“ auf eine moderne Business-Intelligence-Plattform migriert, die auf SAP BW on HANA basiert. Ziel des Projekts war die Implementierung der technischen Voraussetzung für die Anwendung moderner Business Intelligence für Rückversicherungsdaten.

Weiterlesen
Illustration des Satzes von Bayes durch Überlagerung der beiden ihm zugrundeliegenden Entscheidungsbäume bzw. Baumdiagramme. (Qniemiec / CC BY-SA 3.0)
Grundlagen Statistik & Algorithmen, Teil 2

So verfeinert das Bayes-Theorem Spam-Filter – und mehr

Mithilfe des Satzes von Bayes lassen sich Parameter schätzen und Hypothesen induktiv testen. In einem Spamfilter können so wahrscheinliche Spam-Mails ermittelt werden. Und aus den Symptomen, die bei einem bekannten Test auftreten, lassen sich wahrscheinliche Krankheitsursachen aufspüren. Der Satz von Bayes, der bedingte Wahrscheinlichkeiten beschreibt, ist also ein nahezu universell nutzbares Werkzeug der Statistik.

Weiterlesen
Ab sofort steht das E-Book „Big-Data-Datenbanken“ für registrierte Leser von BigData-Insider kostenlos zum Download bereit.  (Vogel IT-Medien)
E-Book von BigData-Insider

Big-Data-Datenbanken

Big-Data-Datenbanken sollen die unterschiedlichsten Datentypen schnell und effizient verarbeiten. Sie lösen die herkömmlichen, überwiegend relationalen Datenbanktypen ab, die meist ein Data Warehouse unterstützen. Sie lösen sie ab, um neue Geschäftsmodelle zu ermöglichen, oder sie ergänzen die Data-Warehouse-Architektur mit notwendige Fähigkeiten, etwa für Data Discovery, Realtime Analytics und Advanced Analytics (Prognose).

Weiterlesen
Ab sofort steht das E-Book „Wie Maschinen selbst lernen“ kostenlos für registrierte Leserinnen und Leser von BigData-Insider zum Download bereit. (Vogel IT-Medien)
E-Book von BigData-Insider

Wie Maschinen selbst lernen

Das E-Book „Wie Maschinen selbst lernen“ stellt Methoden, Technologien und Produkte vor, mit denen Unternehmen Machine-Learning-Modelle und Algorithmen für nutzbringende Anwendungsfälle verwenden können. Die Technologie um Machine Learning und Deep Learning, allgemein „Künstliche Intelligenz“ (KI) genannt, hat in den vergangenen Jahren einen rasanten Aufschwung erlebt. Es gibt kaum noch einen Anwendungsbereich, in dem noch keine Algorithmen in den Prozessen werkeln, ober in der Fabrik oder im Weltall.

Weiterlesen
Das E-Book „Predictive Analytics“ steht ab sofort für registrierte Leser von BigData-Insider kostenlos zum Downlload bereit. (Vogel IT-Medien)
Kostenloses E-Book

Predictive Analytics

Predictive Analytics ist ein Teilbereich von Business Intelligence, der sich in erster Linie mit zu erwartenden und möglichen Ereignissen beschäftigt. Er fragt, was unter welchen Voraussetzungen passieren wird oder passieren sollte. Das ermöglicht Prognosen in zahlreichen Wirtschaftsbereichen, sei es im Vertrieb, in der Fertigung, im Einzelhandel oder in der Luftfahrt. Die Prognoseresultate werden in der Regel mit ergänzender Software visualisiert und interaktiv in Teams diskutiert, weitergeleitet und bearbeitet.

Weiterlesen
Machine Learning ist die einfachste Einstiegsform in Algorithmen für Software Services, die sich selbst optimieren. Diese Algorithmen eignen sich beispielsweise, um unscharfe Grenzbereiche genauer abzugrenzen oder um widersprüchliche Informationen aufzudecken, etwa im Bereich Kreditkartenbetrug. (© Weissblick - Fotolia.com)
Machine Learning

So bereitet Machine Learning Big Data auf

Seit 2014 haben Anbieter wie Microsoft, IBM, Amazon und die Apache Software Foundation das maschinelle Lernen (Machine Learning, ML) gefördert und in der Cloud zur Verfügung gestellt. Erzwungen durch den Mangel an Data Scientists, bieten ML-Algorithmen einen leicht erlernbaren Weg, um Prognosen zu erstellen.

Weiterlesen
Clemens Mewald, Director of Product Management, Data Science and Machine Learning bei Databricks (Databricks)
Nachbericht Databricks Data + AI Summit 2020

Databricks unterstützt BI-Analysten im Data-Lake-Umfeld

Das von den ursprünglichen Entwicklern von Apache Spark gegründete Unternehmen Databricks hat seine Unified Analytics Platform um eine weitere Komponente erweitert. Zu den vorhandenen Komponenten Delta Lake, Delta Engine und Redash, die auf der neuen Version 3.0 von Spark aufbauen, kommt nun SQL Analytics hinzu. Dieser SQL-Editor unterstützt mit Konnektoren bislang die BI-Lösungen von Tableau und Microsoft.

Weiterlesen
Kernidee von LOF ist, die lokale Dichte eines Punktes mit der seiner Nachbarn zu vergleichen- (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 7

So deckt der Local Outlier Factor Anomalien auf

Um Trends zu erkennen, wird oft die Clusteranalyse herangezogen. Der k-Means-Algorithmus etwa zeigt an, wo sich Analyseergebnisse in einer Normalverteilung ballen. Für manche Zwecke ist es aber aufschlussreicher, Ausreißer zu untersuchen, denn sie bilden die Antithese zum „Normalen“, etwa im Betrugswesen. Der Local-Outlier-Factor-Algorithmus (LOF) ist in der Lage, den Abstand von Ausreißern zu ihren Nachbarn zu berechnen und deckt so Anomalien auf.

Weiterlesen
Eine Wagon-Intelligence-Telematikeinheit an einem Containertragwagen. Bereits über 25.000 Wagen wurden damit ausgerüstet. Die gesamte Flotte folgt bis 2020. (amspire lab/DB Cargo)
Splunk im Einsatz bei der DB Cargo

Digitalisierung für mehr Qualität und Service im Schienengüterverkehr

Splunk Enterprise, das Hauptprodukt des Operational-Intelligence-Spezialisten Splunk, ist bei DB Cargo im Einsatz, der Güterbahnsparte der Deutschen Bahn. Im Zuge der Digitalisierung und Automatisierung des Güterverkehrs und des Fuhrparks hilft Splunk Enterprise bei der Datenerfassung und -analyse in den Projekten „Wagon Intelligence“ und „TechLOK“. Die Software-Entwicklung der beiden Projekte findet im DB Cargo amspire lab in Frankfurt am Main statt.

Weiterlesen
Sport-Analytik erlaubt zeitnahe Auwertungen von Spielen, Sportlern und Statistiken für die Zuschauer, aber auch für Vereine und Trainer und Verbände.  (© kentoh - stock.adobe.com)
Big-Data-Analysen im Sport

Die Sportwelt profitiert von intelligenter Analytik

Die drei Analytik-Anbieter SAS, Exasol und Amazon Web Services haben den Sport als Wachstumsmarkt entdeckt. Zudem sind Organisationen wie die Deutsche Bundesliga auf Innovationen bei ihren Zuschauerangeboten angewiesen, um konkurrenzfähig zu bleiben. Mit den Lösungen der drei Anbieter reicht das Angebot von der einfachen Sportgrafik bis hin zu KI-basierten Angaben und Vorhersagen, die in Echtzeit angezeigt werden.

Weiterlesen
Ab sofort steht das E-Book „Cognitive Computing“ kostenlos zum Download bereit. (Vogel IT-Medien)
E-Book von BigData-Insider

So funktioniert Cognitive Computing

Überall sprechen die IT-Anbieter von Künstlicher Intelligenz (KI), ohne jedoch genau zu definieren, was sie damit meinen. Der KI-Hype überwiegt zunehmend das, was im Kern an Nutzen für den IT-Nutzer verborgen ist. Höchste Zeit, dass die Disziplinen, die sich hinter KI verbergen, beleuchtet werden. Neben Machine Learning ist hier vor allem Cognitive Computing zu nennen.

Weiterlesen
Prinzipbild des Rete-Algorithmus. Deutlich sind zwei Netzwerke (Alpha, Beta) zu erkennen und dass darin jeweils sehr viel Speicher benötigt wird. Dieser hohe Speicherbedarf ist einer der wenigen Nachteile des Rete-Algorithmus.  (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 3

Speed für Mustererkennung mit dem Rete-Algorithmus

Geschäftsregeln halten zahlreiche Unternehmensprozesse am Laufen, deshalb können sie mitunter sehr umfangreich werden. Der Umfang macht ihre Ausführung zeitaufwendig, weshalb jede Methode, sie zu beschleunigen, willkommen ist. Der Rete-Algorithmus beschleunigte 1979 die damals bestehenden Systeme für die Verarbeitung von Business Rules um den Faktor 3.000. Er ist bis heute die Grundlage zahlreicher Expertensysteme, etwa in der Mustererkennung.

Weiterlesen
Das IBM Watson IoT Center in München ragt mit zwei Türmen in den bajuwarischen Himmel. (IBM)
In München

IBM eröffnet globalen Watson-IoT-Hauptsitz

Die IBM hat am 16. Februar offiziell die Türen des neuen globalen Hauptsitzes für ihren neuen Geschäftsbereich Watson IoT in München geöffnet. Ziel der 200-Millionen-US-Dollar-Investition ist es, die technischen und wirtschaftlichen IoT-Potenziale weiter auszuloten. Zudem gab IBM den offiziellen Startschuss für den Aufbau eines neuen, weltweiten Innovationsökosystems rund um künstliche Intelligenz (AI) und IoT. Mitglied dieses Ökosystems ist unter anderem BMW. Weitere Partnerschaften betreffen Bosch und Visa.

Weiterlesen
Großes Interesse: IBM konnte zahlreiche Gäste auf dem IBM Watson Summit 2017 begrüßen.  ( IBM  )
IBM Watson Summit 2017

Digitalisierung schlau umgesetzt

Auf dem IBM Watson Summit 2017 in Frankfurt/Main haben führende europäische Unternehmen wie Kone, Lufthansa, Siemens oder Telekom ihre Digitalisierungsprojekte vorgestellt, die sie auf der Basis von Watson realisiert haben oder demnächst vorstellen. Darunter befand sich auch einer der ersten deutschen Chatbots.

Weiterlesen
Neo4j 4.0 antwortet auf komplizierte Herausforderungen in der Entwicklung moderner Applikationen wie etwa unbegrenzte Skalierbarkeit, intelligenter Kontext von Daten und robuste Datensicherheit für Unternehmen. (Neo4j)
Neo4j v.4.0

Graph-Datenbank Neo4j wird noch skalierbarer

Neo4j, ein marktführender Anbieter von Graph-Datenbanktools, hat die Version 4.0 seiner Plattform verfügbar gemacht. Zu den Neuerungen gehören unbegrenzte Skalierbarkeit, mandantenfähige Multi-Datenbank-Nutzung, die Integration von Apache Kafka und die besonders für Unternehmen wichtige feingranulare Steuerung von Datensicherheit und Datenschutz.

Weiterlesen
Die Architektur von Stackable umfasst Operatoren, Agenten sowie zahlreiche Services, die unter anderem von Gaia-X und OpenTelemetry kommen können. (Stackable)
Big Data in der Enterprise Cloud

Big-Data-Projekte mit Stackable in der Ionos-Cloud

Das deutsche Start-up Stackable bietet Big-Data-Lösungen in der Enterprise Cloud an, die von Ionos betrieben wird. Im Unterschied zu den Angeboten der Hyperscaler basiert das Angebot von Stackable auf einer offenen und flexiblen Plattform, die durchgängig auf Open-Source-Komponenten setzt. Kunden haben hier die freie Wahl, welche Tools sie in welcher Version kombinieren möchten. So sollen sich maßgeschneiderte, Open-Source-basierte Lösungen erstellen lassen, die den Kunden nicht an einen bestimmten Anbieter binden.

Weiterlesen
Künstliche Intelligenz muss transparent arbeiten. Nur wenn die Ergebnisse nachvollziehbar sind, sind sie vertrauenswürdig. (© willyam - stock.adobe.com)
Trusted AI

So wird Künstliche Intelligenz vertrauenswürdig

Mit der Ausbreitung von KI-Anwendungen stellen sich Schöpfern wie Benutzern zwei zentrale Fragen: Was befindet sich in der Black Box, die den Algorithmus und das Deep-Learning-Modell verbirgt? Und zweitens: Wie lässt sich sicherstellen, dass kein Unbefugter diese Software für seine Zwecke manipuliert hat? Manche KI-Hersteller und -Berater haben darauf bereits eine Antwort.

Weiterlesen
Position der Datenvirtualisierungsschicht in der Enterprise-Architektur. (Forrester 2015)
Big Data und Virtual Data Warehouse

Das Virtual Data Warehouse verhilft zur schnelleren digitalen Transformation

Das traditionelle Data Warehouse ist auf die Verarbeitung strukturierter Daten ausgelegt, welche es effizient und performant erledigt. Doch Big Data besteht aus unstrukturierten Daten, Datenströmen, die in großen Mengen und mit hoher Geschwindigkeit eintreffen. Um Leistung und Effizienz zu erhalten, aber Flexibilität hinzuzugewinnen, bietet das Virtual Data Warehouse eine vielversprechende Alternative.

Weiterlesen