Michael Matzer ♥ BigData-Insider

Michael Matzer

Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.

Artikel des Autors

Das Logo des Tibco Analytics Forum 2021
Nachbericht Tibco Analytics Forum 2021

Tibco kündigt Neuerungen bei Integration, Spotfire und Machine Learning an

Auf seinem diesjährigen „Tibco Analytics Forum“ (TAF) hat der Analytics- und Integrationsspezialist Tibco mehrere Neuerungen für seine Plattformkomponenten wie etwa „Cloud Integration iPaaS“ und „Data Virtualization“ vorgestellt. Die neuen Funktionen sollen den Kunden helfen, datengestützte Geschäftsprozesse schneller zu konzipieren und bereitzustellen sowie Datenschätze schneller zu finden und ihrer Verwertung zuzuführen.

Weiterlesen
„Datenintegration“ und „Hybrid Use Case“ sind die Schlüsselthemen der Qlik World Online 2021.
Nachbericht Qlik World Online 2021

Mobile und kollaborative Datenanalysen als SaaS oder in der Hybrid Cloud

Im Rahmen seiner Anwenderkonferenz „Qlik World Online 2021“ hat der BI-Anbieter Qlik seine Active-Intelligence-Strategie auf Basis der Qlik-SaaS-Plattform in den Vordergrund gestellt. Doch seine Produktplanung hat binnen eines Jahres auch erhebliche Fortschritte Richtung Hybrid Use Cases und Replikation gemacht, um Qlik so als Dienstleister für Cloud Data Services attraktiv zu machen.

Weiterlesen
Auf dem Graph + AI Summit 2021 berichteten namhafte Unternehmen von ihren Erfahrungen mit dem Einsatz einer Graph-Plattform.
Nachbericht Graph + AI Summit 2021

Graph-Technologie und KI-Einsatz gehören zusammen

Auf dem Graph + AI Summit 2021, der kürzlich vom Softwarehersteller TigerGraph für rund 6.000 erwartete Online-Besucher veranstaltet wurde, berichteten Unternehmen wie Jaguar Land Rover, Intuit und JPMorgan Chase von ihren Erfahrungen mit dem Einsatz einer Graph-Plattform. Analysten wie etwa Noel Yuhanna von der Forrester Group stellten Anwendungsfälle für Graph und KI vor: Graph und KI gehören demnach untrennbar zusammen.

Weiterlesen
Die Architektur von Stackable umfasst Operatoren, Agenten sowie zahlreiche Services, die unter anderem von Gaia-X und OpenTelemetry kommen können.
Big Data in der Enterprise Cloud

Big-Data-Projekte mit Stackable in der Ionos-Cloud

Das deutsche Start-up Stackable bietet Big-Data-Lösungen in der Enterprise Cloud an, die von Ionos betrieben wird. Im Unterschied zu den Angeboten der Hyperscaler basiert das Angebot von Stackable auf einer offenen und flexiblen Plattform, die durchgängig auf Open-Source-Komponenten setzt. Kunden haben hier die freie Wahl, welche Tools sie in welcher Version kombinieren möchten. So sollen sich maßgeschneiderte, Open-Source-basierte Lösungen erstellen lassen, die den Kunden nicht an einen bestimmten Anbieter binden.

Weiterlesen
Das Hauptgebäude (Gartenansicht) der Munich Re
Enterprise-Data-Warehouse-Plattform bei Munich Re

Migration auf SAP Analytics Cloud erfolgreich bewältigt

Munich RE hat Mitte vergangenen Jahres ein Projekt zur Einführung eines neuen Enterprise Data Warehouses (EDWH) für Rückversicherungsdaten erfolgreich abgeschlossen. Dabei wurde das klassische Reporting von Rückversicherungsdaten im Legacy-System „Global Data Warehouse (GDWH)“ auf eine moderne Business-Intelligence-Plattform migriert, die auf SAP BW on HANA basiert. Ziel des Projekts war die Implementierung der technischen Voraussetzung für die Anwendung moderner Business Intelligence für Rückversicherungsdaten.

Weiterlesen
„Artificial Intelligence of Things“: Die Verknüpfung von KI und dem IoT ermöglicht eine ganzheitliche Optimierung der Fertigung.
KUKA & AIoT

Maßgeschneiderte, KI-gestützte Lösungen im IIoT-Umfeld

Zunehmend wird Machine Learning im IIoT-Umfeld genutzt. Der Anwendungsfall Predictive Maintenance greift jedoch viel zu kurz, warnt Christian Liedtke, Head of Strategic Alliances bei KUKA. Doch wenn man KI und IoT ganzheitlich zu AIoT kombiniere und in einer optimierten Smart Factory umsetze, könnten die Unternehmen Effizienzsteigerungen von bis zu 30 Prozent erzielen

Weiterlesen
Clemens Mewald, Director of Product Management, Data Science and Machine Learning bei Databricks
Nachbericht Databricks Data + AI Summit 2020

Databricks unterstützt BI-Analysten im Data-Lake-Umfeld

Das von den ursprünglichen Entwicklern von Apache Spark gegründete Unternehmen Databricks hat seine Unified Analytics Platform um eine weitere Komponente erweitert. Zu den vorhandenen Komponenten Delta Lake, Delta Engine und Redash, die auf der neuen Version 3.0 von Spark aufbauen, kommt nun SQL Analytics hinzu. Dieser SQL-Editor unterstützt mit Konnektoren bislang die BI-Lösungen von Tableau und Microsoft.

Weiterlesen
Ab sofort steht das E-Book „Wie Maschinen selbst lernen“ kostenlos für registrierte Leserinnen und Leser von BigData-Insider zum Download bereit.
E-Book von BigData-Insider

Wie Maschinen selbst lernen

Das E-Book „Wie Maschinen selbst lernen“ stellt Methoden, Technologien und Produkte vor, mit denen Unternehmen Machine-Learning-Modelle und Algorithmen für nutzbringende Anwendungsfälle verwenden können. Die Technologie um Machine Learning und Deep Learning, allgemein „Künstliche Intelligenz“ (KI) genannt, hat in den vergangenen Jahren einen rasanten Aufschwung erlebt. Es gibt kaum noch einen Anwendungsbereich, in dem noch keine Algorithmen in den Prozessen werkeln, ober in der Fabrik oder im Weltall.

Weiterlesen
Ab sofort steht das E-Book „IoT-Echtzeitanalyse“ kostenlos zum Download bereit.
E-Book von BigData-Insider

IoT-Echtzeitanalyse

Das Sensor-gestützte Lieferketten-Management, die vorausschauende Wartung einer Windkraftanlage, der Arbeitsschutz von Mitarbeitern oder die KFZ-Versicherung eines vernetzten Autofahrers – sie alle haben eines gemeinsam: Ihre Daten werden in Echtzeit erfasst und einer zeitnahen Auswertung unterworfen. Das Internet der Dinge (Internet of Things, IoT) ist einer der größten Wachstumsbereiche der Industrie weltweit.

Weiterlesen
IBMs neuer CEO Arvind Krishna eröffnete den IBM Data & AI Summit 2020.
Nachbericht IBM Data & AI Summit 2020

IBM liefert erweiterte KI-Fähigkeiten für Chatbots und Debattier-Software

Auf dem Online-Event „IBM Data & AI Summit 2020“ stellte Big Blues neuer CEO Arvind Krishna u. a. Erweiterungen für die KI-Technologien „Watson Assistant“ und „Project Debater“ vor. Während Watson Assistant als Framework die Erstellung von Chatbots für Banken, Callcenter und andere Funktionen erlaubt, nutzt Project Debater Sprachverarbeitungsmethoden, um virtuelle Debatten zu ermöglichen.

Weiterlesen
Wie funktioniert der Random-Forest-Algorithmus? Antworten gibt der 12. Teil unserer Grundlagenreihe.
Grundlagen Statistik & Algorithmen, Teil 12

Der Random-Forest-Klassikator als Entscheidungshilfe

Der Random-Forest-Algorithmus ist ein sogenanntes beaufsichtigtes Klassifikationsverfahren, das aus mehreren unkorrelierten Entscheidungsbäumen besteht, die eine Klassifizierung oder Vorhersage liefern. Weil sich die Entscheidungsbäume parallel verarbeiten lassen, kann der Algorithmus – bei entsprechend paralleler Ausführung – sehr schnell ausgeführt werden. Die Skalierung ist also leicht zu berechnen. Random Forests können auch der Regressionsanalyse dienen.

Weiterlesen
60.000 angemeldete Teilnehmer aus über 100 Ländern besuchten den von Databricks organisierten Spark+AI Summit 2020.
Nachbericht Spark+AI Summit 2020

Databricks erweitert Machine Learning Framework

Der von Databricks veranstaltete Spark+AI Summit startete kürzlich mit 60.000 angemeldeten Teilnehmern aus über 100 Ländern, die sich über die neuesten Trends und Entwicklungen aus der Welt der KI und des ML innerhalb der Apache Spark Community informierten. Databricks, der Erfinder und Betreuer von Apache Spark, hat sein 2018 vorgestelltes ML-Framework MLflow erweitert und der Open Source Community übergeben. Auf der neuen Version 3.0 von Spark bauen die neuen oder erweiterten Plattformkomponenten Delta Lake, Delta Engine und Redash auf.

Weiterlesen
COVID-19 gelangt höchstwahrscheinlich über das Protein ACE2 in menschliche Lungenzellen. Dieser Prozess – Endozytose genannt – wird reguliert durch AAK1 (ein anderes Protein). Baricitinib hemmt AAK1 und könnte möglicherweise so auch das Eindringen von COVID-19 in die Lungenzellen verhindern.
Künstliche Intelligenz gegen COVID-19

So helfen KI-Modelle und Algorithmen im Kampf gegen das Corona-Virus

Machine Learning ist ein bedeutendes Instrument im Kampf gegen die Corona-Pandemie. Wenn Bürger, Behörden und Unternehmen diese Gelegenheit nutzen, um Daten zu sammeln, vorhandenes Wissen zu vereinen und ihre Fachkenntnisse zusammenzubringen, können viele Leben gerettet werden – sowohl heute als auch in der Zukunft. Wie vielfältig die Einsatzgebiete von Machine Learning in diesem Rahmen sind, soll diese Übersicht zeigen, die von Data Revenue erstellt wurde.

Weiterlesen
Messpunkte und deren Abstand von einer nach der Methode der kleinsten Quadrate bestimmten Funktion. Hier wurde eine logistische Funktion als Modellkurve gewählt.
Grundlagen Statistik & Algorithmen, Teil 11

Methoden der Linearen Regressionsanalyse

Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis er in welchem Kundenkreis welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Heute gibt es eine große Zahl solcher Verfahren, denn sie werden für zahlreiche Zwecke benötigt, etwa in der Epidemiologie.

Weiterlesen
Operationalisierung von Advanced Analytics bedeutet die Überführung und Anwendung der aus dem Data Lab gewonnenen Erkenntnisse in die operativen Prozesse.
Evolution

Der Übergang von Business Intelligence zu Advanced Analytics

Wenn einem BI-Nutzer Reports und Dashboards nicht mehr reichen, wird es Zeit für Prognose-Tools, die in den Disziplinen Advanced Analytics (AA) und Data Science zu finden sind. Doch AA-Modelle sind nur von begrenztem Wert, wenn man sie nicht in die Prozesse integriert. Wie der Übergang von BI zu AA gelingen kann, zeigt ein Webinar von BARC-Experte Timm Grosser.

Weiterlesen
Sport-Analytik erlaubt zeitnahe Auwertungen von Spielen, Sportlern und Statistiken für die Zuschauer, aber auch für Vereine und Trainer und Verbände.
Big-Data-Analysen im Sport

Die Sportwelt profitiert von intelligenter Analytik

Die drei Analytik-Anbieter SAS, Exasol und Amazon Web Services haben den Sport als Wachstumsmarkt entdeckt. Zudem sind Organisationen wie die Deutsche Bundesliga auf Innovationen bei ihren Zuschauerangeboten angewiesen, um konkurrenzfähig zu bleiben. Mit den Lösungen der drei Anbieter reicht das Angebot von der einfachen Sportgrafik bis hin zu KI-basierten Angaben und Vorhersagen, die in Echtzeit angezeigt werden.

Weiterlesen
Neo4j 4.0 antwortet auf komplizierte Herausforderungen in der Entwicklung moderner Applikationen wie etwa unbegrenzte Skalierbarkeit, intelligenter Kontext von Daten und robuste Datensicherheit für Unternehmen.
Neo4j v.4.0

Graph-Datenbank Neo4j wird noch skalierbarer

Neo4j, ein marktführender Anbieter von Graph-Datenbanktools, hat die Version 4.0 seiner Plattform verfügbar gemacht. Zu den Neuerungen gehören unbegrenzte Skalierbarkeit, mandantenfähige Multi-Datenbank-Nutzung, die Integration von Apache Kafka und die besonders für Unternehmen wichtige feingranulare Steuerung von Datensicherheit und Datenschutz.

Weiterlesen
Cassandra Enterprise umfasst zahlreiche Leistungsmerkmale, die für Unternehmensnutzer wichtig sind.
NoSQL

NoSQL-Datenbanken im Vergleich

NoSQL-Datenbanken wurden aus der Notwendigkeit heraus entwickelt, große, unterschiedliche Mengen von Dimensionen wie Raum, Zeit und Lokation auf möglichst effiziente Weise zu speichern und zu verarbeiten. Mittlerweile sind sie die unabdingbare Alternative zu relationalen SQL-basierten Datenbanken. Doch nicht jede NoSQL-Datenbank eignet sich für jeden Zweck. Tatsächlich sind die meisten sogar recht spezialisiert.

Weiterlesen
Messpunkte und deren Abstand von einer nach der Methode der kleinsten Quadrate bestimmten Funktion. Hier wurde eine logistische Funktion als Modellkurve gewählt.
Grundlagen Statistik & Algorithmen, Teil 11

Methoden der Linearen Regressionsanalyse

Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis er in welchem Kundenkreis welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Heute gibt es eine große Zahl solcher Verfahren, denn sie werden für zahlreiche Zwecke benötigt, etwa in der Epidemiologie.

Weiterlesen
Das Hauptgebäude (Gartenansicht) der Munich Re
Enterprise-Data-Warehouse-Plattform bei Munich Re

Migration auf SAP Analytics Cloud erfolgreich bewältigt

Munich RE hat Mitte vergangenen Jahres ein Projekt zur Einführung eines neuen Enterprise Data Warehouses (EDWH) für Rückversicherungsdaten erfolgreich abgeschlossen. Dabei wurde das klassische Reporting von Rückversicherungsdaten im Legacy-System „Global Data Warehouse (GDWH)“ auf eine moderne Business-Intelligence-Plattform migriert, die auf SAP BW on HANA basiert. Ziel des Projekts war die Implementierung der technischen Voraussetzung für die Anwendung moderner Business Intelligence für Rückversicherungsdaten.

Weiterlesen
Bestmögliche Gerade durch die „Punktwolke“ einer Messung
Grundlagen Statistik & Algorithmen, Teil 10

Mit einfacher Regressionsanalyse Mittelwerte in Prognosen ermitteln

Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis in welchem Kundenkreis er welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Um 1760 erfunden, gibt es heute eine große Zahl solcher Verfahren. Dieser Beitrag beginnt mit dem einfachsten, der Einfachen Linearen Regression (ELR).

Weiterlesen
Kernel-Maschinen werden verwendet, um nichtlinear trennbare Funktionen zu berechnen, um so eine linear trennbare Funktion höherer Ordnung zu erhalten.
Grundlagen Statistik & Algorithmen, Teil 5

Optimale Clusteranalyse und Segmentierung mit dem k-Means-Algorithmus

Der k-Means-Algorithmus ist ein Rechenverfahren, das sich für die Gruppierung von Objekten, die sogenannte Clusteranalyse, einsetzen lässt. Dank der effizienten Berechnung der Clusterzentren und dem geringen Speicherbedarf eignet sich der Algorithmus sehr gut für die Analyse großer Datenmengen, wie sie im Big-Data-Umfeld üblich sind, so etwa in der Bildverarbeitung und in der Kundensegmentierung.

Weiterlesen
Gierige Algorithmen bestimmen z. B. die Mindestmenge an Münzen für das jeweils nötige Wechselgeld. Im Bild sind die Schritte abgebildet, die ein Mensch gehen würde, um einen gierigen Algorithmus zu imitieren, der 36 Cents herausgibt, indem er Münzen mit den Werten {1, 5, 10, 20} verwendet. Die Münze mit dem höchsten Wert, der unter dem geschuldeten Betrag liegt, ist das „lokale Optimum“.
Grundlagen Statistik & Algorithmen, Teil 9

Der Greedy-Algorithmus

Greedy-Algorithmen, oder gierige Algorithmen, bilden eine spezielle Klasse von Optimierungsalgorithmen, die in der Informatik auftreten. Sie zeichnen sich dadurch aus, dass sie schrittweise den Folgezustand auswählen, der zum Zeitpunkt der Wahl den größten Gewinn bzw. das beste Ergebnis (berechnet durch eine Bewertungsfunktion) verspricht z. B. Gradientenverfahren, so etwa die Berechnung von Wechselgeld oder des kürzesten Wegs. Greedy-Algorithmen sind oft schnell, lösen viele Probleme aber nicht optimal.

Weiterlesen
„Artificial Intelligence of Things“: Die Verknüpfung von KI und dem IoT ermöglicht eine ganzheitliche Optimierung der Fertigung.
KUKA & AIoT

Maßgeschneiderte, KI-gestützte Lösungen im IIoT-Umfeld

Zunehmend wird Machine Learning im IIoT-Umfeld genutzt. Der Anwendungsfall Predictive Maintenance greift jedoch viel zu kurz, warnt Christian Liedtke, Head of Strategic Alliances bei KUKA. Doch wenn man KI und IoT ganzheitlich zu AIoT kombiniere und in einer optimierten Smart Factory umsetze, könnten die Unternehmen Effizienzsteigerungen von bis zu 30 Prozent erzielen

Weiterlesen
Die Architektur von Stackable umfasst Operatoren, Agenten sowie zahlreiche Services, die unter anderem von Gaia-X und OpenTelemetry kommen können.
Big Data in der Enterprise Cloud

Big-Data-Projekte mit Stackable in der Ionos-Cloud

Das deutsche Start-up Stackable bietet Big-Data-Lösungen in der Enterprise Cloud an, die von Ionos betrieben wird. Im Unterschied zu den Angeboten der Hyperscaler basiert das Angebot von Stackable auf einer offenen und flexiblen Plattform, die durchgängig auf Open-Source-Komponenten setzt. Kunden haben hier die freie Wahl, welche Tools sie in welcher Version kombinieren möchten. So sollen sich maßgeschneiderte, Open-Source-basierte Lösungen erstellen lassen, die den Kunden nicht an einen bestimmten Anbieter binden.

Weiterlesen
Data Preparation kostet Zeit, ist aber unerlässlich. Geeignete Tools können den Prozess beschleunigen und vereinfachen.
Data Preparation

Datenaufbereitung ist ein unterschätzter Prozess

Der Prozess der Datenaufbereitung umfasst die Reinigung, Formung und Mischung von Daten, damit sie für analytische und andere Aufgaben in optimaler Qualität bereitstehen. Nur mit erstklassigen Daten lassen sich beispielsweise Lösungen für Machine Learning und Künstliche Intelligenz effizient, sicher und zuverlässig versorgen.

Weiterlesen
Wie funktioniert der Random-Forest-Algorithmus? Antworten gibt der 12. Teil unserer Grundlagenreihe.
Grundlagen Statistik & Algorithmen, Teil 12

Der Random-Forest-Klassikator als Entscheidungshilfe

Der Random-Forest-Algorithmus ist ein sogenanntes beaufsichtigtes Klassifikationsverfahren, das aus mehreren unkorrelierten Entscheidungsbäumen besteht, die eine Klassifizierung oder Vorhersage liefern. Weil sich die Entscheidungsbäume parallel verarbeiten lassen, kann der Algorithmus – bei entsprechend paralleler Ausführung – sehr schnell ausgeführt werden. Die Skalierung ist also leicht zu berechnen. Random Forests können auch der Regressionsanalyse dienen.

Weiterlesen
Auf dem Graph + AI Summit 2021 berichteten namhafte Unternehmen von ihren Erfahrungen mit dem Einsatz einer Graph-Plattform.
Nachbericht Graph + AI Summit 2021

Graph-Technologie und KI-Einsatz gehören zusammen

Auf dem Graph + AI Summit 2021, der kürzlich vom Softwarehersteller TigerGraph für rund 6.000 erwartete Online-Besucher veranstaltet wurde, berichteten Unternehmen wie Jaguar Land Rover, Intuit und JPMorgan Chase von ihren Erfahrungen mit dem Einsatz einer Graph-Plattform. Analysten wie etwa Noel Yuhanna von der Forrester Group stellten Anwendungsfälle für Graph und KI vor: Graph und KI gehören demnach untrennbar zusammen.

Weiterlesen
Das E-Book „Predictive Analytics“ steht ab sofort für registrierte Leser von BigData-Insider kostenlos zum Downlload bereit.
Kostenloses E-Book

Predictive Analytics

Predictive Analytics ist ein Teilbereich von Business Intelligence, der sich in erster Linie mit zu erwartenden und möglichen Ereignissen beschäftigt. Er fragt, was unter welchen Voraussetzungen passieren wird oder passieren sollte. Das ermöglicht Prognosen in zahlreichen Wirtschaftsbereichen, sei es im Vertrieb, in der Fertigung, im Einzelhandel oder in der Luftfahrt. Die Prognoseresultate werden in der Regel mit ergänzender Software visualisiert und interaktiv in Teams diskutiert, weitergeleitet und bearbeitet.

Weiterlesen