Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.
Munich RE hat Mitte vergangenen Jahres ein Projekt zur Einführung eines neuen Enterprise Data Warehouses (EDWH) für Rückversicherungsdaten erfolgreich abgeschlossen. Dabei wurde das klassische Reporting von Rückversicherungsdaten im Legacy-System „Global Data Warehouse (GDWH)“ auf eine moderne Business-Intelligence-Plattform migriert, die auf SAP BW on HANA basiert. Ziel des Projekts war die Implementierung der technischen Voraussetzung für die Anwendung moderner Business Intelligence für Rückversicherungsdaten.
Gibt es mehr als zwei Klassen, die zu klassifizieren sind, ziehen Experten den Algorithmus der Diskriminanzanalyse der linearen Regression vor. Die Diskriminanz- oder Unterscheidungsfunktion sorgt dafür, dass zwei Klassen, die sich möglicherweise in einer Schnittmenge überlappen, schärfer getrennt werden, beispielsweise Käufer von Nicht-Käufern.
Amazon Web Services hat auf seiner Kundenveranstaltung AWS re:Invent 2020 im Dezember eine Reihe von Produkten für den Industrial IoT Markt vorgestellt. Wir haben einen näheren Blick darauf geworfen und stellen diese kurz vor.
Mit Amazon HealthLake sollen Kunden im Gesundheitswesen und in den Biowissenschaften leichter großen Datenmengen im Petabyte-Bereich analysieren können. Die neue Babelfish-Funktion für den Amazon-Aurora-PostgreSQL-Service greift das Lizenzgeschäft von Anbietern relationaler Datenbanken an und soll Kunden helfen, Lizenzgebühren zu sparen.
Zunehmend wird Machine Learning im IIoT-Umfeld genutzt. Der Anwendungsfall Predictive Maintenance greift jedoch viel zu kurz, warnt Christian Liedtke, Head of Strategic Alliances bei KUKA. Doch wenn man KI und IoT ganzheitlich zu AIoT kombiniere und in einer optimierten Smart Factory umsetze, könnten die Unternehmen Effizienzsteigerungen von bis zu 30 Prozent erzielen
Das von den ursprünglichen Entwicklern von Apache Spark gegründete Unternehmen Databricks hat seine Unified Analytics Platform um eine weitere Komponente erweitert. Zu den vorhandenen Komponenten Delta Lake, Delta Engine und Redash, die auf der neuen Version 3.0 von Spark aufbauen, kommt nun SQL Analytics hinzu. Dieser SQL-Editor unterstützt mit Konnektoren bislang die BI-Lösungen von Tableau und Microsoft.
Das E-Book „Wie Maschinen selbst lernen“ stellt Methoden, Technologien und Produkte vor, mit denen Unternehmen Machine-Learning-Modelle und Algorithmen für nutzbringende Anwendungsfälle verwenden können. Die Technologie um Machine Learning und Deep Learning, allgemein „Künstliche Intelligenz“ (KI) genannt, hat in den vergangenen Jahren einen rasanten Aufschwung erlebt. Es gibt kaum noch einen Anwendungsbereich, in dem noch keine Algorithmen in den Prozessen werkeln, ober in der Fabrik oder im Weltall.
Die jüngste IDC-Studie „Industrial IoT in Deutschland 2021“ zeigt, dass fast 40 Prozent der rund 250 befragten deutschen Unternehmen wegen COVID-19 ihre Investitionen in das IIoT erhöhen wollen. Nur 18 Prozent der Befragten planen, sie zu senken. Technologische Entwicklungen bei Edge Computing, 5G und KI/ML fördern neue Anwendungsszenarien und eine IIoT-Adaption.
Tableau, ein Spezialist für Datenvisualisierung, führt seine Plattform mit der von Salesforce zusammen, um seinen Kunden zusätzlich auch die KI- und Machine-Learning-Funktionen von Einstein Analytics zu bieten. Das Ergebnis wird Tableau CRM heißen. Weitere Integrationen mit Salesforce-Produkten, wie MuleSoft, sollen folgen.
Das Sensor-gestützte Lieferketten-Management, die vorausschauende Wartung einer Windkraftanlage, der Arbeitsschutz von Mitarbeitern oder die KFZ-Versicherung eines vernetzten Autofahrers – sie alle haben eines gemeinsam: Ihre Daten werden in Echtzeit erfasst und einer zeitnahen Auswertung unterworfen. Das Internet der Dinge (Internet of Things, IoT) ist einer der größten Wachstumsbereiche der Industrie weltweit.
Der Business-Analytics-Spezialist Tibco integriert Event-Streaming in seine BI-Suite Spotfire und erweitert deren Fähigkeiten zur Datenverwaltung mit den Tools „Any Data Hub“ und „SmartMapper“. Im Bereich Business Process Management (BPM) erweitert der Hersteller sein Responsive Application Mesh (RAM).
Welches Modell ist für meine Daten am besten geeignet? Diese Frage stellt sich jeder Data Scientist. Mithilfe des seit 1974 in Japan veröffentlichten „Akaike Information Criterion“ (AIC) kann er die Antwort in kurzer Zeit finden.
Die IBM hat ihr umfassendes Datenbank-Portfolio aktualisiert. Zu den Produkten gehören das Urgestein Db2, aber auch Informix, die Netezza-Appliance und das relativ neue Cloud Pak for Data.
Auf dem Online-Event „IBM Data & AI Summit 2020“ stellte Big Blues neuer CEO Arvind Krishna u. a. Erweiterungen für die KI-Technologien „Watson Assistant“ und „Project Debater“ vor. Während Watson Assistant als Framework die Erstellung von Chatbots für Banken, Callcenter und andere Funktionen erlaubt, nutzt Project Debater Sprachverarbeitungsmethoden, um virtuelle Debatten zu ermöglichen.
Der Markt für Graph-Datenbanken blüht und wächst, denn die Nachfrage hinsichtlich der Analyse vernetzter Daten steigt rasch. Doch der IT-Nutzer fragt sich, welche Graph-Datenbank die leistungsfähigste ist und sich mit ihren Funktionen für ihn am besten eignet.
Der Random-Forest-Algorithmus ist ein sogenanntes beaufsichtigtes Klassifikationsverfahren, das aus mehreren unkorrelierten Entscheidungsbäumen besteht, die eine Klassifizierung oder Vorhersage liefern. Weil sich die Entscheidungsbäume parallel verarbeiten lassen, kann der Algorithmus – bei entsprechend paralleler Ausführung – sehr schnell ausgeführt werden. Die Skalierung ist also leicht zu berechnen. Random Forests können auch der Regressionsanalyse dienen.
Im Juni-2020-Release hat Qlik, ein Spezialist für Business Intelligence, sein Hauptprodukt Qlik Sense erheblich erweitert und dessen Cloud-Konnektivität ausgebaut, etwa zu Google Analytics und Twitter.
Der von Databricks veranstaltete Spark+AI Summit startete kürzlich mit 60.000 angemeldeten Teilnehmern aus über 100 Ländern, die sich über die neuesten Trends und Entwicklungen aus der Welt der KI und des ML innerhalb der Apache Spark Community informierten. Databricks, der Erfinder und Betreuer von Apache Spark, hat sein 2018 vorgestelltes ML-Framework MLflow erweitert und der Open Source Community übergeben. Auf der neuen Version 3.0 von Spark bauen die neuen oder erweiterten Plattformkomponenten Delta Lake, Delta Engine und Redash auf.
Auf der Online-Konferenz IBM Think Digital 2020 hat die IBM neue Services im Bereich KI, Hybrid Cloud und Edge Computing vorgestellt. Sie dienen zum einen der Automatisierung von Cloud- und IT-Abläufen unter KI-Einsatz, zum anderen sollen die Vorteile von Edge Computing und 5G den Kunden besser zugänglich gemacht werden.
Machine Learning ist ein bedeutendes Instrument im Kampf gegen die Corona-Pandemie. Wenn Bürger, Behörden und Unternehmen diese Gelegenheit nutzen, um Daten zu sammeln, vorhandenes Wissen zu vereinen und ihre Fachkenntnisse zusammenzubringen, können viele Leben gerettet werden – sowohl heute als auch in der Zukunft. Wie vielfältig die Einsatzgebiete von Machine Learning in diesem Rahmen sind, soll diese Übersicht zeigen, die von Data Revenue erstellt wurde.
Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis er in welchem Kundenkreis welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Heute gibt es eine große Zahl solcher Verfahren, denn sie werden für zahlreiche Zwecke benötigt, etwa in der Epidemiologie.
Wenn einem BI-Nutzer Reports und Dashboards nicht mehr reichen, wird es Zeit für Prognose-Tools, die in den Disziplinen Advanced Analytics (AA) und Data Science zu finden sind. Doch AA-Modelle sind nur von begrenztem Wert, wenn man sie nicht in die Prozesse integriert. Wie der Übergang von BI zu AA gelingen kann, zeigt ein Webinar von BARC-Experte Timm Grosser.
Die drei Analytik-Anbieter SAS, Exasol und Amazon Web Services haben den Sport als Wachstumsmarkt entdeckt. Zudem sind Organisationen wie die Deutsche Bundesliga auf Innovationen bei ihren Zuschauerangeboten angewiesen, um konkurrenzfähig zu bleiben. Mit den Lösungen der drei Anbieter reicht das Angebot von der einfachen Sportgrafik bis hin zu KI-basierten Angaben und Vorhersagen, die in Echtzeit angezeigt werden.
Neo4j, ein marktführender Anbieter von Graph-Datenbanktools, hat die Version 4.0 seiner Plattform verfügbar gemacht. Zu den Neuerungen gehören unbegrenzte Skalierbarkeit, mandantenfähige Multi-Datenbank-Nutzung, die Integration von Apache Kafka und die besonders für Unternehmen wichtige feingranulare Steuerung von Datensicherheit und Datenschutz.
Auf der Forumsveranstaltung „The Future of Industrial Innovation“, das die „Financial Times“ kürzlich in München veranstaltete, stellte Jim Heppelmann, CEO des Herstellers PTC, seine Vorstellung von Augmented Reality (AR) in der Industrie vor. Mit eGO Mobile wurde ein Beispiel für erfolgreiche IIoT-Anwendung gezeigt.
Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis in welchem Kundenkreis er welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Um 1760 erfunden, gibt es heute eine große Zahl solcher Verfahren. Dieser Beitrag beginnt mit dem einfachsten, der Einfachen Linearen Regression (ELR).
Amazon Web Services (AWS) hat kürzlich auf seiner Kundenkonferenz AWS re:Invent den 65.000 Besuchern zahlreiche neue Services für Datenbanken und Analysefunktionen vorgestellt. Sie sollen Kunden besonders dabei unterstützen, große Datenmengen zu verarbeiten. Neuerungen in der KI-Entwicklungsumgebung Amazon SageMaker decken die gesamte Prozesskette bis hin zur Überwachung der KI-Modelle ab.
IBM hat eine Reihe von Storage-Neuheiten angekündigt, die teils Anfang 2020 verfügbar sein werden. Mit ihnen will IBM Bedrohungen wie Ransomware abwehren und Anwendungsszenarien wie Big Data, KI und HPC fördern.
In Stuttgart haben sich auf der EGG-Konferenz Interessenten für Künstliche Intelligenz (KI) und Data Science zum Meinungsaustausch getroffen. Dataiku der französische Anbieter einer kollaborativen Data-Science-Plattform, war der Veranstalter und enthüllte seine Produktplanung bis 2020.
Auf der Kundenveranstaltung „Data Revolution Tour 2019“ zeigte der BI-Anbieter Qlik die breite Palette seiner Angebote in einer Multi-Cloud-Plattform. Sie werden u. a. bei Porsche AG genutzt. An Neuheiten stellte die Forschungsleitern Elif Tutuk „Qlik Insight Bot“ und „Qlik Insight Advisor“ mit Sprachunterstützung vor.
NoSQL-Datenbanken wurden aus der Notwendigkeit heraus entwickelt, große, unterschiedliche Mengen von Dimensionen wie Raum, Zeit und Lokation auf möglichst effiziente Weise zu speichern und zu verarbeiten. Mittlerweile sind sie die unabdingbare Alternative zu relationalen SQL-basierten Datenbanken. Doch nicht jede NoSQL-Datenbank eignet sich für jeden Zweck. Tatsächlich sind die meisten sogar recht spezialisiert.
Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis er in welchem Kundenkreis welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Heute gibt es eine große Zahl solcher Verfahren, denn sie werden für zahlreiche Zwecke benötigt, etwa in der Epidemiologie.
Mit Amazon HealthLake sollen Kunden im Gesundheitswesen und in den Biowissenschaften leichter großen Datenmengen im Petabyte-Bereich analysieren können. Die neue Babelfish-Funktion für den Amazon-Aurora-PostgreSQL-Service greift das Lizenzgeschäft von Anbietern relationaler Datenbanken an und soll Kunden helfen, Lizenzgebühren zu sparen.
Munich RE hat Mitte vergangenen Jahres ein Projekt zur Einführung eines neuen Enterprise Data Warehouses (EDWH) für Rückversicherungsdaten erfolgreich abgeschlossen. Dabei wurde das klassische Reporting von Rückversicherungsdaten im Legacy-System „Global Data Warehouse (GDWH)“ auf eine moderne Business-Intelligence-Plattform migriert, die auf SAP BW on HANA basiert. Ziel des Projekts war die Implementierung der technischen Voraussetzung für die Anwendung moderner Business Intelligence für Rückversicherungsdaten.
Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis in welchem Kundenkreis er welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Um 1760 erfunden, gibt es heute eine große Zahl solcher Verfahren. Dieser Beitrag beginnt mit dem einfachsten, der Einfachen Linearen Regression (ELR).
Zunehmend wird Machine Learning im IIoT-Umfeld genutzt. Der Anwendungsfall Predictive Maintenance greift jedoch viel zu kurz, warnt Christian Liedtke, Head of Strategic Alliances bei KUKA. Doch wenn man KI und IoT ganzheitlich zu AIoT kombiniere und in einer optimierten Smart Factory umsetze, könnten die Unternehmen Effizienzsteigerungen von bis zu 30 Prozent erzielen
Der k-Means-Algorithmus ist ein Rechenverfahren, das sich für die Gruppierung von Objekten, die sogenannte Clusteranalyse, einsetzen lässt. Dank der effizienten Berechnung der Clusterzentren und dem geringen Speicherbedarf eignet sich der Algorithmus sehr gut für die Analyse großer Datenmengen, wie sie im Big-Data-Umfeld üblich sind, so etwa in der Bildverarbeitung und in der Kundensegmentierung.
Greedy-Algorithmen, oder gierige Algorithmen, bilden eine spezielle Klasse von Optimierungsalgorithmen, die in der Informatik auftreten. Sie zeichnen sich dadurch aus, dass sie schrittweise den Folgezustand auswählen, der zum Zeitpunkt der Wahl den größten Gewinn bzw. das beste Ergebnis (berechnet durch eine Bewertungsfunktion) verspricht z. B. Gradientenverfahren, so etwa die Berechnung von Wechselgeld oder des kürzesten Wegs. Greedy-Algorithmen sind oft schnell, lösen viele Probleme aber nicht optimal.
Der Prozess der Datenaufbereitung umfasst die Reinigung, Formung und Mischung von Daten, damit sie für analytische und andere Aufgaben in optimaler Qualität bereitstehen. Nur mit erstklassigen Daten lassen sich beispielsweise Lösungen für Machine Learning und Künstliche Intelligenz effizient, sicher und zuverlässig versorgen.
Die jüngste IDC-Studie „Industrial IoT in Deutschland 2021“ zeigt, dass fast 40 Prozent der rund 250 befragten deutschen Unternehmen wegen COVID-19 ihre Investitionen in das IIoT erhöhen wollen. Nur 18 Prozent der Befragten planen, sie zu senken. Technologische Entwicklungen bei Edge Computing, 5G und KI/ML fördern neue Anwendungsszenarien und eine IIoT-Adaption.
Amazon Web Services hat auf seiner Kundenveranstaltung AWS re:Invent 2020 im Dezember eine Reihe von Produkten für den Industrial IoT Markt vorgestellt. Wir haben einen näheren Blick darauf geworfen und stellen diese kurz vor.
Ob beim Design von künstlichen Neuronalen Netzwerken fürs Deep Learning, in der Logistik oder beim Layout von Leiterplatten – überall stößt man auf das mathematisch lösbare Problem des Handlungsreisenden: Wie lässt sich eine Tour mit mehreren Stationen auf dem kürzesten Weg und mit dem geringsten Aufwand bewältigen?
Predictive Analytics ist ein Teilbereich von Business Intelligence, der sich in erster Linie mit zu erwartenden und möglichen Ereignissen beschäftigt. Er fragt, was unter welchen Voraussetzungen passieren wird oder passieren sollte. Das ermöglicht Prognosen in zahlreichen Wirtschaftsbereichen, sei es im Vertrieb, in der Fertigung, im Einzelhandel oder in der Luftfahrt. Die Prognoseresultate werden in der Regel mit ergänzender Software visualisiert und interaktiv in Teams diskutiert, weitergeleitet und bearbeitet.
Gibt es mehr als zwei Klassen, die zu klassifizieren sind, ziehen Experten den Algorithmus der Diskriminanzanalyse der linearen Regression vor. Die Diskriminanz- oder Unterscheidungsfunktion sorgt dafür, dass zwei Klassen, die sich möglicherweise in einer Schnittmenge überlappen, schärfer getrennt werden, beispielsweise Käufer von Nicht-Käufern.
Der Markt für Graph-Datenbanken blüht und wächst, denn die Nachfrage hinsichtlich der Analyse vernetzter Daten steigt rasch. Doch der IT-Nutzer fragt sich, welche Graph-Datenbank die leistungsfähigste ist und sich mit ihren Funktionen für ihn am besten eignet.
Der Random-Forest-Algorithmus ist ein sogenanntes beaufsichtigtes Klassifikationsverfahren, das aus mehreren unkorrelierten Entscheidungsbäumen besteht, die eine Klassifizierung oder Vorhersage liefern. Weil sich die Entscheidungsbäume parallel verarbeiten lassen, kann der Algorithmus – bei entsprechend paralleler Ausführung – sehr schnell ausgeführt werden. Die Skalierung ist also leicht zu berechnen. Random Forests können auch der Regressionsanalyse dienen.
Die Ereigniszeitanalyse bzw. Survival Analysis umfasst eine Reihe von Werkzeugen der Statistik, mit denen die Zeit bis zum Eintritt eines bestimmten Ereignisses zwischen Gruppen verglichen wird. Auf diese Weise will man die Wirkung von prognostischen Faktoren, einer medizinischen Behandlung oder von schädlichen Einflüssen abschätzen. Bei dem Ereignis kann es sich um etwas so Endgültiges wie den Tod handeln, aber auch um den Verlust einer Arbeitsstelle, eine Scheidung oder einen Beginn, etwa um eine Geburt oder einen Heilungseintritt.
Machine Learning ist ein bedeutendes Instrument im Kampf gegen die Corona-Pandemie. Wenn Bürger, Behörden und Unternehmen diese Gelegenheit nutzen, um Daten zu sammeln, vorhandenes Wissen zu vereinen und ihre Fachkenntnisse zusammenzubringen, können viele Leben gerettet werden – sowohl heute als auch in der Zukunft. Wie vielfältig die Einsatzgebiete von Machine Learning in diesem Rahmen sind, soll diese Übersicht zeigen, die von Data Revenue erstellt wurde.
Welches Modell ist für meine Daten am besten geeignet? Diese Frage stellt sich jeder Data Scientist. Mithilfe des seit 1974 in Japan veröffentlichten „Akaike Information Criterion“ (AIC) kann er die Antwort in kurzer Zeit finden.
Eine Reihe von Algorithmen dient der Suche von Lösungen, ohne vorher die Antwort zu kennen, und von Entscheidungen, die nach „wahrscheinlich richtig oder falsch“ beurteilt werden. Das ist sinnvoll für das Risiko-Management, aber auch für die Nutzung von Supercomputern. Ein solcher Algorithmus ist der Monte-Carlo-Algorithmus und die darauf basierenden Simulationen