Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.
Zunehmend wird Machine Learning im IIoT-Umfeld genutzt. Der Anwendungsfall Predictive Maintenance greift jedoch viel zu kurz, warnt Christian Liedtke, Head of Strategic Alliances bei KUKA. Doch wenn man KI und IoT ganzheitlich zu AIoT kombiniere und in einer optimierten Smart Factory umsetze, könnten die Unternehmen Effizienzsteigerungen von bis zu 30 Prozent erzielen
Das von den ursprünglichen Entwicklern von Apache Spark gegründete Unternehmen Databricks hat seine Unified Analytics Platform um eine weitere Komponente erweitert. Zu den vorhandenen Komponenten Delta Lake, Delta Engine und Redash, die auf der neuen Version 3.0 von Spark aufbauen, kommt nun SQL Analytics hinzu. Dieser SQL-Editor unterstützt mit Konnektoren bislang die BI-Lösungen von Tableau und Microsoft.
Das E-Book „Wie Maschinen selbst lernen“ stellt Methoden, Technologien und Produkte vor, mit denen Unternehmen Machine-Learning-Modelle und Algorithmen für nutzbringende Anwendungsfälle verwenden können. Die Technologie um Machine Learning und Deep Learning, allgemein „Künstliche Intelligenz“ (KI) genannt, hat in den vergangenen Jahren einen rasanten Aufschwung erlebt. Es gibt kaum noch einen Anwendungsbereich, in dem noch keine Algorithmen in den Prozessen werkeln, ober in der Fabrik oder im Weltall.
Die jüngste IDC-Studie „Industrial IoT in Deutschland 2021“ zeigt, dass fast 40 Prozent der rund 250 befragten deutschen Unternehmen wegen COVID-19 ihre Investitionen in das IIoT erhöhen wollen. Nur 18 Prozent der Befragten planen, sie zu senken. Technologische Entwicklungen bei Edge Computing, 5G und KI/ML fördern neue Anwendungsszenarien und eine IIoT-Adaption.
Tableau, ein Spezialist für Datenvisualisierung, führt seine Plattform mit der von Salesforce zusammen, um seinen Kunden zusätzlich auch die KI- und Machine-Learning-Funktionen von Einstein Analytics zu bieten. Das Ergebnis wird Tableau CRM heißen. Weitere Integrationen mit Salesforce-Produkten, wie MuleSoft, sollen folgen.
Das Sensor-gestützte Lieferketten-Management, die vorausschauende Wartung einer Windkraftanlage, der Arbeitsschutz von Mitarbeitern oder die KFZ-Versicherung eines vernetzten Autofahrers – sie alle haben eines gemeinsam: Ihre Daten werden in Echtzeit erfasst und einer zeitnahen Auswertung unterworfen. Das Internet der Dinge (Internet of Things, IoT) ist einer der größten Wachstumsbereiche der Industrie weltweit.
Der Business-Analytics-Spezialist Tibco integriert Event-Streaming in seine BI-Suite Spotfire und erweitert deren Fähigkeiten zur Datenverwaltung mit den Tools „Any Data Hub“ und „SmartMapper“. Im Bereich Business Process Management (BPM) erweitert der Hersteller sein Responsive Application Mesh (RAM).
Welches Modell ist für meine Daten am besten geeignet? Diese Frage stellt sich jeder Data Scientist. Mithilfe des seit 1974 in Japan veröffentlichten „Akaike Information Criterion“ (AIC) kann er die Antwort in kurzer Zeit finden.
Die IBM hat ihr umfassendes Datenbank-Portfolio aktualisiert. Zu den Produkten gehören das Urgestein Db2, aber auch Informix, die Netezza-Appliance und das relativ neue Cloud Pak for Data.
Auf dem Online-Event „IBM Data & AI Summit 2020“ stellte Big Blues neuer CEO Arvind Krishna u. a. Erweiterungen für die KI-Technologien „Watson Assistant“ und „Project Debater“ vor. Während Watson Assistant als Framework die Erstellung von Chatbots für Banken, Callcenter und andere Funktionen erlaubt, nutzt Project Debater Sprachverarbeitungsmethoden, um virtuelle Debatten zu ermöglichen.
Der Markt für Graph-Datenbanken blüht und wächst, denn die Nachfrage hinsichtlich der Analyse vernetzter Daten steigt rasch. Doch der IT-Nutzer fragt sich, welche Graph-Datenbank die leistungsfähigste ist und sich mit ihren Funktionen für ihn am besten eignet.
Der Random-Forest-Algorithmus ist ein sogenanntes beaufsichtigtes Klassifikationsverfahren, das aus mehreren unkorrelierten Entscheidungsbäumen besteht, die eine Klassifizierung oder Vorhersage liefern. Weil sich die Entscheidungsbäume parallel verarbeiten lassen, kann der Algorithmus – bei entsprechend paralleler Ausführung – sehr schnell ausgeführt werden. Die Skalierung ist also leicht zu berechnen. Random Forests können auch der Regressionsanalyse dienen.
Im Juni-2020-Release hat Qlik, ein Spezialist für Business Intelligence, sein Hauptprodukt Qlik Sense erheblich erweitert und dessen Cloud-Konnektivität ausgebaut, etwa zu Google Analytics und Twitter.
Der von Databricks veranstaltete Spark+AI Summit startete kürzlich mit 60.000 angemeldeten Teilnehmern aus über 100 Ländern, die sich über die neuesten Trends und Entwicklungen aus der Welt der KI und des ML innerhalb der Apache Spark Community informierten. Databricks, der Erfinder und Betreuer von Apache Spark, hat sein 2018 vorgestelltes ML-Framework MLflow erweitert und der Open Source Community übergeben. Auf der neuen Version 3.0 von Spark bauen die neuen oder erweiterten Plattformkomponenten Delta Lake, Delta Engine und Redash auf.
Auf der Online-Konferenz IBM Think Digital 2020 hat die IBM neue Services im Bereich KI, Hybrid Cloud und Edge Computing vorgestellt. Sie dienen zum einen der Automatisierung von Cloud- und IT-Abläufen unter KI-Einsatz, zum anderen sollen die Vorteile von Edge Computing und 5G den Kunden besser zugänglich gemacht werden.
Machine Learning ist ein bedeutendes Instrument im Kampf gegen die Corona-Pandemie. Wenn Bürger, Behörden und Unternehmen diese Gelegenheit nutzen, um Daten zu sammeln, vorhandenes Wissen zu vereinen und ihre Fachkenntnisse zusammenzubringen, können viele Leben gerettet werden – sowohl heute als auch in der Zukunft. Wie vielfältig die Einsatzgebiete von Machine Learning in diesem Rahmen sind, soll diese Übersicht zeigen, die von Data Revenue erstellt wurde.
Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis er in welchem Kundenkreis welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Heute gibt es eine große Zahl solcher Verfahren, denn sie werden für zahlreiche Zwecke benötigt, etwa in der Epidemiologie.
Wenn einem BI-Nutzer Reports und Dashboards nicht mehr reichen, wird es Zeit für Prognose-Tools, die in den Disziplinen Advanced Analytics (AA) und Data Science zu finden sind. Doch AA-Modelle sind nur von begrenztem Wert, wenn man sie nicht in die Prozesse integriert. Wie der Übergang von BI zu AA gelingen kann, zeigt ein Webinar von BARC-Experte Timm Grosser.
Die drei Analytik-Anbieter SAS, Exasol und Amazon Web Services haben den Sport als Wachstumsmarkt entdeckt. Zudem sind Organisationen wie die Deutsche Bundesliga auf Innovationen bei ihren Zuschauerangeboten angewiesen, um konkurrenzfähig zu bleiben. Mit den Lösungen der drei Anbieter reicht das Angebot von der einfachen Sportgrafik bis hin zu KI-basierten Angaben und Vorhersagen, die in Echtzeit angezeigt werden.
Neo4j, ein marktführender Anbieter von Graph-Datenbanktools, hat die Version 4.0 seiner Plattform verfügbar gemacht. Zu den Neuerungen gehören unbegrenzte Skalierbarkeit, mandantenfähige Multi-Datenbank-Nutzung, die Integration von Apache Kafka und die besonders für Unternehmen wichtige feingranulare Steuerung von Datensicherheit und Datenschutz.
Auf der Forumsveranstaltung „The Future of Industrial Innovation“, das die „Financial Times“ kürzlich in München veranstaltete, stellte Jim Heppelmann, CEO des Herstellers PTC, seine Vorstellung von Augmented Reality (AR) in der Industrie vor. Mit eGO Mobile wurde ein Beispiel für erfolgreiche IIoT-Anwendung gezeigt.
Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis in welchem Kundenkreis er welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Um 1760 erfunden, gibt es heute eine große Zahl solcher Verfahren. Dieser Beitrag beginnt mit dem einfachsten, der Einfachen Linearen Regression (ELR).
Amazon Web Services (AWS) hat kürzlich auf seiner Kundenkonferenz AWS re:Invent den 65.000 Besuchern zahlreiche neue Services für Datenbanken und Analysefunktionen vorgestellt. Sie sollen Kunden besonders dabei unterstützen, große Datenmengen zu verarbeiten. Neuerungen in der KI-Entwicklungsumgebung Amazon SageMaker decken die gesamte Prozesskette bis hin zur Überwachung der KI-Modelle ab.
IBM hat eine Reihe von Storage-Neuheiten angekündigt, die teils Anfang 2020 verfügbar sein werden. Mit ihnen will IBM Bedrohungen wie Ransomware abwehren und Anwendungsszenarien wie Big Data, KI und HPC fördern.
In Stuttgart haben sich auf der EGG-Konferenz Interessenten für Künstliche Intelligenz (KI) und Data Science zum Meinungsaustausch getroffen. Dataiku der französische Anbieter einer kollaborativen Data-Science-Plattform, war der Veranstalter und enthüllte seine Produktplanung bis 2020.
Auf der Kundenveranstaltung „Data Revolution Tour 2019“ zeigte der BI-Anbieter Qlik die breite Palette seiner Angebote in einer Multi-Cloud-Plattform. Sie werden u. a. bei Porsche AG genutzt. An Neuheiten stellte die Forschungsleitern Elif Tutuk „Qlik Insight Bot“ und „Qlik Insight Advisor“ mit Sprachunterstützung vor.
Aus dem täglichen Umgang mit dem Internet ist die Nutzung von verknüpften Daten nicht mehr wegzudenken. Seien es Freundschaftskreise auf Facebook und LinkedIn, Taxi-Anforderungen auf Uber oder Empfehlungen auf Amazon und Ebay – immer tritt im Hintergrund eine Datenbank in Aktion, die verwandte Daten sucht und miteinander in Beziehung setzt. Dabei handelt es sich in den meisten Fällen um eine Graph-Datenbank.
Mit der Ausbreitung von KI-Anwendungen stellen sich Schöpfern wie Benutzern zwei zentrale Fragen: Was befindet sich in der Black Box, die den Algorithmus und das Deep-Learning-Modell verbirgt? Und zweitens: Wie lässt sich sicherstellen, dass kein Unbefugter diese Software für seine Zwecke manipuliert hat? Manche KI-Hersteller und -Berater haben darauf bereits eine Antwort.
Splunk, ein Spezialist für IT-Betriebs-Analytik und Security, hat in Las Vegas auf seiner zehnten Anwenderkonferenz .conf19 vor rund 11.000 Besuchern eine Reihe von neuen und aktualisierten Analytik- und KI-Werkzeugen vorgestellt: „Data to everything“. Neben neuen Angeboten für IT-, AI- und DevOps stieß vor allem die Erweiterung des Preismodells auf großes Interesse.
Ververica, vormals Data Artisans und jetzt bei Alibaba, hat kürzlich für seine Stream-Processing-Plattform auf der Entwicklerkonferenz „Flink Forward Europe 2019“ Stateful Functions für Apache Flink angekündigt. Der Quellcode soll der Apache Flink Community zur Verfügung gestellt werden.
Zunehmend wird Machine Learning im IIoT-Umfeld genutzt. Der Anwendungsfall Predictive Maintenance greift jedoch viel zu kurz, warnt Christian Liedtke, Head of Strategic Alliances bei KUKA. Doch wenn man KI und IoT ganzheitlich zu AIoT kombiniere und in einer optimierten Smart Factory umsetze, könnten die Unternehmen Effizienzsteigerungen von bis zu 30 Prozent erzielen
Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis er in welchem Kundenkreis welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Heute gibt es eine große Zahl solcher Verfahren, denn sie werden für zahlreiche Zwecke benötigt, etwa in der Epidemiologie.
NoSQL-Datenbanken wurden aus der Notwendigkeit heraus entwickelt, große, unterschiedliche Mengen von Dimensionen wie Raum, Zeit und Lokation auf möglichst effiziente Weise zu speichern und zu verarbeiten. Mittlerweile sind sie die unabdingbare Alternative zu relationalen SQL-basierten Datenbanken. Doch nicht jede NoSQL-Datenbank eignet sich für jeden Zweck. Tatsächlich sind die meisten sogar recht spezialisiert.
Die jüngste IDC-Studie „Industrial IoT in Deutschland 2021“ zeigt, dass fast 40 Prozent der rund 250 befragten deutschen Unternehmen wegen COVID-19 ihre Investitionen in das IIoT erhöhen wollen. Nur 18 Prozent der Befragten planen, sie zu senken. Technologische Entwicklungen bei Edge Computing, 5G und KI/ML fördern neue Anwendungsszenarien und eine IIoT-Adaption.
Der k-Means-Algorithmus ist ein Rechenverfahren, das sich für die Gruppierung von Objekten, die sogenannte Clusteranalyse, einsetzen lässt. Dank der effizienten Berechnung der Clusterzentren und dem geringen Speicherbedarf eignet sich der Algorithmus sehr gut für die Analyse großer Datenmengen, wie sie im Big-Data-Umfeld üblich sind, so etwa in der Bildverarbeitung und in der Kundensegmentierung.
Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis in welchem Kundenkreis er welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Um 1760 erfunden, gibt es heute eine große Zahl solcher Verfahren. Dieser Beitrag beginnt mit dem einfachsten, der Einfachen Linearen Regression (ELR).
Greedy-Algorithmen, oder gierige Algorithmen, bilden eine spezielle Klasse von Optimierungsalgorithmen, die in der Informatik auftreten. Sie zeichnen sich dadurch aus, dass sie schrittweise den Folgezustand auswählen, der zum Zeitpunkt der Wahl den größten Gewinn bzw. das beste Ergebnis (berechnet durch eine Bewertungsfunktion) verspricht z. B. Gradientenverfahren, so etwa die Berechnung von Wechselgeld oder des kürzesten Wegs. Greedy-Algorithmen sind oft schnell, lösen viele Probleme aber nicht optimal.
Der Prozess der Datenaufbereitung umfasst die Reinigung, Formung und Mischung von Daten, damit sie für analytische und andere Aufgaben in optimaler Qualität bereitstehen. Nur mit erstklassigen Daten lassen sich beispielsweise Lösungen für Machine Learning und Künstliche Intelligenz effizient, sicher und zuverlässig versorgen.
Ob beim Design von künstlichen Neuronalen Netzwerken fürs Deep Learning, in der Logistik oder beim Layout von Leiterplatten – überall stößt man auf das mathematisch lösbare Problem des Handlungsreisenden: Wie lässt sich eine Tour mit mehreren Stationen auf dem kürzesten Weg und mit dem geringsten Aufwand bewältigen?
Machine Learning ist ein bedeutendes Instrument im Kampf gegen die Corona-Pandemie. Wenn Bürger, Behörden und Unternehmen diese Gelegenheit nutzen, um Daten zu sammeln, vorhandenes Wissen zu vereinen und ihre Fachkenntnisse zusammenzubringen, können viele Leben gerettet werden – sowohl heute als auch in der Zukunft. Wie vielfältig die Einsatzgebiete von Machine Learning in diesem Rahmen sind, soll diese Übersicht zeigen, die von Data Revenue erstellt wurde.
Der Markt für Graph-Datenbanken blüht und wächst, denn die Nachfrage hinsichtlich der Analyse vernetzter Daten steigt rasch. Doch der IT-Nutzer fragt sich, welche Graph-Datenbank die leistungsfähigste ist und sich mit ihren Funktionen für ihn am besten eignet.
Der Random-Forest-Algorithmus ist ein sogenanntes beaufsichtigtes Klassifikationsverfahren, das aus mehreren unkorrelierten Entscheidungsbäumen besteht, die eine Klassifizierung oder Vorhersage liefern. Weil sich die Entscheidungsbäume parallel verarbeiten lassen, kann der Algorithmus – bei entsprechend paralleler Ausführung – sehr schnell ausgeführt werden. Die Skalierung ist also leicht zu berechnen. Random Forests können auch der Regressionsanalyse dienen.
Seit 2014 haben Anbieter wie Microsoft, IBM, Amazon und die Apache Software Foundation das maschinelle Lernen (Machine Learning, ML) gefördert und in der Cloud zur Verfügung gestellt. Erzwungen durch den Mangel an Data Scientists, bieten ML-Algorithmen einen leicht erlernbaren Weg, um Prognosen zu erstellen.
Die Ereigniszeitanalyse bzw. Survival Analysis umfasst eine Reihe von Werkzeugen der Statistik, mit denen die Zeit bis zum Eintritt eines bestimmten Ereignisses zwischen Gruppen verglichen wird. Auf diese Weise will man die Wirkung von prognostischen Faktoren, einer medizinischen Behandlung oder von schädlichen Einflüssen abschätzen. Bei dem Ereignis kann es sich um etwas so Endgültiges wie den Tod handeln, aber auch um den Verlust einer Arbeitsstelle, eine Scheidung oder einen Beginn, etwa um eine Geburt oder einen Heilungseintritt.
Eine Reihe von Algorithmen dient der Suche von Lösungen, ohne vorher die Antwort zu kennen, und von Entscheidungen, die nach „wahrscheinlich richtig oder falsch“ beurteilt werden. Das ist sinnvoll für das Risiko-Management, aber auch für die Nutzung von Supercomputern. Ein solcher Algorithmus ist der Monte-Carlo-Algorithmus und die darauf basierenden Simulationen
Für verschiedene Probleme lassen sich nur durch Annäherung bzw. Approximation optimale Lösungen finden. Durch einen geeigneten Approximationsalgorithmus versuchen Informatiker, sich dem optimalen Ergebnis anzunähern, so etwa in der Graphentheorie, die Beziehungen in Netzwerken darstellt.
Welches Modell ist für meine Daten am besten geeignet? Diese Frage stellt sich jeder Data Scientist. Mithilfe des seit 1974 in Japan veröffentlichten „Akaike Information Criterion“ (AIC) kann er die Antwort in kurzer Zeit finden.
Um Trends zu erkennen, wird oft die Clusteranalyse herangezogen. Der k-Means-Algorithmus etwa zeigt an, wo sich Analyseergebnisse in einer Normalverteilung ballen. Für manche Zwecke ist es aber aufschlussreicher, Ausreißer zu untersuchen, denn sie bilden die Antithese zum „Normalen“, etwa im Betrugswesen. Der Local-Outlier-Factor-Algorithmus (LOF) ist in der Lage, den Abstand von Ausreißern zu ihren Nachbarn zu berechnen und deckt so Anomalien auf.
Self-Service BI ist schon seit Jahren der wichtigste Trend im Bereich Business Intelligence. Mitarbeiter in Fachbereichen erstellen Ad-hoc-Abfragen und analysieren Leistungsdaten. Mit QuickSight macht Amazon nun bekannten Cloud-Angeboten wie Qlik, Tableau, Microsoft PowerBI und SAP Lumira Konkurrenz.
Big-Data-Datenbanken sollen die unterschiedlichsten Datentypen schnell und effizient verarbeiten. Sie lösen die herkömmlichen, überwiegend relationalen Datenbanktypen ab, die meist ein Data Warehouse unterstützen. Sie lösen sie ab, um neue Geschäftsmodelle zu ermöglichen, oder sie ergänzen die Data-Warehouse-Architektur mit notwendige Fähigkeiten, etwa für Data Discovery, Realtime Analytics und Advanced Analytics (Prognose).