Neue Möglichkeiten für viele Branchen KI für mittelständische Unternehmen
Was KI Mittelständlern bringen kann und wie sinnvolle KI-Konzepte und -Ideen für mittelständische Anwender aussehen, damit befasste sich eine Sitzung während der Jubiläumstagung der Gesellschaft für Informatik, Informatik 2020.
Anbieter zum Thema

KI ist zwar in aller Munde, real genutzt wird sie aber von der Wirtschaft selten. Das fand eine aktuelle Studie des Branchenverbandes Bitkom heraus. Danach setzen erst vier Prozent der Unternehmen tatsächlich KI-Software ein, nur drei Prozent etwa automatisieren damit Buchungen, nur zwei Prozent der Unternehmen optimieren so Preise oder betreiben vorausschauende Wartung. Diese wenigen Prozent gehören meist zu den großen Unternehmen – Siemens Energy etwa optimiert Gasturbinen mit intelligenten Digital-Twin-Technologien.
Dass kleine und mittelständische Unternehmen (KMU) bislang kaum KI verwenden, dürfte an fehlendem Know-how, aber auch an der relativ komplexen Infrastruktur liegen, die dafür nötig ist. Doch es gibt durchaus Ansätze, zum Teil kooperativer Art, die die Vorteile intelligenter Software auch für kleinere Firmen nutzbar machen können. Das ist neben einer europäischen Datensouveränität ein wichtiges Ziel der paneuropäischen GAIA-Initiative.
Aber auch anderswo macht man sich über das Thema Gedanken, zum Beispiel auf der Tagung Informatik 2020 der Gesellschaft für Informatik. Sie wurde kürzlich, wie derzeit üblich, komplett virtuell durchgeführt. Auf dem Programm stand auch ein Vortragsstrang über Konzepte und Projekte, deren erklärtes Ziel es ist, KI für Mittelständler zugänglich und nutzbringend zu machen.
Schmierstoffverteilung feinjustiert
So berichtete ein Forschungsteam von der Hochschule Karlsruhe, Technik und Wissenschaft, Institut für Materialien und Prozesse (IMP) von einem Projekt aus dem Bereich Schmierstoffe. Es zielt darauf, die Aufbringung von Schmierfetten durch Pulsventile mithilfe von KI-Algorithmen zu optimieren. Schmierfette sind wegen ihrer Parameterschwankungen auch innerhalb einzelner Chargen ein schwer handhabbares Material. Ziel ist dabei letztlich zu bewirken, dass die aufgebrachten Schmierfettpunkte möglichst gleichmäßig sind, also eine ähnliche Masse haben.
Erreicht wurde das letztlich durch die Kombination einer speziellen, selbstlernenden Form eines neuronalen Netzes, SOM (Self-Organizing Map). Diese Algorithmen kommen ohne Vorgabe von Zieldaten aus und brauchen keine Aktivierungsfunktion. Die Ergebnisse lassen sich visualisieren und anschließend zur Clusterbildung verwenden. Für sie wurde K-Means-Clustering genutzt. Dieser Algorithmus findet Cluster in Datensätzen und gruppiert dann ähnliche Datensätze.
:quality(80)/images.vogel.de/vogelonline/bdb/1481900/1481934/original.jpg)
Grundlagen Statistik & Algorithmen, Teil 5
Optimale Clusteranalyse und Segmentierung mit dem k-Means-Algorithmus
Die trainierten Modelle wurden anschließend verwendet, um die Parameter der Schmierstoffaufbringung wie Viskosität oder Druck so zu optimieren, dass sie dem Gewünschten möglichst nah kommt. Nun sollen weitere Parameter einbezogen werden. Letztlich ist geplant, eine anpassungsfähige Regelung zu entwickeln.
Gemeinsam lernen ohne Datenschutzprobleme
Lernfähige Programme brauchen möglichst viele gut passende Trainingsdaten, um optimale Ergebnisse im Einsatz zu erbringen. Genau daran hapert es bei KMUs oft. Warum also nicht gemeinsame Datenpools zum Anlernen von Algorithmen bilden? Dem stehen Probleme des Datenschutzes und die Furcht vor dem Verlust wichtigen Wissens an Wettbewerber entgegen. Ein gemischtes Team mit Teilnehmern der Karlsruher Inovex und der Universität Lübeck, Institut für Informationssysteme, entwickelte eine Lösung dafür, die zum Beispiel in der vorbeugenden Wartung eingesetzt werden soll. Sie kombiniert eine Blockchain-Implementierung und Federated-Learning-Algorithmen.
Beim Federated Learning werden die algorithmischen Lernvorgänge verteilt bei verschiedenen Teilnehmern durchgeführt und die dort entstandenen Modelle von einer zentralen Instanz zu einem gemeinsamen Modell zusammengerechnet. Die jeweiligen Lerndaten bleiben beim Dateneigner. Die Blockchain ermöglicht ein konsensorientiertes Logging aller gemeinsam durchgeführten Wartungsaktivitäten und der auslösenden Fehlermeldungen, sodass nachvollziehen werden kann, was wo geschehen ist. Eine entsprechende verteilte Infrastruktur soll im vom BMFT finanzierten Forschungsprojekt KOSMoS (Kollaborative Smart Contracting Plattform für digitale Wertschöpfungsnetze) umgesetzt werden.
Empfehlungsmaschine für Radiostationen
Radio lebt: Trotz Sozialer Medien gibt es viele Radiostationen in vielen Größenordnungen. Doch gerade die kleineren Stationen sind potentiellen Hörern oft auch dann nicht bekannt, wenn sie sehr spezielle Hörvorlieben befriedigen. Das beeinträchtigt ihre wirtschaftliche Perspektive. Es fehlt schlicht an Reichweite. Ein Projekt von Inovex und der LMU München ist dabei, einen intelligenten Empfehlungsmechanismus zu entwickeln, der die Angebote von relativ unbekannten Radiostationen interessierten Hörern besser zugänglich macht.
Das hier beschriebene Projekt gehört zum federführend an der LMU München durchgeführten HRADIO-Projekt (www.hradio.eu). Es wird finanziert vom europäischen Innovationsprogramm Horizon 2020. Auch Radiostationen, Technologiefirmen und -experten sowie andere Universitäten sind daran beteiligt.
Für Empfehlungsmaschinen gibt es mehrere mögliche Algorithmen, wobei sich das Projekt aus Datenschutzgründen für Content-based Filtering (CBF) entschied, weil hier keine personenbezogenen Informationen wie das Nutzerverhalten benötigt werden.
Die Daten- und Verarbeitungspipeline besteht aus einer Datensammel-Einheit, die die Daten sammelt und die Audioschnipsel aufzeichnet. Es folgt eine Verarbeitungseinheit (auDeep), die mit Deep-Learning-Mechanismen zunächst aus den Audioschnipseln Spektrogramme erzeugt und anschließend mithilfe dieser Spektrogramme angelernt wird und die Dimensionen der Samples reduziert.
Die Ergebnisse werden in einen Fingerprinter eingespeist. Er gruppiert die Daten mittels des K-Means-Algorithmus in Cluster und entwickelt schließlich die eigentlichen Fingerprints für jede Station auf Basis der dort gesammelten Daten. Die Empfehlungskomponente schließlich kann dann beliebige Stationen aus dem Fundus angeben, die einer eingegebenen Station in Hinblick auf das Sendeprogramm möglichst ähnlich sind. Im Rahmen dieses Programms wurden über 400 Radiostationen erfasst und ausgewertet.
Schließlich präsentierte ein Team mit Mitgliedern aus dem Softwareunternehmen Uniserv, der Hochschule Offenburg und dem Institut für angewandte Informatik e. V. in Leipzig ein KI-basiertes Verfahren zur Beseitigung von Dubletten in betrieblichen Datenbeständen auf Basis der Software identity von Uniserv.
Dubletten ausfiltern leichter gemacht
Das Thema Dublettenbeseitigung in Stammdaten gehört zu den teuersten und mühseligsten Aufgaben im betrieblichen Alltag. Denn man muss praktisch für jeden Datenbestand und jeden Nutzungsfall andere Regeln und Toleranzen definieren. Dafür brauchen die Unternehmen in der Regel Consultants aus den Anbieterfirmen von Datenmigrations- und Integrationssoftware, die dann im Dialog mit den Anwendern individuell passende Matching-Regeln erarbeiten, nach denen Dubletten ausgefiltert werden.
Dabei ist die wichtigste Aufgabe, den Anteil falsch-positiver und falsch-negativer Ausfilterungen anwendungsbezogen richtig zu tarieren: Mal bedeutet es das größere Risiko, mehr Daten auszufiltern, etwa beim Anschreiben potentieller Kunden: Lieber schickt man dorthin zweimal ein Angebot als keinmal. Im Schutz persönlicher Daten gilt das Gegenteil. Hier sollen Verwechselungen unbedingt vermieden werden, weshalb möglichst jeder Dublettenverdacht angezeigt wird.
Ziel des Forschungsprojekts war es, möglichst optimale Matching-Regeln ohne Matching-Experten, mit wenig Zeitaufwand und gleichzeitigem Wissensaufbau zu erstellen. Es entstand die Lösung KOBRA. Sie besteht aus einer Webapplikation für den Anwenderdialog, einem Backend für die Datenverwaltung und dem Matching-System von identity. Es wurde durch eine lernbasierte Komponente ergänzt. Sie nutzt als Verfahren sequentielle Optimierung und verwendet eine überschaubare Menge manuell gelabelter Daten. Damit wird ein Vorhersagemodell trainiert, das dann hilft, die Matching-Regeln optimal zu konfigurieren.
Die anfangs favorisierten Reinforcement-Learning-Algorithmen entpuppten sich als weniger effektiv. Die Aktionen bei der Konfiguration des Matching-Systems ließen sich nicht auf die möglichen Aktionen eines Agenten übertragen.
Das bisherige Ergebnis: Ohne Consultants geht es noch nicht, aber statt erfahrener können laut Uniserv nun auch Juniorberater zusammen mit den Kunden in relativ kurzer Zeit arbeitsfähige Matching-Regeln erarbeiten.
(ID:46928716)