Machine Learning

So bereitet Machine Learning Big Data auf

| Autor / Redakteur: Michael Matzer / Nico Litzel

Machine Learning ist die einfachste Einstiegsform in Algorithmen für Software Services, die sich selbst optimieren. Diese Algorithmen eignen sich beispielsweise, um unscharfe Grenzbereiche genauer abzugrenzen oder um widersprüchliche Informationen aufzudecken, etwa im Bereich Kreditkartenbetrug.
Machine Learning ist die einfachste Einstiegsform in Algorithmen für Software Services, die sich selbst optimieren. Diese Algorithmen eignen sich beispielsweise, um unscharfe Grenzbereiche genauer abzugrenzen oder um widersprüchliche Informationen aufzudecken, etwa im Bereich Kreditkartenbetrug. (Bild: © Weissblick - Fotolia.com)

Seit 2014 haben Anbieter wie Microsoft, IBM, Amazon und die Apache Software Foundation das maschinelle Lernen (Machine Learning, ML) gefördert und in der Cloud zur Verfügung gestellt. Erzwungen durch den Mangel an Data Scientists, bieten ML-Algorithmen einen leicht erlernbaren Weg, um Prognosen zu erstellen.

Auf jeder IT-Anwenderkonferenz in den USA fliegen dem Besucher Schlagwörter wie Machine Learning, Deep Learning und sogar Artificial Intelligence nur so um die Ohren. Selbst Fachjournalisten verwechseln Künstliche Intelligenz mit Machine Learning. Häufig erhält man daher den Eindruck, als sei beispielsweise das von IBM angepriesene Cognitive Computing mit Watson das Gleiche wie Machine Learning. Dem ist nicht so. Machine Learning gibt es bereits seit 1959, Watson erst seit 2011.

Was vielmehr zutrifft, ist, dass Machine Learning die einfachste Einstiegsform in Algorithmen für Software Services ist, die sich selbst optimieren, sodass es aussieht, als würden sie lernen. Diese Algorithmen sind mathematische Berechnungsmöglichkeiten, die mitunter recht trickreich sind, beispielsweise um unscharfe Grenzbereiche genauer abzugrenzen oder um widersprüchliche Informationen aufzudecken, etwa im Bereich Kreditkartenbetrug.

Einer der wichtigsten Bereiche ist daher die Klassifikation von Daten, so etwa Spam-Mails oder Malware. Zudem wird es etwa immer wichtiger, unstrukturierte Daten wie Video, Audio und Social Media Posts möglichst schnell zu erkennen und auszuwerten, etwa im Falle eines Gewaltverbrechens.

Am Anfang steht das Training

Machine Learning trägt zur Klassifikation und Analyse bei, indem es entsprechende Algorithmen – wie sie etwa aus Sprachen wie R oder Python kommen – auf Big Data anwendet und daraus ein Modell erstellt. Dieses Modell versucht die Aussage der Daten zu beschreiben und die Richtigkeit der Aussage zu prüfen. Ist ein E-Mail beispielsweise Spam oder seriös, ist eine Kaufempfehlung für den Online-Käufer interessant oder irrelevant? Daher kommt es zunächst darauf an, das Modell mit möglichst vielen relevanten Daten zu „füttern“ und es damit zu trainieren. Die Trainingsdaten durchlaufen viele Iterationen des Modells und werden schließlich wiederholt den Testdaten gegenübergestellt. Trifft die Aussage zu, so ist das Modell aussagekräftig.

Doch ein solches System „lernend“ zu nennen, würde wohl zu weit gehen. Das Verfahren ist das Gleiche wie in Predictive Analytics: Dabei versucht der Anwender eine zutreffende Prognose für ein Ereignis oder Verhalten zu erstellen. Der Knackpunkt: Die Aussage ist probabilistisch, erhält ihren Wert also durch Wahrscheinlichkeit der Genauigkeit.

Je zutreffender die Aussagen, desto genauer das Modell. Um jedoch von – sagen wir mal – 80 Prozent Genauigkeit auf 95 Prozent Genauigkeit zu gelangen, muss mitunter die doppelte Rechenleistung investiert werden, mit entsprechenden Kosten. Das ist der Grund, warum auch Watson niemals sagen würde, seine Aussage sei zu 100 Prozent genau. Als er etwa in „Jeopardy“ eine Fehlaussage traf, versah er diese mit 15 Prozent Wahrscheinlichkeit und fünf (!) Fragezeichen.

Einsatzgebiete

Watson, das Paradebeispiel für Cognitive Computing, ist ein gewaltiges selbstlernendes System mit großer Rechenpower, das sogar „sehen“ und „kochen“ kann. Doch der Entwickler oder Analytiker benötigt in den meisten Fällen Machine Learning nur für begrenzte Zwecke. Die häufigsten Zwecke hat der Analyst Björn Böttcher von Crisp Research zusammengetragen:

„Die meisten Machine-Learning-Algorithmen lassen sich für die folgenden klassischen Anwendungsbereiche nutzen:

  • Betrugserkennung bei Transaktionen,
  • E-Mail-Klassifizierung,
  • Spam-Erkennung,
  • Personalisierung von Inhalten,
  • Dokumentenklassifizierung,
  • Prognose der Kundenabwanderung,
  • Automatisierte Lösungsempfehlung für den Kundendienst,
  • Sentiment-Analysen (z. B. positive / negative Meinungen oder Äußerungen),
  • Routing-Entscheidungen von Nachrichten,
  • Analyse von Upselling-Möglichkeiten,
  • Diagnosesysteme sowie
  • Empfehlungssysteme usw.“

Schon die einfache Sentiment-Analyse indes demonstriert die Dimensionen des mit Machine Learning zu lösenden Problems: Das System und seine Algorithmen muss nämlich erkennen können, ob ein Social Media Post, etwa auf Twitter, ernst oder ironisch gemeint ist. Eine simple Analyse von Textstrukturen (Subjekt, Objekt, Verb usw.) reicht keinesfalls aus, denn auch die Intention des Urhebers und der Kontext des Sprechaktes müssen einbezogen werden.

Inzwischen sind Machine Learning Algorithmen in der Lage, all diese Faktoren einzubeziehen. Der begrenzende Faktor: Der Zeitraum, in dem diese Analyse – etwa in einer Redaktion – erfolgen soll, wird immer kürzer, je größer der Bedarf an solchen Analysen wird. Rechenleistung muss Hand in Hand mit Speicherkapazität und System-„Intelligenz“ gehen.

Gängige Verfahren

„Um die Anwendungsfälle entsprechend abbilden zu können“, so Böttcher weiter, „steht eine große Toolbox von Machine-Learning-Verfahren zur Verfügung. Die gängigsten Verfahren für die oben genannten Einsatzbereiche sind:

  • Hauptkomponentenanalyse (PCA),
  • Support Vector Machine (SVM),
  • Multi-Klassen- und Multi-Label-Algorithmen,
  • Clustering-Verfahren,
  • Regressionen,
  • Statistische Funktionen und die
  • Textanalyse.

Jedes dieser Verfahren hat seinen optimalen Einsatzbereich, seien es Videos, Audio-Dateien oder unterschiedliche Klassen von Texten und Datentypen. Hinzu kommen heute auch verbreitete Systeme wie etwa Graph-Datenbanken (für die Analyse von Beziehungen), eine Datenstrom-Analyse und Vieles mehr. Neuronale Netzwerke sind der Einstieg vom Machine Learning ins Deep Learning, das die Grundlage für Cognitive Computing bildet.

Andrew Wu, der Cheftechnologe der chinesischen Suchmaschine Baidu, demonstrierte auf der International Supercomputing Conference 2016 in Frankfurt/Main, wie sich Baidu-Anfragen durch Deep Learning mit Intelligenz versehen lassen. Wenn also jemand ganz einfach (in natürlicher Sprache) fragt: „Wo finde ich den nächsten Notarzt, um eine Lebensmittelvergiftung behandeln zu lassen?“, so ist Baidu mittlerweile in der Lage, eine akzeptable Antwort zu geben – binnen Sekunden, die mitunter über Leben oder Tod entscheiden können. Der Knackpunkt: Das dafür notwenige Neuronale Netzwerk muss über 100 Schichten tief sein – und erfordert entsprechende Rechenpower. Diese Leistung bieten modernste GPUs von Nvidia, CPUs etwa von Intel und Appliances etwa von Cray, um nur ein paar Beispiele zu nennen. Inzwischen kann Machine Learning richtig „abheben“.

Nun müssen noch die Nutzer den Sinn von Machine Learning erkennen und mitmachen. Unternehmen wie IBM haben der Open Source Community ganze Bibliotheken von Algorithmen, wie etwa SystemML, gratis zur Verfügung gestellt. Und auch die Apache Software Foundation bemüht sich, Machine Learning in ihrer erfolgreichen Analyse Engine Apache Spark populär zu machen.

ERP-Hersteller wie Infor haben allerdings Machine Learning vorsichtshalber unter dem Etikett „Data Science“ versteckt. Die Predictive-Analytics-Funktionen finden durch Einbettung in die Anwendungen direkten Eingang in die alltäglichen Arbeitsabläufe der Firmenmitarbeiter. Diese können dann ebenso Kreditbetrug auf Knopfdruck aufdecken wie Upselling-Angebote in einem Marketing-Mailing verschicken. Digitalisierung kann manchmal ganz einfach sein.

Machine Learning aus der Public Cloud

Man braucht also keine Schwellenangst vor Machine Learning zu haben. Anbieter wie Amazon Web Services oder Microsoft haben sich Einiges einfallen lassen, um Machine Learning in ihrer jeweiligen Cloud so leicht verständlich und handhabbar wie möglich zu machen. Vier Anbieter, deren Public-Cloud-Angebote Crisp Research unter die Lupe genommen hat, sind Amazon Web Services, Microsoft Azure, IBM BlueMix und Googles Prediction API.

Crisp-Analyst Björn Böttcher kommt zu folgendem Urteil: „Auffallend ist, dass alle Anbieter einen relativ einfachen und kostengünstigen Einstieg ermöglichen. Amazon bietet eine gute User Experience, wenn es um die Nutzung von Machine-Learning-Diensten geht. Der Nutzer braucht wenig Wissen aus dem Bereich des Machine Learning und kann dennoch über die Weboberfläche Modelle erstellen, welche dann in die eigenen Produkte und Lösungen integriert werden können. Bei IBM und Google sind die Predictive-Dienste ein wenig Code-lastiger und auch die Auswahl von Features und Labels erfolgt hier über die API.“

Microsoft scheint sich etwas von den anderen Angeboten zu unterscheiden. „Bei Microsoft funktioniert der Zugang nach einem anderen Ansatz. Hier bekommt der Nutzer ein grafisches Programmiermodell an die Hand, welches einen Zugang zu Prozessen von Machine Learning ermöglicht. Über Pipelines werden dann die einzelnen Schritte definiert und gegebenenfalls auch durch eigenen Code erweitert. Der fertige Workflow kann dann als Service gestartet werden und wartet dann, wie bei allen anderen Anbietern auch, auf frische Daten, damit das trainierte Modell seine Vorhersage treffen kann. Damit hat Microsoft das umfangreichste und flexibelste Angebot aus dem Bereich Machine Learning.“

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44197912 / Analytics)