Kommentar von Christian Werling, ThoughtSpot

So können Unternehmen mit KI punkten

| Autor / Redakteur: Christian Werling / Nico Litzel

Der Autor: Christian Werling ist Regional Director DACH bei ThoughtSpot
Der Autor: Christian Werling ist Regional Director DACH bei ThoughtSpot (Bild: ThoughtSpot)

Das Versprechen der Künstlichen Intelligenz (KI) fasziniert uns seit Langem. Schon 1951, als die ersten KI-Programme geschrieben wurden (um Dame, Schach usw. zu spielen), gab KI Anlass zu Optimismus.

So sagte der Forscher und Gründer des Artificial Intelligence Laboratory des Massachusetts Institute of Technology (MIT), Marvin Minsky, 1970 dem Life Magazine: „In drei bis acht Jahren haben wir eine Maschine mit der allgemeinen Intelligenz eines durchschnittlichen Menschen.“ Es stellte sich jedoch heraus, dass KI viel schwieriger war und ist als ursprünglich angenommen und es noch lange dauern sollte, bis dieses Versprechen eingelöst werden konnte.

Nach einem langen „KI-Winter“ hat die Forschungsgemeinde nach den jüngsten Erfolgen vor allem beim Machine Learning (ML), einem Teilgebiet der KI, nun endlich wieder Anlass zum Feiern. Auch wenn wir immer noch weit von einer KI entfernt sind, bei der Maschinen die Intelligenz eines durchschnittlichen Menschen simulieren können, konnte immerhin der Code für einige extrem harte KI-Probleme geknackt werden.

Auf KI basierende Spracherkennungssysteme wie Google haben mittlerweile eine Fehlerrate von unter fünf Prozent erreicht. Auch die KI-basierte Bild- und Videoanalyse ist so gut geworden, dass Dinge, die vor Kurzem noch als Science Fiction galten, heute bereits Realität sind. Kaum ein Beispiel macht das so deutlich wie selbstfahrende Autos.

Parameter zum Lernen geben

Möglich wird diese Entwicklung dadurch, dass schwierige maschinelle Lernprobleme viel schneller gelöst werden konnten, als es die meisten Experten vorausgesagt hatten. Informatiker machten die Entdeckung, dass einige Operationen, die unser Gehirn mit Leichtigkeit durchführen kann und die sich als schwierig für Computeralgorithmen erwiesen hatten, tatsächlich erreichbar sind, wenn wir ein tief gehendes Modell bauen und ihm genügend Parameter zum Lernen geben.

Mit diesem neuen Ansatz wurden in relativ kurzer Zeit erstaunliche Fortschritte gemacht, von denen einige auch in Unternehmenssoftware Einzug gehalten haben. In der Geschäfts- und Analytik-Community herrscht durchaus Aufregung über die neuen Möglichkeiten, die die KI verspricht.

Doch wie so oft bei solchen Hypes fällt es schwer, die Spreu vom Weizen zu trennen: Was ist wirklich Realität – oder wird da etwas zu einer neuen Tech-Blase aufgebauscht? Bei welchen KI-Anwendungen muss man als Unternehmen dabei sein, um nicht von der Konkurrenz abgehängt zu werden. Wo sollte man hingegen lieber warten und unnötige Investitionen vermeiden?

Aus eigener Erfahrung als Informatiker, der in den letzten 15 Jahren mehrere Start-up- Unternehmen bei ihrem starken Wachstum unterstützt hat, kann ich sagen, dass maschinelles Lernen (ML) sicherlich am viel versprechendsten ist. Das deckt sich auch mit den Erfahrungen vieler Kollegen. Der Mitgründer unseres Unternehmens, Ajeet Singh, zum Beispiel war vor seiner Zeit bei ThoughtSpot Leiter eines Teams von ML-Ingenieuren bei Google, das für den Aufbau der ML-Infrastruktur und für Vorhersage-Modelle verantwortlich war, die ermitteln sollten, wann ein Benutzer auf eine AdSense-Anzeige klicken würde. Um die besten ML-Modelle zu finden, trainierte sein Team Hunderte von Modellen mit enormen Datenmengen und konnte so wesentlich zum Umsatz von Google beitragen.

KI ist keine Blase

Unternehmen können getrost davon ausgehen, dass es sich bei ML nicht um eine Blase handelt, sondern um eine Technologie, deren Nutzung sich für Unternehmen auszahlt. Die folgenden praktischen Ratschläge können als Leitfaden für die Verwirklichung von ML-Projekten dienen:

Perfektionismus ist der Feind des Guten

Mit den richtigen Daten und der richtigen Problemmodellierung erzielen selbst einfache Werkzeuge einen großen Mehrwert. Dabei macht es kaum einen Unterschied, ob nur ein durchschnittliches oder das beste Tool genutzt wird.

In der Vergangenheit konnten wir sehen, wie Ingenieure auch ohne größere ML-Kenntnisse in der Lage waren, ML in ein wichtiges Problem einzubauen und so die Ausbeute um bis zu 30 Prozent zu steigern. In einer zweiten Phase verbrachten dann eine ganze Reihe von Doktoranden Jahre damit, die nächsten fünf Prozent zu erreichen. Bei ML-Projekten ist das keine Seltenheit: Allein mit einer vernünftigen Lösung loszulegen, bringt oft bereits 70 bis 80 Prozent des Nutzens. Es ist daher nicht sinnvoll, am Anfang Monate damit zu verlieren, sich für ein Werkzeug zu entscheiden. Wichtiger ist es, die Zeit in gute Datenmodelle zu investieren, sodass sich später problemlos die Werkzeuge austauschen lassen.

Nicht jedes Problem ist es wert, noch einen Schritt weiterzugehen

Der Weg von „gut genug“ zu „optimal“ ist hart und tückisch. Unternehmen sollten sich fragen, ob sich, nachdem sie in der ersten Phase der Einführung von ML bereits deutliche Verbesserungen erzielt haben, der Aufwand tatsächlich lohnt, noch mehr Zeit und Ressourcen zu investieren, um in der zweiten Phase eine weitere Verbesserung von fünf bis zehn Prozent zu erreichen. Oftmals zahlt sich der Aufwand nicht aus. Wenn sich der Gewinn auf Hunderte von Millionen Euros optimieren lässt oder Leben gerettet werden können, gibt es natürlich keine Alternative. Ist dies aber nicht der Fall, sollten Unternehmen sich gut überlegen, ob sich der Aufwand tatsächlich lohnt.

Erfolgsfaktor Mensch

Die wichtigste Voraussetzung für die Erstellung einer guten ML-Lösung ist, so widersprüchlich es klingt, die menschliche Intuition. Die Einstellung der richtigen Leute ist wahrscheinlich der größte Erfolgsfaktor für ein ML-Projekt.

Der größte Mehrwert für ein ML-Projekt resultiert zweifelsohne aus dem Feature Engineering. Beim Feature Engineering wird das Daten-Fachwissen genutzt, um Features zu erstellen, die maschinelle Lernalgorithmen funktionieren lassen. Obwohl heutzutage ein Teil der Feature-Auswahl automatisiert werden kann, bleibt es meist eine Kunst, die richtige Auswahl zu treffen. Oft ist das Feature, das am besten auf das zu lösende Problem anzuwenden wäre, nicht einmal vorhanden oder es müssen neue Datenpipelines erstellt werden. In der Regel sind es Menschen, die sowohl die Problemdomäne als auch die ML-Techniken verstehen, die auch die Verbindungen zwischen beiden Bereichen herstellen können.

Bei mangelnder Erfahrung kommt es oft zum Problem des „Overfitting“, das heißt, das Modell wird so stark an den Übungsdatensatz angepasst, dass es schlecht auf andere Datensätze übertragbar ist. Ein populäres Sprichwort in der Datenwissenschaft, das dem Ökonomen Ronald Coase zugeschrieben wird, lautet: „Wenn du die Daten lange genug quälst, werden sie gestehen.“ Mit den richtigen Leuten kann das vermieden werden.

Schnelle Validierung

Wie alle wichtigen Arbeiten ist ML fünf Prozent Inspiration und 95 Prozent Schweiß. Es braucht viele schlechte Hypothesen, um zu einer guten zu gelangen.

Die meisten Unternehmen, die sich um die Genauigkeit ihrer ML-Modelle kümmern, arbeiten unermüdlich daran, die Zeit zwischen der Entstehung einer Idee und der Phase, in der diese Idee empirisch bewiesen oder widerlegt werden kann, zu verkürzen. Diese Zeit, die ein Unternehmen braucht, um eine Idee zu validieren, ist übrigens auch über ML hinaus eine gute Kennzahl für das Messen von Innovation. Und hier gibt es immer Spielraum für Optimierung. Ein Beispiel aus eigener Erfahrung: Die relationale Suche wurde zum Beispiel von Grund auf so konzipiert, dass der Anfrageteil der Validierung um das 100-Fache verkürzt wird. Mit unserer Search-Engine SpotIQ versuchen wir, diesen Prozess um das 100-Fache zu beschleunigen, denn eine schnelle Validierung sollte ein Muss für ML-Projekte sein.

Auch kleinere Fortschritte erfassen und messen

Den Fortschritt eines ML-Projekts zuverlässig zu messen, kann für den Erfolg ausschlaggebend sein. Meiner Erfahrung nach führt nur jede zehnte oder sogar nur jede zwanzigste Idee zu einer Verbesserung – und das oftmals in so geringem Maße, dass die Ergebnisse im Rauschen beinahe nicht erfasst werden können. Aber wenn man ein Messsystem aufbaut, das kleine Verbesserungen zuverlässig erfassen kann, sind die kombinierten Gewinne in der Regel unschlagbar. Nicht nur die schnelle Validierung einer Idee ist wichtig, man muss auch wissen, ob die Nadel in die richtige Richtung ausschlägt. Das Erfassen und Messen auch noch so kleiner Fortschritte sollte bei keinem ML-Projekt fehlen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45490035 / Künstliche Intelligenz)