Kommentar von Joe Hellerstein, Trifacta Die technischen Lücken in der Künstlichen Intelligenz überwinden
Über Künstliche Intelligenz (KI) wird in den Medien viel geschrieben. Nun könnte man meinen, dass KI einem „einfach so in den Schoß fällt“. Es erscheint so als ob Maschinelles Lernen (ML) einen Weg eingeschlagen habe, der nicht mehr aufzuhalten und im Begriff sei, Industrie und Handel durch die bloße technologische Dynamik zu revolutionieren. Doch so einfach ist es für Unternehmen, die auf KI-Methoden setzen wollen, sicher nicht.
Anbieter zum Thema

Es ist nicht von der Hand zu weisen, dass die Technologien in noch nie da gewesenem Tempo eine gewisse Marktreife erreichen. Es werden bereits zahlreiche innovative Anwendungen entwickelt, die helfen, Diagnosen für tödliche Krankheiten zu stellen, millionenschwere Handelsentscheidungen zu treffen, sich Fähigkeiten wie Auto fahren anzueignen und viele andere Aufgaben zu automatisieren, die das Potenzial haben, ganze Branchen zu transformieren.
Aber natürlich sind wir uns bewusst, dass KI keine Zauberei ist. Weniger bekannt ist, dass moderne KI zum größten Teil noch nicht einmal Wissenschaft oder Mathematik ist, im dem Sinne, dass KI nicht auf fundamentalen Wahrheiten basiert. Moderne KI ist eine Ingenieurwissenschaft, ein mühevoller
Prozess, mit dem sich nützliche Dinge entwickeln lassen. KI ist in gewisser Weise mit Software Engineering vergleichbar, jedoch aufgrund tiefgehender Abhängigkeiten von großen Datenmengen und relativ intransparenter Software mit einzigartigen Eigenschaften ausgestattet. Die erfolgreiche Umsetzung von KI-Engineering erfordert Prozesse und Tools, die noch in der Entwicklung sind.
Die Kluft zwischen Gegenwart und Zukunft bedenken
Wir sind, was die wichtigsten KI-Methoden betrifft, an einem Wendepunkt angelangt. Die Entwicklung vollzieht sich so schnell wie nie zuvor. Doch Tools und Best Practices sind noch nicht soweit, dass sie Schritt halten können. Diese Engineering-Kluft verlangsamt die branchenübergreifende Verbreitung von KI, während innovative Softwarelösungen mit Fokus auf Big Data und KI-Engineering-Prozesse davon profitieren können.
Bahnbrechende KI-Neuerungen haben es in den letzten Jahren rasend schnell in die Schlagzeilen geschafft: Durch auf Deep Learning basierende Techniken, die in kurzer Zeit einen gewissen Reifegrad erreicht haben, den Erfolg der GPUs, mit den sich „rechenhungrige“ Aufgaben schneller verarbeiten lassen, und die Verfügbarkeit von Open-Source-Bibliotheken wie TensorFlow, Caffe, Theano und PyTorch. Das hat Innovationen und Experimenten einen Schub verliehen und große Technologieanbieter wie Google, Facebook, Apple, Microsoft, Uber und Tesla haben beeindruckende neue Produkte und Dienstleistungen geschaffen.
Ich sage jedoch voraus, dass sich diese neuen KI-Technologien in anderen Branchen nur sehr langsam durchsetzen werden. Eine Handvoll Consumer-Tech-Unternehmen verfügt bereits über die Infrastruktur, um große Datenmengen, auf die sie Zugriff haben, nutzen zu können. Tatsache ist jedoch, dass die meisten Organisationen dazu nicht in der Lage sind – und das wird sich so schnell auch nicht ändern.
Einem weit verbreiteten Einsatz der KI stehen im Wesentlichen zwei Hürden im Weg: Engineering von Big Data Management und Engineering von KI-Pipelines. Beide Disziplinen gehören zusammen, und der Grad ihrer Umsetzung bestimmt das Tempo der Veränderung. Zum Beispiel etabliert sich Big-Data-Engineering-Kompetenz erst allmählich in allen Branchen. Es ist sehr wahrscheinlich, dass diese Kompetenz 2018 infolge der zunehmenden Verbreitung verwalteter Cloud-Services zunehmen wird. KI-Engineering-Kompetenz ist die andere Hürde und es werden wohl noch viele Jahre vergehen, bis diese Kompetenz jenseits der Technologie-Giganten auch branchenübergreifend eine feste Größe geworden ist.
Big Data Engineering
Formulieren wir es nicht allzu überspitzt: Erfolg mit moderner KI hängt vom Erfolg mit Big Data ab. Folglich sollte es nicht überraschen, dass Dienstleistungsunternehmen mit hohem Datenaufkommen, wie Google, Facebook und Uber, eine führende Rolle im KI-Markt spielen. Die neuesten Fortschritte in Deep Learning bringen nur dann den gewünschten Erfolg, wenn mit umfangreichen Trainingsets experimentiert werden kann. Jedoch kann das Sammeln von Trainingsdaten und das Recht, diese zu nutzen, außerhalb der Vorzeige-Consumer-Tech-Anwendungsgebiete schwierig oder nicht durchführbar sein.
Es geht auch nicht einfach um das Beschaffen von Daten. Datenbeschaffung ist eine Sache, die herausfordernde effiziente Verwaltung dieser Daten ist jedoch eine andere. Erfolgreiche KI-Organisationen haben tendenziell Engineering Know-how über elementare Big-Data-Technologien, wie z. B. hochgradig skalierbare Storage-Systeme, Datenvorbereitung, Analytics Engines und Visualisierungstools. Immer mehr herkömmliche Organisationen haben in letzter Zeit Fortschritte auf der Big-Data-Lernkurve erzielt und die zunehmende Akzeptanz in der Cloud verwalteter Lösungen sollte die Verbreitung dieser Kompetenz in naher Zukunft in mehr Branchen beschleunigen.
KI-Engineering
Vielen Menschen ist nicht bekannt, dass KI heute eine experimentelle Wissenschaft ist. Die jüngsten Erfolge der KI sind nicht auf mathematische Beweise zurückzuführen. Sie sind vielmehr das Ergebnis unzähliger Experimente und der Verfeinerung von Ad-hoc-Machine-Learning-Modellen. Dieser kontinuierliche experimentelle Prozess erfordert Disziplin und Tools, andernfalls fällt er schnell in sich zusammen, was zu falschem Vorhersageverhalten, verdeckten Feedback-Loops und Datenabhängigkeiten führen kann. Eine ausführliche Beschreibung hierzu enthält das Google-Dokument „Machine Learning: The High Interest Credit Card of Technical Debt“.
Zum Engineering einer KI-Anwendung gehören der Aufbau von Pipelines mit Mustern (in der Regel die Aufgabe von Data Scientists), Trainingsmodelle auf der Basis von umfangreichen Datensätzen (oft die Aufgabe von Data Engineers) und Bereitstellungsmodelle für Live-Voraussagen im Produktivbetrieb (üblicherweise die Aufgabe von DevOps Engineers). Der Serving Layer wird überwacht und die Daten werden an die früheren Phasen der Pipeline übermittelt. Jede dieser Phasen zeichnet sich durch laufende Iteration aus, auch regelmäßig phasen- und teamübergreifend. Tools und Prozesse müssen vorhanden sein, um die tägliche Entwicklung, das Debuggen von Code, Pipeline-Spezifikationen, Training- und Testdaten, Live-Datenfeeds, Live-Experimente und die Metriken der bereitgestellten Modelle managen zu können. Das ist ein langwieriger und komplexer Prozess, der mit sehr intensiver Datenaufbereitung (Data Wrangling) einhergeht, um zufriedenstellende Ergebnisse zu erzielen.
Der KI den Weg für eine vielversprechende Zukunft ebnen
Bisher standen Systeme zur Optimierung dieser Prozesse nicht im Mittelpunkt der KI-Forschung oder von Open-Source. Jedoch ist dieses Thema in der Technologie-Community in aller Munde und es schlägt die Stunde für neue Projekten und Produkte in Bereich KI. Gefragt sind neue Fertigkeiten, Know-how und eine Vision für grundlegende Datenproduktivität. Das sind unverzichtbare Voraussetzungen, um aus KI und Machine Learning das Bestmögliche herauszuholen.
(ID:45092039)