Big Data und Künstliche Intelligenz

So revolutioniert Cognitive Computing Handel und Medizin

| Autor / Redakteur: Michael Matzer / Nico Litzel

Cognitive Computing ist ein über Machine Learning hinausgehendes Technologieverfahren. Das Ziel dahinter ist, aus unterschiedlichsten Informationen aussagekräftiges Wissen zu gewinnen.
Cognitive Computing ist ein über Machine Learning hinausgehendes Technologieverfahren. Das Ziel dahinter ist, aus unterschiedlichsten Informationen aussagekräftiges Wissen zu gewinnen. (Bild: © Mikko-Lemola – Fotolia.com)

Anbieter wie IBM sprechen von „Cognitive Computing“ und haben das entsprechende IT-System nach ihrem Firmengründer Watson benannt. Andere Hersteller wie etwa Salesforce benutzen lieber den Begriff „Artificial Intelligence“. Die Segnungen beider Technologien sollen die Welt verbessern, doch die IT-Anforderungen unterschieden sich grundlegend voneinander.

Salesforce hat kürzlich mit „Einstein“ eine neue Schicht seiner Cloud-Technologieplattform vorgestellt. Es handelt sich vorerst noch um eine Palette von neuen Technologien, die noch mehr Integration benötigt. Sie reicht von Machine Learning über Data Discovery bis hin zu Predictive Analytics. Das ist derzeit bei vielen IT-Anbietern der Stand der Technik und somit lediglich in seiner Kombination in einer CRM-Suite bedeutsam.

Anders verhält es sich mit dem von Big Blue bemühten Begriff „Cognitive Computing“. Hierbei handelt es sich um ein über Machine Learning hinausgehendes Technologieverfahren, wie man aus unterschiedlichsten Informationen aussagekräftiges Wissen gewinnt. Es besteht aus drei Phasen.

In der „Understanding“-Phase versuchen Computer (für gewöhnlich HPC-Cluster) die „Welt“ um sie herum zu verstehen. Sie können Sprache in Text verwandeln, optische und akustische Informationen digitalisieren und „verstehen“ sowie Kontext hinzufügen. Vor allem aber können sie Informationen aus allen möglichen Quellen zusammenführen und in kürzester Zeit in das ihnen nützlichste Format umwandeln. Laien würden diese Phasen schlicht als „Digitalisierung“ bezeichnen.

Stufe 2: die Analysephase

In der zweiten Stufe treten Computer in die Analysephase ein. Sie erkennen Muster, Begriffe, Kategorien, Vorstellungen und Zusammenhänge – eine großartige Leistung. Darüber hinaus stellen sie Hypothesen auf, indem sie Modelle der Wahrscheinlichkeit erstellen – kurzum das, was jedes fortschrittliche Statistikprogramm heute können muss. Diese Wahrscheinlichkeitsmodelle erfordern ständiges Trainieren und Testen anhand frischer Daten. Durch zahllose Iterationen wird jedes Modell genauer in seiner Aussagekraft. Diese Akkuratesse wird aber nie in absoluten Werten ausgedrückt, sondern mit dem Parameter „Verlässlichkeit“ (confidence). Diese dürfte nie den Wert 100 Prozent erreichen, aber 98 Prozent, wie sie heute schon mit Machine Learning erreicht werden können, sind schon sehr beeindruckend.

Wie schon bei den Modellen besteht der dritte Schritt in fortwährendem Lernen. Die Modelle sollen nicht nur verlässlicher werden, sondern auch immer mehr Kontext, Randinformationen und „Erfahrung“ durch Interaktion mit der Außenwelt, etwa Menschen, einbeziehen. Auf diesem Wege reichern Cognitive-Computing-Systeme „Fachwissen“ an. Zudem interagieren sie auf verschiedenstem Wege mit Menschen, akustisch, optisch, mobil, per Funk und Vieles mehr. Sie werden zu Expertensystemen.

Besser verkaufen

Diese dritte Stufe macht solche Systeme besonders wertvoll. Permanent stehen Einzelhändler vor der Frage, was sie als nächsten Bestsellerartikel ordern und wo sie ihn platzieren sollen. Dass vor Weihnachten entsprechende Xmas-Artikel wie Nikoläuse, Engelsfiguren, Rentiere und Tannenbäume in allen Farben, Formen und Konsistenzen (z. B. als Schokolade) bestellt werden, leuchtet ein. Doch in der Abteilung Obst und Gemüse sieht es schon anders aus. Wie findet ein Einzelhändler heraus, ob seine Kunden Regionalerzeugnisse den berüchtigten „Hollandtomaten“ vorziehen? Gibt es Wetterfaktoren wie etwa Gluthitze im Sommer und Stürme im Herbst? Werden lokale Ereignisse wie etwa eine Weltmeisterschaft erwartet und wenn ja, in welcher Größenordnung?

Besser heilen

Ein Expertensystem, das solche diversifizierte Faktoren in erträglicher Antwortzeit (das heißt: unter fünf Sekunden) zusammentragen und zu Handlungsempfehlungen verdichten kann, ist pures Gold wert. Es gibt aber etwas, das noch wertvoller ist: Leben und Gesundheit. Durch negative Reaktionen auf Medikamente verlieren einer Fallstudie zufolge jährlich 100.000 von zwei Millionen betroffenen Menschen ihr Leben. Das ist in den USA die dritthäufigste Todesursache.

Alessandro Curioni, Leiter des IBM-Forschungszentrums in Rüschlikon
Alessandro Curioni, Leiter des IBM-Forschungszentrums in Rüschlikon (Bild: IBM)

„Drei bis fünf Prozent gehen auf Fehlbehandlung in Kliniken zurück“, berichtete Alessandro Curioni, Leiter des europäischen Forschungszentrums von IBM in Rüschlikon auf der International Supercomputing Conference 2016 (ISC) in Frankfurt/Main. „Die damit verbundenen Kosten belaufen sich auf 136 Milliarden US-Dollar – das ist mehr, als für die Behandlung von Diabetes und Herz-Kreislauf-Erkrankungen aufgewendet wird.“ Seine Schlussfolgerung: „Klinische Versuchsreihen sind nicht genug.“ Sie seien „nicht auf den jeweiligen Patienten personalisiert, decken keine seltene Toxizität auf, dauern zu lange und sind zu teuer.“ Cognitive Computing verhilft laut Curioni zu einer Beschleunigung des Lernmodells um den Faktor 30, zu einer Erhöhung der Verlässlichkeit einer Aussage um 20 Prozent und zu einer Senkung der Kosten um den Faktor acht.

Ähnlich wie in der IT-Security, so der naheliegende Schluss, muss daher die IT helfen, die Kosten zu drücken, die Anwendung zu beschleunigen und die Bandbreite der Einsetzbarkeit zu erweitern. Das kann wohl nur Cognitive Computing. Doch die Anforderungen an die Informationstechnologie steigen mit jeder dieser drei Dimensionen.

Auf die Dauer hilft nur Power

Mancher Laie mag sich wundern, warum es erst jetzt zu einer Explosion des Wissens durch Cognitive Computing kommt. Ganz einfach: Die Mittel waren einfach nicht vorhanden. Die Prozessoren hatten nicht genügend Rechenleistung, die Parallelverarbeitung war nur in kleinen HPC-Sparten vorhanden, die Systeme hatten nicht die passenden Machine-Learning-Algorithmen, verfügten nicht über die Fähigkeit, unterschiedlichste Informationen zusammenzuführen und zu korrelieren – und waren sehr teuer. Das hat sich mit schnellen CPUs und GPUs, der Cloud und Supercomputern geändert.

Es gibt eine deutliche Korrelation zwischen Wissen und dem Preis, der dafür zu bezahlen ist. Alessandro Curioni hat auf seinem ISC-Vortrag das Beispiel gewählt, dass ein Cognitive-Computing-System pro Mensch rund 48 Stunden benötigt, um die Sprache dieses Individuums zu erkennen und zu verstehen. Verwendet wird dabei Deep Learning, also die Kombination aus Machine Learning und Neuronalen Netzen, unterstützt durch Parallelverarbeitung auf GPUs.

Das Ergebnis: Selbst eine 80-prozentige Genauigkeit im Verstehen der US-amerikanischen Bevölkerung würde einen Aufwand von 2,2 Milliarden US-Dollar und 3,5 Milliarden Rechenstunden von einer Million GPUs erfordern – rund fünf Monate. Um jedoch eine höhere Genauigkeit von 95 Prozent zu erzielen, müsste man den Aufwand exponentiell auf 5,2 Milliarden US-Dollar und 8,8 Milliarden Rechenstunden auf einer Million GPUs steigern – mehr als ein Jahr. Welcher Patient wäre schon bereit, ein Jahr auf die Antwort zu warten, um eine Auskunft mit 95-prozentiger Verlässlichkeit zu erhalten?

Curioni treibt das Spiel noch weiter: Die ganze Welt so gut verstehen zu wollen, würde 100 Milliarden US-Dollar kosten, aber 100 Millionen GPUs nur einen Tag beschäftigen – oder 100 Exascale-Systeme. An diesem Ziel arbeiten in der Tat eine ganze Reihe von Exascale-Supercomputern, die es entweder bereits gibt oder die 2017 in Betrieb genommen werden. Es gibt nur ein Problem: Jedes Exascale-System erfordert rund 20 Megawatt an Energie. Hier gibt es noch viel zu tun.

Wie man sieht, braucht man erstens weniger Energieverbrauch, mehr Rechenleistung und zu guter Letzt eine Vielzahl besserer Algorithmen. Parallelverarbeitung unter Verwendung von GPUs ermöglichen inzwischen die neuesten OpenPower-Rechner von IBM, die im Herbst 2016 vorgestellt wurden. Die Kombination aus POWER-CPU mit K80-GPU durch NVLink erlaubt eine Vervielfachung der Rechengeschwindigkeit.

Spark und Hadoop

Die Verarbeitung im Hauptspeicher steigert diese Leistung, sofern man über die geeignete Rechner-Architektur verfügt: entweder über konvergente Systeme wie die OpenPower-Boliden oder über einen Rechen-Cluster, der verteilten RAM nutzen kann. Die nötige Technologie gibt es bereits: Apache Spark. Spark beherrscht sowohl einfaches Batch Processing (mit SQL usw.) wie sein Vorgänger Hadoop als auch Machine Learning und Stream-Verarbeitung.

Aufgrund dieser Flexibilität und der Möglichkeit, die jeweilige Anwendung mit Hochsprachen zu erstellen, ist Spark mittlerweile das Big-Data-Werkzeug der Wahl geworden. „Spark ist derzeit das weltweit größte Projekt der Open Source Community und IBM ist mit rund 30 Einzelprojekten daran beteiligt“, so Vijay Bommireddipalli im Gespräch mit BigData-Insider. Bommireddipalli leitet IBMs Spark Technology Center in San Francisco.

Notwendige Offenheit

Um jedoch mehr „Intelligenz“ in diese Systeme zu bringen, sind sowohl Offenheit als auch Programmierschnittstellen nötig. Die API-Wirtschaft wird nach Ansicht von Patricia Neumann, IBM Vice President für Hardware Sales, eine immer wichtigere Rolle spielen. Eine Folge dieser Erkenntnis besteht darin, dass IBM – wie eine Reihe anderer namhafter Unternehmen wie etwa Red Hat oder Hortonworks – die OpenPOWER Platform laufend erweitern, um gegenseitig Innovationen austauschen zu können. „Wir arbeiten beispielsweise daran, einen Standard für die sichere Handhabung von Streams namens RISE zu entwickeln“, sagte Bommireddipalli. IBM Watson verfügt bereits über 50 solcher APIs.

Kurzum: Eine Gemeinschaft vermag eine viel höhere Innovationsgeschwindigkeit zu erzielen als ein Einzelhersteller. Die äußeren Innovationen treiben gleichzeitig die Innovationen innerhalb des Unternehmens voran, denn nun stehen auf der Basis von IT-Standards Bausteine und Vorlagen zur Verfügung, um individuelle, differenzierende Anwendungen zu erstellen, die man je nach Workload und Branche konfigurieren kann.

Der Erfolg mit Cognitive Computing ist bereits heute für jedes Unternehmen in greifbarer Nähe. Denn die wichtigsten Bausteine stehen bereits in der Cloud (sei es Hybrid oder Managed) zum Abruf bereit: Infrastruktur (Storage, Compute, Netzwerk), APIs, Mobile, Cloud Services für DevOps, Security-Technologien und vor allem Analytik-Services. Der entscheidende Faktor bildet nach Ansicht von IBM („Welcome to the Cognitive Era. Digital Intelligence meets Digital Business“ [PDF], die kognitive Strategie. Sie liefert den Leitstern und ihre Umsetzung den Kompass für die ganze Anwendung.

Kognitive Strategie

Darunter versteht Big Blue die Summe der Entscheidungen, welche Informationen benötigt werden; welche Experten das System trainieren, an welchen Stellen menschliche Interaktion integriert werden muss, welche Produkte, Dienste, Prozesse und Tätigkeiten mit „Kognition“ (als dem Nutzen von Cognitive Computing) angereichert werden sollen und auf welche Teile der unstrukturierten Daten man sich konzentrieren soll usw. Aus diesem kleinen Pflichtenheft geht bereits implizit hervor, dass jede Integration von Cognitive Computing in eine Organisation für diese Folgen haben wird. Dass diese Folgen positiv, nutzbringend und wertschöpfend ausfallen, sollte das Bemühen der Unternehmensführung und ihrer Beratungs- und Implementierungspartner sein.

Ein Anwender

Aus Deutschland ist ein erster Lichtblick zu vermelden. Der deutsche Krankenhausbetreiber Rhön-Klinikum AG (RKA), nach eigenen Angaben „einer der größten Gesundheitsdienstleister in Deutschland“, testet ab Ende 2016 an seinem „Zentrum für unerkannte und seltene Erkrankungen“ (ZusE) des Universitätsklinikums Marburg ein auf der IBM-Watson-Technologie basierendes, kognitives Assistenzsystem. Das System soll die Ärzte und Spezialisten bei der Diagnosefindung unterstützen und so die Behandlungszeit von einigen hundert Patienten pro Jahr verkürzen.

„Mithilfe von Cognitive Computing erstellen wir eine Liste von Hypothesen, die dann den Ärzten vorgelegt wird. Die Liste enthält auch die Quellen, aufgrund derer die Hypothesen erstellt wurden, um so eine auf einer umfassenden Datenbasis fußende Diagnose zu ermöglichen“, erklärt Dr. Matthias Reumann, Projektleiter bei IBM Research–Zürich in Rüschlikon.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44338787 / Künstliche Intelligenz)