Internet of Things und Industrie 4.0

Auf Tour im IBM-Watson-IoT-Labor

| Autor / Redakteur: Ariane Rüdiger / Nico Litzel

Andrea Martin, IBM-CTO: „Industrie 4.0 wird die Wirtschaft in den kommenden Jahren maßgeblich beeinflussen.“
Andrea Martin, IBM-CTO: „Industrie 4.0 wird die Wirtschaft in den kommenden Jahren maßgeblich beeinflussen.“ (Bild: Rüdiger)

Mit Watson-IoT möchte IBM die Industrie und andere Bereiche umkrempeln. Das Münchner Watson-IoT-Lab zeigt Beispiele dafür, wie das aussehen könnte.

Wer erleben will, wie möglicherweise eine Zukunft aussieht, wenn wissensbasierte Systeme allgegenwärtig sind, kann sich einen Eindruck davon in IBMs Watson-IoT-Labor verschaffen, wo der IT-Spezialist im Kundenauftrag an verschiedenen Konzepten werkelt, die entweder bereits umgesetzt wurden oder in Zukunft umgesetzt werden sollen. Ihnen gemeinsam ist, dass Daten, die von Unmengen an Sensoren erfasst und in Echtzeit, gegebenenfalls zusammen mit anderen Daten aus anderen Quellen, ausgewertet, zu handlungsleitendem Wissen zusammengefasst und gegebenenfalls sofort in automatisierte Aktionen umgesetzt werden.

Alternativ dazu ergeben die Auswertungen nur Hinweise, wie Vorgänge abzuwickeln sind, welche Aktion jetzt nötig wäre und Ähnliches. Letzteres dann, wenn vor dem Bildschirm oder am Steuerpult ein menschlicher Bediener sitzt, der die letzte Entscheidung hat. Doch vieles soll in Zukunft gerade in der Industrie auch voll automatisiert funktionieren.

Schon vor einem Jahr hatte IBM angekündigt, München zum weltweiten Zentrum für Watson-IoT zu machen – unter anderem, weil hier viele große Unternehmen ihren Stammsitz haben, die in Zukunft in großem Umfang auf intelligente Lösungen zurückgreifen wollen, um ihre Geschäftsmodelle zu verbessern oder gleich ganz neu zu erfinden: Versicherungen, Banken, Autobauer und Zulieferer, Elektronikindustrie und Luft- und Raumfahrt. Mit Siemens sitzt auch ein wichtiger Konkurrent im IoT-Markt in der Stadt – Konkurrenz belebt bekanntlich das Geschäft.

Aus gesammelten Informationen Schlussfolgerungen ziehen

Andrea Martin, IBM-CTO, sprach darüber, was IBM eigentlich unter Cognitive Computing – und genau darum geht es letztlich bei Watson-IoT – versteht: „Das bedeutet, gesprochene Sprache, Bilder und andere unstrukturierte Medien zu verstehen, aus gesammelten Informationen Schlussfolgerungen zu ziehen und aus den bisherigen Erfahrungen zu lernen, also so zu arbeiten wie ein Gehirn.“ Noch mehr Daten bedeuteten in solchen lernfähigen Umgebungen ganz einfach bessere Erkenntnisse. „Dann wird aus Monitoring Fehlervermeidung, aus einer Mensch-Maschine-Schnittstelle Konversation und aus dem Verständnis von Maschinendaten eine selbstlernende Maschine.“ Dafür brauche man übrigens bei IBM keine proprietäre Hardware, sondern komme weitgehend mit Power 7 und 8 zurande.

Praktisch bedeute das für die Kunden von Scheffler, wo man Sensoren in Kugellager einbaut, schlicht bessere Produkte und besseren Service oder mehr Sicherheit für DHL-Lagermitarbeiter. Dort werden Mitarbeiter mit Sensoren und Kommunikationsmedien ausgerüstet, die ihr Verhalten steuern sollen. „Wenn ein Mitarbeiter direkt vor Ort akustisch ermahnt wird, beispielsweise nicht schon wieder fünf Stufen auf einmal herunterzuspringen, erreicht ihn das wahrscheinlich eher als andere Methoden, und so etwas erhöht die Sicherheit“, meinte Martin. Auch das Beispiel Foxconn nannte Martin: In den chinesischen Fabriken des Unternehmens, die den demografischen Wandel in China verkraften müssen, sollen in Zukunft eine Million Roboter den Menschen Arbeit abnehmen.

Verweigerte die Auskunft: Roboter „Pepper“
Verweigerte die Auskunft: Roboter „Pepper“ (Bild: Rüdiger)

Dass allerdings gerade die Mensch-Maschine-Interaktion noch nicht unbedingt reibungsfrei funktioniert, zeigte sich gleich am Eingang zum Labortrakt. Dort sollte Roboter „Pepper“ auf freundliche Anfrage Auskunft übers Labor geben, hüllte sich aber in Schweigen.

Smart Home und autonomes Fahren

Das Münchner IBM-Lab beleuchtet in einem großen Bereich industrielle Themen, weiter beschäftigt es sich mit dem Smart Home, autonomem Fahren und anderen gängigen Themen, für die man sich von intelligenten Algorithmen neuartige Lösungen erhofft. Hinter diesen stehen häufig neuronale Netze. Die Technologie gibt es zwar schon über 60 Jahre – allerdings scheiterte ihre erfolgreiche Anwendung in großen Projekten wie der Steuerung von Fabriken, dem Straßenverkehr und anderen komplexen Systemen bisher an zu wenig Daten, zu schwacher Rechenpower und daran, dass es keine Open Source Software für neuronale Algorithmen gab.

Alle drei Themen sind inzwischen vom Tisch: Sollten sich sensorgestützte Systeme wie prognostiziert ausbreiten, werden sie die Welt mit Daten förmlich fluten, Rechenpower und Speicher werden immer billiger und im Hintergrund wird an grundsätzlich neuen Architekturen gewerkelt, die von vorn herein auf massenweisen Datendurchsatz und wenig Stromverbrauch zugeschnitten sind. Und es sind mittlerweile mehrere Open-Source-Lösungsbaukästen frei erhältlich: von Google (Tensorflow), Facebook (FAIR) und Microsoft (CNTK). Mit anderen Worten: Das große Basteln kann beginnen.

Im Lab arbeitet man beispielsweise mit John Deere an Applikationen, die die Reparatur von Traktoren beschleunigen sollen: von der visuellen Fehleranalyse an einem per Smartphone geschossenen und in die Watson-Cloud geschickten Foto über die passgenaue Auswahl und Anlieferung der für eine Reparatur benötigten Teile bis zur Einbauanleitung. Ein anderer Einsatzzweck fehleranalytischer Anwendungen liegt darin, einen Fehler am fertigen Produkt genau einem Produktionsschritt beziehungsweise einer Fertigungsmaschine zuzuordnen, so dass dort modifiziert und damit der Fehler in Zukunft vermieden werden kann. Eine weitere Anwendungsmöglichkeit für intelligente Roboter ist der Einsatz für gefährliche Arbeiten. Sebastian Chaumiole vom Watson-IoT-Labor: „Ein Beispiel ist das Polieren von Handys. Dafür verwendet man hoch explosives Magnesiumpulver. Dieser Gefahr müssen sich menschliche Mitarbeiter nicht mehr aussetzen, wenn man Roboter verwendet.“

Ein mit dem Industrie-4.0-Projekt der TU München, Fortiss, für Adidas entwickeltes Modell einer intelligenten Fabrik.
Ein mit dem Industrie-4.0-Projekt der TU München, Fortiss, für Adidas entwickeltes Modell einer intelligenten Fabrik. (Bild: Rüdiger)

Beim Zementhersteller Holcim, wo man feststellte, dass der Strombedarf einer Maschine um 60 Prozent schwankte, je nachdem, wer sie bedient, unterstützt nun ein spezielles, intelligentes Softwaremodul den Operator der Anlage.

Drohnen und Videoanalysen

Videoanalysen werden in Zukunft zusammen mit Drohnen helfen, Stromleitungen, Windturbinen oder Bahngleise schneller zu inspizieren, eine Arbeit, die heute noch sehr zeitraubend und teilweise gefährlich durch menschliche Mitarbeiter allein geleistet wird. Letztere werden in Zukunft wohl vor allem bewerten, was die Drohne an Daten liefert. Während man die Drohnen zukünftig wahrscheinlich günstig einkaufen kann, sieht IBM sein professionelles Geschäft auf diesem Sektor eher in der Bereitstellung von Service, obwohl eine Drohne natürlich auch im Lab zu besichtigen ist.

Auch fürs autonome Fahren sind intelligente Videoanalysen unentbehrlich – was hier nicht ausgereifte Algorithmen anrichten können, hat erst kürzlich der viel diskutierte Unfall eines Google-Cars, der zu menschlichen Todesopfern führte, gezeigt. Hier versucht man im Watson-IoT-Lab, die mühselige Klassifizierung von Objekten in Filmmaterial zu automatisieren, die nötig ist, um entsprechende neuronale Netze anzulernen und sie fit für den Einsatz auf der Straße zu machen,. Hans Windpassinger vom Watson IoT-Lab „Dafür nutzen die Hersteller 25 bis 30 Petabyte Bildmaterial.“ Bisher erledigten diese Sisyphusarbeit Menschen und brauchten entsprechend lange.

Weitere Einsatzfelder sind beispielsweise das sensorgespickte intelligente Haus, das älteren Menschen hilft, möglichst lange in den eigenen vier Wänden zu bleiben – aber gerade für finanzschwache Kreise wohl nur mit der finanziellen Unterstützung Dritter, beispielsweise von Krankenversicherungen, realisierbar sein wird, wie ein IBM-Mitarbeiter bereitwillig zugibt, oder die intelligente Prothese, die beispielsweise auf die Natur des Untergrunds oder die spezifischen Bewegungsmuster ihres Trägers reagiert.

Das Labor sieht sich als „Ideensenke“: Die dort aufgebauten Use Cases lassen sich durch weitere Daten modifizieren oder auf neue Anwendungsfälle ausdehnen. Insgesamt gewinnt man auf der Münchner Lab-Etage mit Blick bis zu den Alpen eine ebenso weitblickende Perspektive darauf, wie eine sensorgespickte Welt technisch funktionieren könnte. Damit, wie die Gesellschaft in einer algorithmengesteuerten Umgebung funktionieren könnte, beschäftigt sich das Watson-IoT-Lab allerdings höchstens am Rande. Beim Datenschutz nimmt man es aber sehr genau, betonen Lab-Mitarbeiter und Management unisono: Allein der IBM-Kunde bestimme, wo seine Daten liegen und wer sie in welchem Umfang verarbeiten und nutzen dürfe.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44543285 / Industrie 4.0)