Kommentar von Maurizio Canton, Tibco Software Neue Analytics-Ansätze für das Edge Computing
Immer mehr Zeichen weisen darauf hin, dass das als natürlicher Nachfolger des Cloud Computing gehandelte Edge Computing im Rennen um den Status als wichtigste disruptive Informationstechnologie die Nase vorn hat. Die nächste Phase des digitalen Wandels dürfte also von Edge Computing befeuert werden.
Anbieter zum Thema

Dafür gibt es einen Grund: Um optimalen Nutzen aus Daten zu ziehen, müssen diese in Echtzeit gewonnen werden. Nur neueste Erkenntnisse sind eine zuverlässige Grundlage für schnelle operative Entscheidungen.
Die notwendige Agilität hierfür lässt sich erreichen, indem die Cloud dezentralisiert wird und Datenspeicher sowie Verarbeitung näher an die Datenquellen rücken. Die schnellere Extraktion von Nutzwert aus Daten verbessert Sicherheit und Datensatz, indem die Daten weniger lange im Netzwerk unterwegs und damit weniger lange einer potenziellen Korruptionsgefahr ausgesetzt sind.
Industrial IoT
Der geschilderte Trend lässt sich bei vielen Anwendungen beobachten; am stärksten ist er jedoch im IoT-Sektor und hier insbesondere im industriellen Internet der Dinge (Industrial IoT, IIOT) zu spüren, wo zahlreiche Faktoren zusammenwirken, um die Konnektivitätsanforderungen an die betreffenden Unternehmen immer weiter in die Höhe zu treiben.
Angesichts gigantischer Datenmengen, die oft unstrukturiert und unter schwierigen dezentralen Bedingungen zwischen Myriaden von Sensoren, Geräten, Anlagen und Maschinen übertragen werden, erweist sich das Edge Computing als kritischer Interventionspunkt. Denn hier erhalten Sensoren die notwendige Verarbeitungsleistung, um ihre eigenen Entscheidungen treffen zu können, ohne jedes Mal mit dem zentralen Server Rücksprache halten zu müssen.
Das Resultat sind nicht nur kürzere Latenzzeiten und niedrigere Kosten, sondern auch die Fähigkeit, auf erfolgskritische Entscheidungen auch dann angemessen reagieren zu können, wenn nicht genügend Zeit ist, die Rohdaten erst ans Data Warehouse zu schicken und aufzubereiten.
Schwierigkeiten und Stolperfallen
Zwar gibt es viele überzeugende Argumente für das Edge Computing, die praktische Umsetzung ist aber mit einigen Schwierigkeiten und Stolperfallen versehen, die für böse Überraschungen sorgen können.
Es genügt nicht, die Daten an den Netzwerkrand zu verlagern und dann auf ein Wunder zu hoffen. Auch Anwendungen am Netzwerkrand können fehlerhaft sein und erfordern somit eine sorgfältige Verwaltung, Pflege und Aktualisierung. Für maximalen Seelenfrieden muss die Anwendungsperformance daher mittels Analysewerkzeugen möglichst nahe am Ort des Geschehens überwacht werden.
Allerdings lassen sich solche Werkzeuge durch IT-Infrastrukturen am logischen Rand des Netzwerks bzw. durch Anwender ohne hochspezialisierte Data-Science-Kenntnisse oft nur sehr schwer handhaben. Die inhärenten Merkmale des Internets der Dinge und die Geschwindigkeit und Vielfalt der damit verbundenen Innovationen und Anwendungen haben eine neue Art von Entwicklern hervorgebracht, die ihre Apps vorzugsweise direkt für ein IoT-Gerät erstellen, dabei jedoch nicht über das Fachwissen professioneller Programmierer zu verfügen.
Smartere Konnektivität und Echtzeiteinblicke
Ohne dieses Fachwissen wird die Auswahl der geeigneten Technologie jedoch zur alles entscheidenden Frage, wenn die Unternehmen ihre IoT-Intelligenz erweitern und die Grenzen ihres digitalen Business nach außen verschieben wollen. Als Lösung für dieses Problem bietet sich eine Doppelstrategie an, die sowohl die notwendige smartere Konnektivität sicherstellt als auch Echtzeiteinblicke ermöglicht, die sich leicht erhalten und weiterverarbeiten lassen.
Im Zentrum dieser Strategie stehen neuartige Design-Bots und Translytical-Datenbanken (ein Begriff, der vom IT-Marktforschungsunternehmen Forrester geprägt wurde), die sowohl bei Transaktionen als auch bei Analysen durch ihre extrem hohe Verarbeitungsgeschwindigkeit glänzen.
Mit den quelloffen konzipierten Bots können Integration und Datenverarbeitung direkt in die smarten Geräte eingebracht werden, sodass selbst den kleinsten Einheiten ein ungeahntes Maß an Verarbeitungskapazität zukommt. Auf dieser Grundlage lassen sich wiederum agilere Anwendungen entwickeln, die auf den smarten Geräten lokal ausgeführt werden können, wodurch deren ständige Vernetzung gewährleistet ist.
Grundpfeiler der digitalen Transformation
Die ultraschnelle Datenbank übernimmt dann die Speicherung und Interpretation der komplexen Beziehungen, die unsere hypervernetzte Welt bis in den letzten Winkel durchdringen. So gerüstet sind Enterprise Architects in der Lage, Analyseresultate mit nie dagewesener Geschwindigkeit bereitzustellen, bevor sie für die weitere, zielgerichtete Verwendung in der Cloud gespeichert werden, kurz: Edge Computing als Grundpfeiler der digitalen Transformation zu nutzen.
(ID:44401377)