Suchen

Edge Computing T-Systems wertet Massendaten intelligent vor Ort aus

| Autor / Redakteur: Jürgen Schreier / Nico Litzel

„Big Data & Global Edge Analytics“ heißt eine neue Lösung von T-Systems, mit der eine Analyse weltweit verteilter Daten vor Ort möglich ist. Die Software erfasst und speichert die Daten ohne Informationsverlust und bis zu 90-fach komprimiert. Die Daten verbleiben dann vor Ort in einem Edge Device.

Firmen zum Thema

Die Software “Big Data Signal Processing“ erfasst und speichert die Daten ohne Informationsverlust und bis zu 90-fach komprimiert. Die Daten verbleiben, wo sie entstanden sind – in einem Mini-Rechenzentrum vor Ort, dem so genannten Edge Device.
Die Software “Big Data Signal Processing“ erfasst und speichert die Daten ohne Informationsverlust und bis zu 90-fach komprimiert. Die Daten verbleiben, wo sie entstanden sind – in einem Mini-Rechenzentrum vor Ort, dem so genannten Edge Device.
(Bild: T-Systems)

T-Systems bietet jetzt eine Lösung zur Analyse weltweit verteilter Daten. Denn immer mehr vernetzte Maschinen und Produkte produzieren Informationen. Wegen der schieren Menge und der dafür benötigten Bandbreite ist das Übertragen der Daten in ein zentrales Rechenzentrum aufwendig und teuer. Deshalb wertet die neue Lösung „Big Data & Global Edge Analytics“ Massendaten vor Ort aus.

In der Praxis hat die Lösung von T-Systems bereits die Belastungsprobe bestanden. Bei Fahrzeugtests eines großen Autoherstellers im Schnee Finnlands oder in der Wüste Dubais fallen je Erlkönig täglich mehrere Terabyte Signaldaten an. Ingenieurteams auf der ganzen Welt sollen diese möglichst direkt nach Testende für vielfältige und spontane Analysen nutzen.

Verlustlose Datenkompression

Die Software „Big Data Signal Processing“ erfasst und speichert die Daten ohne Informationsverlust und bis zu 90-fach komprimiert. Die Daten verbleiben, wo sie entstanden sind – in einem Mini-Rechenzentrum vor Ort, dem so genannten Edge Device. Das Vereinheitlichen von binären Datenformaten und das Umwandeln in ein spezielles Big-Data-Format erlaubt parallele Rechenprozesse. So geht die Datenverarbeitung um bis zu 40-fach schneller.

Für Analysen müssen diese Daten nicht zuerst in ein zentrales Rechenzentrum. Stattdessen schicken Ingenieure ihre Analyseanfragen an die weltweit verteilten Edge Cluster. Nur die Ergebnisse fließen über eine sichere Netzwerkverbindung zurück. Experten sprechen von „Code to Data“: Statt Daten zum Berechnen zu verschicken, werden die Analyseanfragen zu den Daten geschickt. Das spart Bandbreite und Übertragungskosten. Kritische Daten stehen schneller zur Verfügung. Ihre Qualität ist besser. Das verkürzt Entwicklungszyklen und verbessert Engineering-Prozesse.

Daten werden revisionssicher gespeichert

Die neue Telekom-Lösung richtet sich an alle Branchen, die dezentral mit großen Datenmengen arbeiten – wie Konstruktion, Test und Logistik. „Big Data & Global Edge Analytics“ erweitert den Handlungsspielraum beim Verarbeiten und Nutzen sehr großer Datenmengen. Die Software liest Rohdaten schnell und zuverlässig aus, indexiert die Informationen und komprimiert sie. Damit speichern Nutzer die Daten revisionssicher: das heißt, ohne Informationsverlust bis zu zehn Jahre lange. Der gesamte Datenbestand steht an den Cloud-Speicherorten jederzeit zur Verfügung.

Dieser Artikel stammt von unserem Partnerportal Industry of Things.

(ID:46551667)