Zeitreihen-Auswertung für Edge-Computing-Anwendungen

Teradata automatisiert die vierte Analytics-Dimension

| Autor / Redakteur: Karin Johanna Quack / Nico Litzel

4D Analytics von Teradata kombiniert dreidimensionale Geodaten mit der vierten Dimension, der Zeit.
4D Analytics von Teradata kombiniert dreidimensionale Geodaten mit der vierten Dimension, der Zeit. (Bild: Teradata)

Kurz vor der europäischen „Universe“-Konferenz Ende April hat der Analytics-Spezialist Teradata einige signifikante Ankündigungen gemacht. Sie indizieren einen Trend: raus aus der „Splendid Isolation“, rein in sinnvolle Partnerschaften, zum Beispiel mit Cisco und NVIDIA. Auf der Produktseite stellt der Anbieter zudem eine Software vor, welche die Analyse von Sensordaten „on the edge“ vereinfachen soll.

Sensordaten unterscheiden sich von Transaktionsdaten vor allem in einem Punkt: Sie spiegeln nicht ein vorläufiges Endergebnis wider, sondern nur eine Momentaufnahme. Einen Sinn ergeben sie nur in der Zusammenschau mit anderen Momentaufnahmen; daraus ergeben sich Verhaltensmuster, die sich mit anderen Mustern vergleichen lassen. Hört sich kompliziert an, ist es auch. Denn hier spielen neben Orts- und Zustandsdaten auch Zeitangaben und -reihen eine Rolle.

Oliver Ratzesberger, Chief Operating Officer der Teradata Corp.
Oliver Ratzesberger, Chief Operating Officer der Teradata Corp. (Bild: Teradata)

Zeitreihen in Analytics-Algorithmen abzubilden sei für Anwenderunternehmen sehr aufwendig, erläutert Oliver Ratzesberger, Chief Operating Officer (COO) der Teradata Corp. mit Sitz in San Diego. Doch für Applikationen aus den Bereichen Internet of Things (IoT) und „Künstliche Intelligenz“ sind sie unverzichtbar. So beispielweise für „Smart-City“-Anwendungen.

Um die Analyse solcher orts- und zeitabhängiger Daten zu erleichtern, hat Teradata „4D Analytics“ entwickelt. Dabei handelt es sich um ein neues Mitglied der „Advanced-Analytics“-Familie, die auf der „Teradata-Analytics“-Plattform läuft und damit Teil des „Teradata-Everywhere“-Konzepts ist. Das heißt: Unterschiedlichste Devices und hybride Delivery-Modelle können hier zusammenarbeiten.

Dreidimensionale Geodaten in Kombination mit Zeit

4D Analytics kombiniert dreidimensionale Geodaten mit der vierten Dimension, der Zeit. Der Anwender kann aus dem Datenstrom zeitabhängige Versionen herausziehen, ohne dass er vorher Snapshots terminieren muss. Er ist in der Lage, die Sensordaten mit den jeweils gültigen Stammdaten in Beziehung zu setzen, Pfadanalysen vorzunehmen und eigene operationale Analysen einzubeziehen.

Die dazu notwendigen Verknüpfungen sind im Werkzeug bereits angelegt; der Entwickler muss sie nicht selbst erstellen. Damit verringere 4D Analytics die Komplexität erheblich, so Ratzesberger: „Was wir von der Datenanalyse sehen und was für Außenstehende so sexy aussieht, ist ja nur die Spitze des Eisbergs. Aktuellen Studien zufolge wenden die Kunden 90 Prozent der Zeit auf, um die Daten aufzubereiten.“

Seine Stärken spielt 4D Analytics laut Teradata vor allem dort aus, wo Sensordaten nah an der Quelle ausgewertet werden sollen, also beim „Edge Computing“. Interessante Anwendungsfälle ergeben sich, wenn die Analyseergebnisse quasi in Echtzeit zurückgespiegelt werden können, um das Device vor Ort „smart“ zu machen. Einsatzmöglichkeiten sieht der Anbieter neben der Palette der Wearable-Anwendungen unter anderem bei Connected Cars, Flug- und Flotten-Management, Verkehrs- und Ampelsteuerungen.

Kommunen auf dem Weg zur Digitalisierung

Damit passt die Produktankündigung zu einem anderen aktuellen Teradata-Announcement. Es betrifft die Partnerschaft mit Cisco. Die beiden Unternehmen entwickeln gemeinsam eine Lösung, die Städte und Kommunen bei der Digitalisierung ihrer Services unterstützen soll. Sie basiert auf der Sensor-Infrastruktur von Cisco („Kinetic for Cities“) und der Analytics-Plattform von Teradata und soll sich durch den integrierten Datenaustausch zwischen allen beteiligten Devices auszeichnen. So ließen sich die Datensilos auflösen, die laut Teradata heute die Informationslandschaften der Städte und Gemeinden dominieren.

„Cisco ist mit seiner Infrastruktur bereits in vielen Städten präsent“, erläutert Ratzesberger. Die Plattform gilt als sichere Bank in puncto Erfassung, Aggregation und Normalisierung von Echtzeitdaten. „Auf dieser Grundlage können unsere Anwendungen arbeiten“, sagt der Teradata-COO. Teradata verknüpft die von Kinetic for Cities aggregierten und normalisierten Realtime-Daten, zum Beispiel zu Verkehrslage, Straßenbeleuchtung und Parksituation, mit den Ergebnissen von Bürgerbefragungen, Informationen zu Zahlungssystemen etc. Die Daten werden unterschiedlichen deskriptiven und präskriptiven Analysemethoden unterzogen, deren Ergebnisse dann den Verantwortlichen als Entscheidungsbasis dienen. So lassen sich Staus erkennen, bevor sie entstehen, Ampelschaltungen optimieren oder die besten Routen für Ambulanzfahrzeuge ermitteln.

Know-how-Austausch mit NVIDIA

Eine weitere Partnerschaft ist Teradata mit NVIDIA eingegangen. Genau genommen ist der Akteur hier der Consulting-Zweig Teradata Think Big Analytics; er ist dem Service-Delivery-Partnerprogramm von NVIDIA beigetreten. Die Grafikprozessoren von NVIDIA bilden das technische Gerüst für zahlreiche Deep-Learning-Anwendungen.

Gemeinsam wollen die frischgebackenen Partner Artificial-Intelligence-Lösungen für unterschiedliche Branchen entwickeln. Zudem geht es um den bestmöglichen Einsatz der raren KI-Fachkräfte. Deshalb sollen die Teradata-Berater auf das Trainingsmaterial, den Support und die technischen Werkzeuge von NVIDIA zugreifen können. „Früher war Teradata überzeugt, nur wenige Partner zu brauchen“, erinnert sich Ratzesberger, „heute ist es nicht mehr möglich, auf jedem Gebiet ein Experte zu sein.“

Hadoop am Ende des Lifecycle?

Die technische Welt im Big-Data-Bereich ist viel zu komplex und wandelbar, als dass ein einziges Unternehmen sie komplett und permanent abdecken könnte. Auch einmal getroffene Entscheidungen müssen ständig überdacht und gegebenenfalls revidiert werden. Beispielsweise hat Teradata vor etwa vier Jahren bereits die Integration mit Hadoop vorgestellt. Damals galt die Open Source Software für Data Lakes als Goldstandard. Heute ist der Public-Cloud-Anbieter Amazon drauf und dran, mit „S3“ eine Alternative durchzusetzen.

„Ein Unternehmen, das zu Amazon geht, nimmt Hadoop selten mit“, hat Ratzesberger beobachtet: „Das ist finanziell nicht darstellbar.“ Zumal man auf Hadoop eben keine operativen Anwendungen fahren könne. Offenbar will auch Teradata künftig eher auf S3 setzen. Kurz vor der offiziellen Ankündigung steht eine Schnittstelle für Teradata Analytics, mit deren Hilfe die Anwender Eingangsdaten aus S3 weiterverarbeiten können.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45246381 / Analytics)