Nachbericht Teradata Universe London 2018

Teradata befindet die Public Cloud reif für Analytics

| Autor / Redakteur: Karin Johanna Quack / Nico Litzel

Teradata vollzieht einen Wandel und öffnet sich der Cloud: Hoch spezialisierte Server und Storage-Systeme seien nicht mehr notwendig, um eine skalierbare Analytics-Umgebung zu betreiben.
Teradata vollzieht einen Wandel und öffnet sich der Cloud: Hoch spezialisierte Server und Storage-Systeme seien nicht mehr notwendig, um eine skalierbare Analytics-Umgebung zu betreiben. (Bild: Karin Quack)

Das Thema der diesjährigen „Teradata Universe“ lautete: Analytics in der Cloud. Wie bitte? Cloud ist doch längst ein „Nobrainer“, wie es im Business-Deutsch heißt. Aber nicht im Analytics-Umfeld, kontert Oliver Ratzesberger, Chief Operations Officer (COO) der Teradata Corp., San Diego. Eine durchgängige Analytics-Umgebung, die on premise und mit derselben Lizenz auch in diversen Cloud-Umgebungen laufe, die mit fremden Tools integrierbar und vor allem skalierbar sei – das habe es bislang nicht gegeben.

Einige Branchenbeobachter schreiben Teradata bereits als Relikt der proprietären IT-Welt ab. Doch vielleicht schauen sie jetzt noch einmal genauer hin, denn das Unternehmen ist dabei, sich quasi neu zu erfinden. Ja, es hat noch immer proprietäre Hardware – und Kunden, die sich aus Performance-Gründen eine „IntelliFlex“-Maschine oder eine Speicheranlage des von Teradata akquirierten Herstellers Stack-IT ins Haus holen. Aber hoch spezialisierte Server und Storage-Systeme sind nicht mehr notwendig, um eine skalierbare Analytics-Umgebung zu betreiben, beteuert Teradata-CEO Victor Lund.

Zum einen betreibt Teradata unter seinem Namen eine eigene Cloud; zum anderen bietet das Unternehmen einen Großteil der Analytics-Funktionen mittlerweile auch schon in der Amazon-Cloud („AWS“) sowie – zumindest in den USA – auf Microsofts Azure an. Möglich seien auch hybride Konstellationen, bei denen Teile der Anwendung in der Public Cloud, andere in einer Private Cloud und wieder andere on premise laufen, so Lund.

Und das Beste daran, so ergänzt COO Ratzesberger: Seitdem Teradata sein Entgeltmodell von Einmalzahlung („perpetual“) auf „Abonnement“ umgestellt habe, seien nicht nur die Einstiegskosten geringer, sondern ließen sich die Lizenzen auch kostenneutral zwischen verschiedenen Deployment-Plattformen hin- und herschieben.

Ratzesberger kam vor fünf Jahren vom Teradata-Kunden eBay, dessen Erfolg er als Data-Warehouse-Verantwortlicher maßgeblich mitgestaltet hatte. Er zitiert das Beratungsunternehmen Gartner, wenn er fordert: „Die Möglichkeit, die Deployment-Plattform kostenlos zu wechseln, sollte eigentlich Bestandteil jedes Softwarevertrags sein.“ Leider sei bislang das Gegenteil der Fall: Die Provider versuchten häufig sogar, die Kunden zu halten, indem sie die ihnen übertragenen Daten nur gegen Entgelt zurückgäben.

Der lange Weg in die Cloud

Den Wandel der Teradata Corp. macht Ratzesberger an vier Kriterien fest: Zum einen setze das Unternehmen mittlerweile statt auf durchstrukturierte Data-Warehouses auf flexible und erweiterbare Objekt-Pools („analyse anything“). Zum anderen habe die proprietäre Hardware vor Ort Konkurrenz durch neue Betriebsplattformen bekommen („deploy anywhere“). Drittens hätten die teuren und beschränkten Kaufoptionen ausgedient („buy any way“), was das Risiko der Investitionsentscheidungen erheblich verringere. Last, but not least, müssten sich die Kunden nicht mehr „einsperren“ lassen, sondern könnten selbst entscheiden, wann und wo sie mit ihren Daten hinziehen („move anytime“).

Stephen Brobst, Chief Technology Officer der Teradata Corp.
Stephen Brobst, Chief Technology Officer der Teradata Corp. (Bild: Teradata)

Aber warum bietet Teradata seine Produkte erst jetzt in der Public Cloud an? „Die Cloud war noch nicht bereit für uns“, wirft Stephen Brobst in die Runde. Der langjährige Technikvisionär, dessen Titel Chief Technology Officer (CTO) pures Understatement ist, meint das keineswegs als arroganten Scherz. Erste Versuche, umfangreiche Analytics-Systeme in der Public Cloud zu betreiben, sind offenbar kläglich gescheitert. „Wir haben in der Vergangenheit so manche Cloud in die Knie gezwungen“, erinnert sich COO Ratzesberger, „aber schließlich haben auch die Provider dazugelernt, und heute sind wir ein geschätzter Partner für sie.“

Laut Ratzesberger arbeitet Teradata schon seit fünf Jahren daran, Heavy-Duty-Analytics in die Cloud zu bringen: „Und das heißt: Als wir vor etwa zwei Jahren unsere Teradata-Everywhere-Strategie publik machten, hatten wir die Produkte dafür schon in der Schublade.“

Die Kunden scharren mit den Füßen

Auch auf der Kundenseite ist der Weg in die Public Cloud für Analytics-Systeme erheblich länger als für Office-Anwendungen. Das hat zumindest das Marktforschungsunternehmen Vanson Bourne kürzlich herausgefunden. Die Bereitschaft sei immerhin da: Von den 700 Technologieverantwortlichen aus internationalen Großunternehmen, die im Auftrag von Teradata befragt wurden, äußerten 83 Prozent die Ansicht, dass eine Public Cloud der beste Ort sei, um Analytics-Anwendungen zu betreiben.

Damit verbunden sind hohe Erwartungen: die Hoffnung auf schnelleres Deployment (51 Prozent), bessere Sicherheit (46 Prozent), höhere Performance und schnellere Dateneinsicht (44 Prozent) sowie auf leichteren Zugriff durch die Anwender (43 Prozent) und kostengünstigere Maintenance (41 Prozent). Den meisten, sprich: 91 Prozent, der Umfrageteilnehmer dauert der Umzug ihrer Analytics-Applikationen in den öffentlichen Datenraum aber zu lange. Und hierfür hat die Studie mit dem Titel „The State of Analytics in the Cloud“ ein paar Erklärungen gefunden: Etwa die Hälfte der Befragten macht Sicherheitsbedenken für das Zögern der Unternehmen verantwortlich – dicht gefolgt vom Fehlen ausgereifter und performanter Technik (49 Prozent).

Python-Projekte skalieren schlecht

Yasmeen Ahmad, Direktorin bei Think Big Analytics, dem Consulting-Arm der Teradata Corp.
Yasmeen Ahmad, Direktorin bei Think Big Analytics, dem Consulting-Arm der Teradata Corp. (Bild: Teradata)

Einen „Performance Gap for Analytics at Scale“ will Teradata denn auch festgestellt haben. Oder wie Chief Executive Officer Lund ausführt: „Was als kleines Python-Projekt recht gut funktioniert, entwickelt sich zum Albtraum, wenn es im großen Maßstab eingesetzt werden soll.“ Das kann Yasmeen Ahmad nur bestätigen. Sie ist Data Scientist aus Leidenschaft, außerdem Direktorin bei Think Big Analytics, dem Consulting-Arm der Teradata Corp., vor allem aber – neben Urgestein Brobst und dem relativ frisch hinzugekommenen Praktiker Ratzesberger – ein Aushängeschild der „neuen“ Teradata.

Tatsächlich erlebten viele Studenten eine Art Kulturschock, berichtet Ahmad, wenn sie aus dem universitären Umfeld und von Entwicklungssprachen wie Python oder R in die Unternehmen wechselten. Denn dort würden mächtige Analytics-Anwendungen mit Produkten entwickelt, die auf den Lehrplänen der Hochschulen gar nicht mehr vorkämen.

Zu diesen Produkten zählen die Tools von SAS Institute. Die sieht Teradata – wie die meisten anderen Analytics-Werkzeuge, zum Beispiel von Microstrategy – allerdings nicht als Konkurrenz, sondern als Ergänzung für die eigenen Produkte. Oder besser gesagt: als potenzielle Bestandteile eines „Ökosystems“, für das das kalifornische Unternehmen die Plattform bereitstellen will.

Das Fernziel: Bring your own Tool

Die Teradata Analytics Platform (TAP) im Überblick
Die Teradata Analytics Platform (TAP) im Überblick (Bild: Teradata)

Auf die Bitte, die Metamorphose von Teradata kurz in drei Sätzen zu beschreiben, antwortet CTO Brobst wie aus der Pistole geschossen: „Das geht sogar in drei Wörtern: Teradata Analytics Platform. Diese – kurz TAP genannte – Technik wurde bereits auf der „Partners“-Konferenz in Anaheim vorgestellt und steht jetzt kurz vor der Marktreife.

Teradata positioniert sich als Analytics-Integrator

Fokus auf Artificial Intelligence

Teradata positioniert sich als Analytics-Integrator

06.11.17 - Nach dem Experiment mit Marketing-Tools aus der Cloud und der erfolgreichen Integration des Beratungsunternehmens „Think Big Analytics“ sucht Teradata nun seine Rolle als Architekt und Baustofflieferant für Analytics, Machine Learning und Neuronale Netze. lesen

Die Platform besteht im Wesentlichen aus einer Entwicklungsoberfläche und dem „QueryGrid“. Letzteres setzt sich zusammen aus einer Schicht für die persistente Datenspeicherung, (Persistent Storage) einem „Hochgeschwindigkeits-Gewebe“ (High-Speed Fabric) und der Orchestrierung über unterschiedliche Analytics-Maschinen (Cross-Engine Analytic Orchestration); dabei kann es sich um eine Engine für SQL, für Graphen oder für Machine Learning handeln. Konkret hat Teradata auch die baldige Integration von TensorFlow und Apache Spark auf dem Zettel. Eine Ebene höher sind die Schnittstellen für unterschiedliche Analytics-Sprachen – SQL, Python oder R – sowie Development-Tools angesiedelt; die reichen derzeit von „Studio“ über „Appcenter“ bis „Jupyter“ und „R-Studio“.

Ursprünglich hatte Teradata lediglich sein Flaggschiff-Produkt „Teradata Warehouse“ und die vor einigen Jahren hinzugekaufte Analytics-Suite „Aster“ miteinander verheiraten wollen. Doch warum nicht auch ein paar Fremde zur Hochzeit einladen? Die Kunden nur mit eigenen Produkten glücklich machen zu wollen, ist ohnehin eine Rechnung, die nicht mehr aufgeht. Die Plattform für die Tool-Integration zu stellen ist da weit mehr als nur die zweitbeste Lösung.

Reema Poddar, Senior Vice President Global Product Development & Technology Innovation, Teradata Corp.
Reema Poddar, Senior Vice President Global Product Development & Technology Innovation, Teradata Corp. (Bild: Karin Quack)

Auf Basis der TAP sollen die Unternehmen ihre individuelle Analytics-Umgebung aufbauen können – mit den Bestandteilen, die den jeweiligen Dateningenieuren und Data Scientists am besten passen. Im Augenblick gibt Teradata noch eine begrenzte Auswahl vor, aber über die Zeit will der Anbieter immer mehr Alternativen einbauen. Und das Fernziel heißt „Bring your own Tool“, wie Reema Poddar versichert. Die Vize-Präsidentin für Produktentwicklung und -innovation ist ein weiteres neues Gesicht im der erweiterten Teradata-Führung. Sie kam vor etwa neun Monaten von GE Digital (General Electric), wo sie das Kernsoftware-Team leitete.

Big Data Analytics as a Service

Für Unternehmen, die eine solche Umgebung nicht selbst aufbauen und betreiben wollen, bietet Teradata seit einem knappen Jahr auch Analytics as a Service an. Das Konzept nennt sich „IntelliCloud“, aber das ist ein etwas irreführender Marketing-Begriff. Genauso gut kann der Kunde die Hard- und Software im eigenen Unternehmen installieren und nur den Betrieb an Teradata auslagern. Entscheidend sind die flexiblen Deployment-Optionen und die „portablen“ Lizenzen.

„In dem Maße, wie sich die IT und das Business annähern, ist den CIOs nicht mehr zuzumuten, sich um den ganzen operativen Overhead zu kümmern“, sagt Poddar: „Wir können sie jetzt von der Sorge um Operations, Services, Infrastruktur-Management und Security befreien.“ Wie Ratzesberger bestätigt, haben vier Fünftel der Teradata-Kunden durchaus ein Interesse an „Analytics as a Service“ – wenn auch nicht jeder von ihnen dabei an die Public Cloud denke.

Ob der Teradata-Service denn auch die unterschiedlichen Sicherheitsstandards in USA und Europa berücksichtige (Stichwort: EU-Datenschutzgrundverordnung)? - „Ja, sicher, wir helfen den Kunden, die GDPR-Bestimmungen einzuhalten“, verspricht Poddar, „Datensicherheit und Privacy sind für uns absolute Top-Prioritäten.“

Nicht nur deshalb sieht Sascha Puljic, Managing Director für Deutschland, die Schweiz sowie Großbritannien und Irland, die Akzeptanz der Cloud-Angebote auch im Herzen Europas optimistisch: „Immer mehr Großunternehmen haben die Scheu vor AWS und Azure verloren – sogar in Deutschland. Wenn jetzt sogar Siemens voll und ganz in die Cloud geht, werden das alle Konzerne tun – die Frage ist nur noch, wann.“

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45280983 / Infrastruktur)