Fokus auf Artificial Intelligence

Teradata positioniert sich als Analytics-Integrator

| Autor / Redakteur: Karin Johanna Quack / Nico Litzel

Rund 4.000 Datenspezialisten konnte Teradata im kalifornischen Anaheim auf der Konferenz „Teradata Partners“ begrüßen.
Rund 4.000 Datenspezialisten konnte Teradata im kalifornischen Anaheim auf der Konferenz „Teradata Partners“ begrüßen. (Bild: Karin Quack)

Nach dem Experiment mit Marketing-Tools aus der Cloud und der erfolgreichen Integration des Beratungsunternehmens „Think Big Analytics“ sucht Teradata nun seine Rolle als Architekt und Baustofflieferant für Analytics, Machine Learning und Neuronale Netze.

Hätte man es nicht besser gewusst, so hätte man denken können, in eine Versicherungskonferenz geraten zu sein: „Angesichts der schwer vorhersehbaren Veränderungen, die vor uns liegen, wollen wir unseren Kunden helfen, die Risiken ihrer Entscheidungen zu minimieren“, versprach Oliver Ratzesberger, Executive Vice President und Chief Product Officer des Analytics-Spezialisten Teradata auf dessen „Partners“-Konferenz. Zu der fanden sich in diesem Jahr weit mehr als 4.000 Datenspezialisten im kalifornischen Anaheim ein. Das Motto der Konferenz lautete: „The Edge of Next“, frei übersetzt etwa: „Die Schwelle zum Unbekannten“.

Victor L. Lund, President und Chief Executive Officer
Victor L. Lund, President und Chief Executive Officer (Bild: Teradata)

„Die Fortschritte im Analytics-Bereich bewegen sich nicht linear, sondern exponentiell“, führte Teradata-CEO Victor Lund in seiner Keynote-Ansprache aus. Auf dem Markt zeige sich eine wuchernde Zunahme („Proliferation“) von Plattformen, Entwicklungssprachen, Tools und Deployment-Plattformen. Deshalb biete Teradata existierenden wie potenziellen Kunden an: „Wir helfen Ihnen, Ihren Weg da hindurch zu finden – mit dem geringstmöglichen Risiko.“

Risikominimierung – das gilt für Teradata auch und besonders im Hinblick auf die technischen Entscheidungen der Kunden. Angesichts der Vielzahl von Analytics-Möglichkeiten dürfte es den Anwendern tatsächlich schwerfallen, sich heute längerfristig auf eine Technologie festzulegen. Teradata ermutigt seine Kunden nun, einfach irgendwo anzufangen und dann auf die Flexibilität und Skalierbarkeit der eigenen Umgebung zu vertrauen. In Anaheim stellte das Unternehmen dazu ein mehrschichtiges Integrationskonzept vor

Das Konzept zielt auf Flexibilität und Skalierbarkeit

„Teradata Everywhere“, so heißt das Konzept. Wie Ratzesberger erläuterte, zielt es darauf ab, den Kunden beim Aufbau einer offenen, flexiblen und skalierbaren Analytics-Umgebung zu unterstützen. Einer Umgebung, in der sie weitgehend frei in der Wahl ihrer Sprache, Engine und Deployment-Plattform sind. Adaptoren für Fremdprodukte sind darin ebenfalls vorgesehen.

Die lange Zeit gepflegte Abneigung gegen die Cloud hat Teradata inzwischen gründlich überwunden. Nicht nur werden die eigenen Produkte über Amazon Web Services (AWS) und demnächst auch auf Microsofts Azure angeboten. Vielmehr offeriert Teradata sogar den Remote-Betrieb von datengetriebenen Anwendungen auf seinen eigenen IntelliFlex-Appliances. Dass die Maschinen physisch in der Nähe von Frankfurt am Main stehen, dürfte dem Sicherheitsbewusstsein deutscher Anwenderunternehmen entgegenkommen.

Den Ausflug in die Welt der Marketing-Tools aus der Cloud hat Teradata allerdings wieder beendet – und zwar schon im vergangenen Jahr. Ob es an der übermächtigen Konkurrenz durch SAP (mit „Hybris“) lag oder an der Unvereinbarkeit der Unternehmenskulturen zwischen Teradata und den kleineren Softwareschmieden, ist nicht ganz klar. Fakt ist, dass Produkte wie Aprimo, Appoxee, Argyle, eCircle und FLXone nicht mehr zum Teradata-Portfolio gehören.

Datenbank und Analytics-Umgebung verschmolzen

Umso stärker konzentriert sich Teradata seither auf seine Kernkompetenz. Und die sieht das Topmanagement des Anbieters eindeutig in der Analyse großer und heterogener Datenmengen. Das technische Kernstück des „Everywhere“-Konzepts ist die „Teradata Analytics Platform“. Unter diesem Begriff wurden die Teradata-Datenbank und die Analytics-Umgebung „Aster“ miteinander verschmolzen.

Innerhalb dieser Umgebung könnten Data Scientists – mit einem durchgängigen Analyse-Workflow – ihre jeweils bevorzugten Sprache oder Engine nutzen und „nahtlos“ auf unterschiedliche Datentypen anwenden, versprach der Anbieter. Das Ganze sei nicht nur skalierbar, sondern auch noch schnell, denn die Analyse passiere vor Ort, ganz nah an den Daten, die deshalb auch nicht umziehen müssten.

Übrigens brauche sich der Anwender auch keinen Gedanken um die Speicherung der Daten zu machen, so Teradata weiter; diese Aufgabe übernehme die Plattform für ihn. Wenn das funktioniert, wie angekündigt, können die Datenspezialisten viel Zeit sparen, die sie sonst für die Aufbereitung der Daten bräuchten – Zeit, die ihnen dann für die eigentliche Analyse zur Verfügung stünde.

Hilfe zum Aufbau eines Ökosystems

Laut Teradata können die Nutzer neue Komponenten zu der Umgebung hinzufügen, ohne dass sie deswegen zusätzliche Lizenzen erwerben müssten – gesetzt den Fall, es handelt sich nicht um kommerzielle Produkte von Drittanbietern. Alle verfügbaren wie auch künftige Teradata-Produkte seien durch die einmal abgeschlossene „T-Core“-Lizenz abgedeckt. Diesen Ansatz zum Aufbau eines Analytics-„Ökosystems“ hat Teradata mit dem Begriff „IntelliSphere“ belegt.

Üblicherweise hinkt die Realität einer solchen Ankündigung immer ein wenig hinterher. Die integrierte Analytics-Plattform soll aber noch in diesem Jahr allgemein verfügbar sein – mit Unterstützung für Python, R sowie die Abfragesprache des Teradata-Partners SAS und SQL. Für die erste Hälfte des kommenden Jahres stellt der Anbieter dann eine erweiterte Version mit den Anlytics-Engines Sparc, TensorFlow, Gluon und Theano in Aussicht.

Mit der neuen Umgebung erhält der Data Scientist Zugang zu einer ganzen Reihe von Analysefunktionen: Attribution, Pfadanalyse, Zeitreihen sowie statistische, textorientierte und Machine-Learning-Algorithmen. „Lernende“ Anwendungen – beziehungsweise die Künstliche Intelligenz in ihren unterschiedlichen Spielarten – waren auf der Konferenz das ganz große Thema. Wie Europachef Peter Mikkelsen konstatierte, will sich Teradata den augenblicklichen Hype um dieses Thema zunutze machen: „Wir wären ja dumm, wenn wir das nicht täten!“ Folglich positioniert sich das Unternehmen mit seinen Produkten als Basis für Anwendungen aus dem AI-Umfeld.

Schneller zur AI-Anwendung

Das umso mehr, als Teradata neben Analytics-Produkten nun auch Beratungskapazität auf diesem Feld vorweisen kann: Der vor zwei Jahren hinzugekaufte Consulting-Bereich Think Big Analytics wächst rasant und spezialisiert sich zunehmend auf den Themenkomplex Artificial Intelligence. Nach Angaben von Rick Farnell, Senior Vice President Think Big Analytics, haben 30 bis 40 Prozent seiner mittlerweile rund 1.000 Mitarbeiter einen „starken Fokus auf AI und Data Science“.

Die Anwenderunternehmen hingegen leiden unter einem Mangel an qualifizierten Datenspezialisten, so ergab eine von Teradata beauftragte Studie unter 260 IT- und Business-Entscheidern („State of Artificial Intelligence for Enterprises“, ermittelt von Vanson Bourne). Mehr als ein Drittel der Befragten sprach von einem spürbaren Bedarf an geeigneten Mitarbeitern. Das heißt im Umkehrschluss: Diese Kundenunternehmen brauchen externe Beratung oder technische Services, die sie weniger abhängig von internen Talenten machen.

Derartige Hilfsmittel entwickelt Think Big Analytics in Form von „Beschleunigern“ (Accelerators). Dabei handelt es sich jeweils um ein Paket aus Best Practices, Design-Mustern und ausführbarem Code, das für ein bestimmtes Anwendungs-Szenario vorgefertigt ist und sich vom Anwender für die schnelle Einführung einer AI-Anwendung nutzen lässt. Wenn es nach Farnell geht, sollen seine Mitarbeiter eine ganze Menge dieser Accelerators entwickeln.

Bislang gibt es allerdings erst zwei. Der eine („AnalyticOps“) dient dazu, Deep-Learning-Modelle zu erstellen, zu bewerten, einzuführen und zu steuern; er ist bereits allgemein verfügbar. Im ersten Quartal 2018 folgt der andere („Financial Crimes“); er soll den Kunden, zum Beispiel Banken, helfen, mithilfe neuronaler Netze Finanztransaktionen auf unterschiedlichen Kanälen zu überwachen und Betrugsmuster zu erkennen.

Danske Bank kombiniert regelbasiert und neuronal

Einen solchen Beschleuniger hätte die Danske Bank sicher brauchen können. Doch das dänische Finanzunternehmen hat seine „Fraud-Detection“-Anwendung aus eigener Kraft entwickelt – wenn auch mithilfe von Think Big Analytics. Wie Nadeem Gulzar, Head of Advanced Analytics bei der Danske Bank, in seiner viel beachteten Präsentation ausführte, ging das schon in Ordnung, weil der Finanzdienstleister gern die alleinige Kontrolle über das System behalten wollte.

Die Danske Bank zielte mit der Anwendung darauf ab, mögliche Fälle von Finanzdiebstahl, beispielsweise durch Datenklau oder Phishing, möglichst in Echtzeit zu entdecken und zu verifizieren. Vor allem die zahlreichen Fälle von Fehlalarm („False Positives“) machten dem Geldhaus zu schaffen: Sie zu überprüfen kostet oft mehr als sie im Zweifelsfall Schaden anrichten würden. Und ihre Zahl ist gewaltig: Auf einen echten Fall kommen, so Gulzar, rund 100.000 falsche. Mit einer Kombination aus regelbasiertem System und visualisierbarer Deep-Learning-Applikation gelang es der Bank, die zeitweilig 1.000 bis 1.200 False Positives pro Tag auf 700 bis 800 zu senken.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44981373 / Analytics)