Nachbericht Tibco Analytics Forum 2021 Tibco kündigt Neuerungen bei Integration, Spotfire und Machine Learning an

Autor / Redakteur: Michael Matzer / Nico Litzel

Auf seinem diesjährigen „Tibco Analytics Forum“ (TAF) hat der Analytics- und Integrationsspezialist Tibco mehrere Neuerungen für seine Plattformkomponenten wie etwa „Cloud Integration iPaaS“ und „Data Virtualization“ vorgestellt. Die neuen Funktionen sollen den Kunden helfen, datengestützte Geschäftsprozesse schneller zu konzipieren und bereitzustellen sowie Datenschätze schneller zu finden und ihrer Verwertung zuzuführen.

Firmen zum Thema

Das Logo des Tibco Analytics Forum 2021
Das Logo des Tibco Analytics Forum 2021
(Bild: Tibco)

Das Produktportfolio Tibcos besteht aus drei Sparten: Connect, Predict und Unify. Connect ist die Integrationsplattform, Predict besteht vor allem aus Visual Analytics in Tibco Spotfire und aus TeamStudio für Machine Learning; Unify ist die Datenverwaltungsebene, die mit dem Stammdatenmanagement EBX zusammenspielt. Viele dieser Funktionen stehen schon in der Tibco Cloud bereit, deren Services weltweit in Rechenzentren von AWS und Azure bereitsteht.

Die „Cloud Integration iPaaS“ als Grundlage für „Tibco Connected Intelligence“ ist die Cloud-Variante von Tibco Connect und steht ebenfalls als Service bereit. Dieser Service wurde um Updates für die Prozessautomation und Akzeleratoren erweitert. Denn die Kunden wollen laut Ulrich Hatzinger, Leiter des Presales-Team bei Tibco DACH, nicht nur Backend-Applikationen wie etwa ERP oder CRM mit Datenquellen koppeln, sondern auch datengestützte Prozesse am Frontend automatisieren, ohne Code schreiben zu müssen. Durch den im März eingeführten Support von Cloud-Messaging-Tools wie Apache Kafka und Apache Pulsar können die Daten in Echtzeit aus Ereignissen in Prozesse integriert werden.

Bildergalerie
Bildergalerie mit 5 Bildern

Akzeleratoren

Neue Integrationsakzeleratoren, die der Tibco Integration Marketplace bereitstellt, dienen wie Blaupausen dazu, ganze Prozesse zu automatisieren. Dazu gehören etwa die Kennzeichnung und Nachverfolgung von Lieferungen inklusive Visualisierung und Reaktionen auf Anomalien im Lieferprozess und natürlich alle Arten von digitalen Transaktionen. „Der Integration Marketplace stellt die Akzeleratoren zur Verfügung und eine zentrale Registry verknüpft alle digitalen Assets automatisch miteinander“, erläutert Ulrich Hatzinger den Nutzen dieses Data Hubs.

Am Integration Marketplace können alle Nutzer teilhaben, aber er stellt auch eine Option für Partner und Entwickler dar, mit ihren Akzeleratoren bei den Tibco-Nutzern Umsatz zu machen. Unternehmensentwickler können demnach ebenso wie Mitarbeiter in den Fachbereichen neue, zertifizierte Apps in kürzester Zeit erstellen und bereitstellen.

SmartMapper

Zwei weitere Funktionen sollen diesen Prozess beschleunigen. Die eine ist der schon 2020 angekündigte SmartMapper. Dieses KI-gestützte Tool liefert Machine-Learning-gestützte Empfehlungen, welche Felder in disparaten Datenquellen zu verbinden wären. Diese Tipps stützen sich sowohl auf historische Daten aus der Nutzung der Felder als auch auf stetiges Lernen des ML-Modells.

Die zweite Funktion besteht in der Bereitstellung von kritischen Metriken aus Dashboards. Dazu gehört die Angabe der Nutzungshäufigkeit von APIs sowie die Performance von APIs. Wenn die Schnittstellen nicht genutzt werden oder eine niedrige Leistung aufweisen, behindern sie die Ausführung eines integrierten Geschäftsprozesses. Das kann die Ausnutzung einer kritischen Geschäftschance ebenso verhindern wie das Erlangen wertvoller Erkenntnisse im digitalen Geschäft.

Neues in Tibco Unify

Die Analysten der Gartner Group haben – wieder einmal – herausgefunden, dass Mitarbeiter in Unternehmen „rund 56 Prozent ihrer Zeit mit Produktionsinitiativen verbringen, aber nur 22 Prozent mit Innovation“. Diese 56 Prozent werden nach Erkenntnissen von CCS Insights zu einem großen Teil am Datenzugang gehindert, weil diese entweder schwer zu finden oder in Datensilos verborgen sind. „Dafür stellt Tibco Datenvirtualisierung (TDV) über 300 Konnektoren bereit“, so Hatzinger, „auch zu NoSQL-Datenbanken“. Ein Gutteil der Schwierigkeiten resultiert auch aus der suboptimalen Datenqualität und aus dem Mangel an Kenntnissen beim Personal, das sich in den jeweiligen Fachbereich-„Silos“ abmühe, bewährte und allgemeingültige Praktiken im Umgang mit Daten zu nutzen.

Diesen Nutzern will Tibco nun mit „deutlich verbesserten Self-Service-Benutzeroberflächen“ von Tibco TDV unter die Arme greifen. Damit können auch nicht-technische Anwender sich Daten im Self-Service aus verschiedenen Datenquellen zusammenstellen, in das benötigte Format transformieren und als virtuelle Datenbank oder Webservice bereitstellen. „Diese erzeugen automatisch SQL-Statements, sodass Sachbearbeiter keineswegs SQL-Programmierung beherrschen müssen“, merkt Hatzinger an. Tibco Datenvirtualisierung verfügt nun auch über grafische Editoren, mit denen sich Zusammenhänge in Daten aufspüren lassen, um sie zu analysieren.

Tibco hat zudem auf Basis des Master-Data-Management-Werkzeugs Tibco EBX einen Datenkatalog entwickelt, der eng mit Tibco TDV zusammenarbeitet. Tibco TDV kann aus Datenquellen wie etwa SAP, Salesforce usw. die Metadaten extrahieren und damit den Datenkatalog automatisiert befüllen. Datenkonsumenten haben damit einen zentralen und aktuellen Katalog, in dem alle Daten-Assets des Unternehmens mit Semantik, Beispieldaten und Datenherkunft (Lineage) zu finden sind. Tibco TDV stellt dann den Anwendern einen Zugriff mit einer zentralen Governance zur Verfügung. Es wird laufend an den verfügbaren Konnektoren gearbeitet sowie die Datenverarbeitungsleistung optimiert.

Die Daten können sowohl aus der Cloud wie auch aus lokalen, firmeninternen Quellen stammen. „Hybrid Cloud“ ist also für Tibco kein Fremdwort. Daher verwundert es auch nicht, dass Data Virtualization (TDV) nunmehr Konnektoren zu den wichtigsten Cloud-Datenquellen mitbringt, so etwa AWS S3, Azure Data Lake und Google BigQuery. Im neuesten Release von Tibco EBX hat das Unternehmen die Skalierbarkeit optimiert. Web-Schnittstellen seien ebenso integriert wie Low-Code-Skripte für Prozesse, Regeln und Formulare.

Nutzung von Machine Learning

Die Datenbereitstellung mit TDV kann mithilfe von Machine-Learning-Modellen unterstützt werden. „So können Modelle etwa auch zur Steigerung der Datenqualität verwendet werden.“ Ihr Output können als Input für Trainingsdaten und Algorithmen herangezogen werden.

Tibco stelle mit TeamStudio eine entsprechende Data Science Platform für AIOps bereit. „Unser Ansatz ist der gleiche wie etwa bei AWS SageMaker, nämlich Citizen Data Science.“ Dazu gehöre auch die Integration einer AutoML-Funktion, die Machine Learning Workflows automatisch erstellt. „Unser Hyperconverged-Analytics-Ansatz führt Erkenntnisse aus historischen Daten sowie Echtzeitdaten zusammen, etwa in der Fertigung oder bei Ölpumpen in der Nordsee.“ Gemäß den Qualitätsvorgaben (KPI) werden Soll-Daten erstellt, die ständig mit den Ist-Daten abgeglichen werden, die aus Sensoren usw. kommen.“ So ließen sich Services für Predictive Maintenance erstellen und Aktionen auslösen.

Tibco Spotfire

Auf dem Forum stellte Tibco keine Neuerungen in seinem Visual Analytics Werkzeug Spotfire vor, verwies aber auf kürzlich erfolgte Innovationen wie Mods, ein Cloud-fähiges Framework zum Hinzufügen neuer interaktiver Visualisierungstypen, und gab einen ersten Ausblick auf künftige Erweiterungen, unter anderem bei .NET 5.x, Python und Kubernetes.

(ID:47459016)

Über den Autor