Suchen

Identifikationsdienst für Daten Neue „Shazam“-Trends in der Datenerkennung

| Autor / Redakteur: Dipl. Betriebswirt Otto Geißler / Nico Litzel

Die beliebte Shazam-App erkennt musikalische Darbietungen, Fernsehprogramme sowie Werbung und bietet Usern weiterführende Informationen – nicht zuletzt auch über Augmented-Reality (AR). Doch das Prinzip „Shazamen“ werden wir schon bald für Datenlösungen in Unternehmen erleben.

Firmen zum Thema

„Das ,Shazamen von Daten' ist weniger als Produktankündigung zu verstehen, sondern als langfristiger Trend. Es ist eine Analogie: Shazam und die Datenerkennung. Für uns und andere Anbieter gibt es noch einiges zu tun, um diesen Trend voranzutreiben und Daten so nutzen zu können, wie es Shazam mit Musikstücken kann“, sagt Wolfgang Kobek, SVP EMEA beim Data-Analytics-Spezialisten Qlik.
„Das ,Shazamen von Daten' ist weniger als Produktankündigung zu verstehen, sondern als langfristiger Trend. Es ist eine Analogie: Shazam und die Datenerkennung. Für uns und andere Anbieter gibt es noch einiges zu tun, um diesen Trend voranzutreiben und Daten so nutzen zu können, wie es Shazam mit Musikstücken kann“, sagt Wolfgang Kobek, SVP EMEA beim Data-Analytics-Spezialisten Qlik.
(Bild: Qlik )

Wer kennt das nicht? Man hört ein Musikstück und möchte sofort den Titel und Interpreten wissen. Mit der Handy-App Shazam geht das ganz schnell: Shazam öffnen und nach wenigen Sekunden bietet Shazam das Ergebnis. Das funktioniert selbst in Umgebungen mit lauter Geräuschkulisse erstaunlich gut. Wobei die Musikerkennung für den Anbieter heute nicht mehr so sehr im Vordergrund steht wie in den ersten Jahren. Stattdessen entwickelt sich Shazam zu einem Begleitmedium des Fernsehens sowie für weitere mediale Einsatzformen. Das heißt, wenn eine TV-Sendung verfolgt und die App aktiviert wird, erkennt sie einen mit Shazam-Logo versehenen TV-Spot anhand eines Audio-Signals und zeigt dann zusätzliche Inhalte des jeweiligen Anbieters an.

Augmented-Reality-ready

Doch nicht nur das: Mit der in der Android- und iOS-App integrierten Augmented-Reality-Funktion können Unternehmen Produkte, Verpackungen, den Verkaufsraum oder Werbematerialien zum Leben erwecken. Dafür muss der User nur einen vom Werbungtreibenden erstellten „Shazam Code“ mit der App-Kamera einscannen. Dann schaltet er eine sogenannte „Branding-Experience“ frei und kommt direkt auf eine iFrame-Lösung, die mit individuellem und frei gestaltbaren Content des Unternehmens angereichert ist oder vorhandene Assets benutzt.

Kurz danach sieht der User Produkt-Visualisierungen, Mini-Games, 3D-Animationen, 360-Grad-Videos etc. Auf diese Weise ähnelt „Shazam Visual“ anderen Apps, die sich ebenfalls mit QR-Codes scannen lassen. Dazu muss der User sein Handy nicht mehr vor den Strichcode halten, denn das Objekt wird sogar von der Ferne erkannt. Das bedeutet, dass diese Anwendung auch besonders für die Außenwerbung attraktiv ist, denn damit lassen sich Kampagnen auf öffentlichen Plakaten in den Bereich eines Handy-Screens verschieben.

KI als Wegbereiter

Gerade für einen solchen Umgang mit Daten lässt sich gegenwärtig ein Haupttrend ausmachen. So wird es in Analogie zu Shazam bzw. Künstlicher Intelligenz (KI) bald möglich sein, das Umfeld von Daten näher in Augenschein zu nehmen. Dabei geht es um die Frage: Woher stammen die Daten, wer hat sie verwendet, welche Qualität haben sie und wie haben sie sich kürzlich verändert?

„Das Thema Künstliche Intelligenz wird derzeit in einem rasanten Tempo vorangetrieben. So werden im Zusammenhang mit KI schon bald Dienste auf Basis von Daten entwickelt und angeboten werden können, die mit Shazam vergleichbar sind“, erklärt Wolfgang Kobek, SVP EMEA beim Data-Analytics-Spezialisten Qlik. „Aktuell ist es beispielsweise in nahezu allen BI-Lösungen bereits Standard, dass KI nicht erst zum Einsatz kommt, wenn Dashboards erstellt oder Charts generiert werden.“

Das heißt, die KI kommt bereits an dem Punkt zum Einsatz, an dem die Daten und deren Datenquellen identifiziert werden. Dabei geht es um folgende Kriterien:

  • Datenqualität, Datenaktualität und Popularität.
  • Data Lineage, d. h., die Nachverfolgbarkeit der Datenkette von der ersten Datenquelle über die verschiedenen Aufbereitungsstufen bis hin zur Visualisierung und Analyse.
  • Einsicht in die Metadaten bezüglich Zugriffsrechte auf verschiedene Daten, Datenquellen und Daten-Artefakte.
  • Micro-Insights bzw. intelligente Previews bezüglich der Verteilung der Daten und deren Werte in den verschiedenen Feldern.

Können all diese Informationen zentral eingesehen werden, ist es nicht mehr wichtig, jede separate Datenquelle wie beispielsweise einen SQL-Server, ein Snowflake-Data-Warehouse oder einer Oracle-Datenbank bedienen zu können. „Genau an dieser Stelle setzt unsere Cataloging-Strategie als eine Stufe vor der eigentlichen Analyse an“, so Kobek. „Daten können gefunden, Metadaten eingesehen und auch schon intelligent aufbereitet werden.“

Hier zeigt sich für Kobek die Analogie zu Shazam. Denn dieser Dienst ist nichts anderes ist als ein großer „Katalog von Songs“, die mithilfe der KI automatisch erkannt werden können. Eine „Shazam-App“ zeigt dem Nutzer dann aus dem Katalog die entsprechenden Infos – inklusive Liedtexte, Künstler usw. an. „Allerdings stehen uns gegenwärtig noch nicht alle Komponenten zur Verfügung, um die Datenerkennung vollständig gemäß Shazam zu machen“, so Kobek. „An einer automatischen Erkennung von Daten mithilfe von KI müssen wir noch arbeiten.“

Beginn bahnbrechender Innovationen

Wie das aussehen könnte, lässt sich beispielsweise an der Suche nach Daten zur Produktionsqualität erklären. „Sofern die Datenquellen mit Metadaten bzw. bestimmten Beschreibungen oder Tags versehen sind, können wir die gewünschten Informationen sofort finden“, unterstreicht Kobek. „Sind allerdings nur Rohdaten ohne Zusatzinformationen bekannt, wäre eine Voranalyse nötig.“

Dies entspräche dem „Shazamen“. Das heißt, die KI „schaut“ in die Daten hinein und stellt von selbst fest, dass Daten aufgrund typischer Wertebereiche nach Sensordaten aus der Produktion aussehen und folglich etwas über deren Qualität aussagen können. Diese Daten könnten dann von der KI als Suchergebnis vorgeschlagen werden. „Genau daran arbeiten wir, dass Metadaten nicht mehr händisch, sondern automatisiert bzw. durch KI erzeugt werden können“, so Kobek. „Damit kommen wir schon sehr nahe an Shazam heran.“

Damit verkürzt sich auch die Zeitspanne von „raw to insights“ - also von den Rohdaten zu den Einsichten und den folgenden Maßnahmen. Zudem können die Daten größeren User-Gruppen verfügbar gemacht werden. Je mehr eine Automatik wie Shazam unterstützend eingreift, desto mehr erhöhen sich die beiden Werte „Zeitverkürzung“ und „Steigerung der User-Adaption“.

Alternative Eingabemethoden

„Diese Entwicklungen trifft man bereits in anderen Schnittstellen bzw. Mensch-Maschine-Interfaces an, bei der KI an einer höheren Stelle angesiedelt wurde“, so Kobek. „Anstatt proaktiv ein Dashboard per Klick am Bildschirm öffnen zu müssen, um Daten über Filter ,zusammenzuklicken‘, reden wir mit einem Chatbot. Diese Möglichkeit bieten wir bereits. Auch dies hilft, den Nutzungsgrad zu steigern und weitere User zu erschließen. Es ist im Grunde das gleiche Ziel und kommt in gewisser Weise auch schon an Shazam heran, da wir über Mikrofon und nicht über Tastatur agieren.“

Dahinter steht die Technologie des Natural Language Processing (NLP) und Natural Language Understanding (NLU). Diese Techniken sind in „Qlik Insight Bots“ oder „Qlik Insight Advisor“ bereits realisiert. Der User kann hierzu Sätze in gesprochener Sprache eingeben wie zum Beispiel: Zeige mir Umsätze pro Land je Produktkategorie für 2019.“ Anschließend werden automatisch die entsprechenden Diagrammvorschläge erzeugt, die der User auf sein Dashboard übernehmen kann.

Er kann ebenfalls in Chatverläufen mit den Bots in Teams, Skype oder in Slack sprechen, um sich Diagramme anzeigen zu lassen. Er kann Alerts setzen, die ihn automatisch informieren, wenn eine Kennzahl über- oder unterschritten wird, oder er kann die Information automatisch an Kollegen per E-Mail oder ähnliches weiterleiten lassen.

Eine weitere Form der alternativen Eingabemethode ist Augmented Reality (AR). Diese Methode ist schon lange aus dem medizinischen oder Wartungsbereich bekannt. „Da Qlik sehr stark auf offene Schnittstellen setzt, können wir solche Lösungen von unseren Partnern sehr gut integrieren und umsetzen“, so Kobek. „Der User agiert also nicht mehr mit Maus und Tastatur, sondern mit seiner Hand, die sich im Raum bewegt oder mit einer Kopfbewegung oder mit einem Augmented Reality-Helm bzw. einer VR-Brille etc.“

Auf der technischen Seite macht es die Kombination aus APIs, KI und verbesserter Datenkompetenz (Data Literacy) der User sowie den entsprechenden Interface Techniken wie VR-Brillen und Chat-Plattformen möglich, diese neuartige Form der Interaktion zu leben. „Dazu gehört auch die Interaktion über Touch Devices. Vom Meeting Room, in dem an großen Panels Dinge mit der Hand bewegt werden bis hin zum kleinen Smartphone“, so Kobek. „Auch diese Interaktionen werden von Qlik unterstützt.“

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46583293)

Über den Autor