Google Cloud im Forschungseinsatz Wie Sprachroboter zu echten Dialogpartnern werden

Von Martin Hensel

Der Lehrstuhl für Dialog Systems and Machine Learning der Heinrich-Heine-Universität Düsseldorf forscht an NLP-Systemen („Natural Language Processing“), die über die beschränkten Fähigkeiten reiner Sprachroboter hinausgehen. Dazu nutzen die Wissenschaftler auch Google Cloud.

Anbieter zum Thema

Die Heinrich-Heine-Universität Düsseldorf forscht an fortschrittlichen NLP-Technologien.
Die Heinrich-Heine-Universität Düsseldorf forscht an fortschrittlichen NLP-Technologien.
(Bild: Willi Heidelbach / Pixabay )

Die Nachfrage nach Anwendungen zur Verarbeitung natürlichsprachiger Informationen steigt stetig. Der NLP-Markt boomt. Aktuelle Systeme stoßen dennoch schnell an ihre Grenzen: Kommunikation per Sprache ist mehr als nur der Austausch von Informationen. Unter anderem werden auch Gefühlslagen an das Gegenüber vermittelt. Derartige Befindlichkeiten können aktuelle NLP-Lösungen noch nicht entziffern. Damit das nicht so bleibt, forscht der Lehrstuhl für Dialog Systems and Machine Learning der Heinrich-Heine-Universität Düsseldorf an Fortschritten in diesem Bereich.

„Wir arbeiten an der nächsten Generation von Dialogsystemen, die gewissermaßen einfühlsamer sind und so besser eine menschliche Interaktion simulieren können“, erklärt die Leiterin des Lehrstuhls Professor Milica Gašić. Die KI solle dabei ihr Wissen dynamisch erweitern, flexibel auf die Bedürfnisse der Nutzer reagieren sowie Verhalten und Stimmung verstehen und darauf reagieren können. Um die nötigen Machine-Learning-Prozesse zu beschleunigen und Ausfallzeiten zu vermeiden, setzt das Team auf Expertise und Lösungen von Google Cloud. Dies umfasst nicht nur Tools sowie flexible Einsatz- und Skalierungsmöglichkeiten, sondern war auch die wirtschaftlichste Option.

Maßgeschneiderte VMs

Für die Forschung nutzen die Wissenschaftler eigene virtuelle Maschinen (VMs). Experimente lassen sich so flexibel starten, beenden und überwachen. Im Zuge der Entwicklung von Machine-Learning-Algorithmen werden Funktionstests durchgeführt. Dabei stellt Compute Engine sicher, dass sie die Ergebnisse schnell erhalten. Per Rastersuche können die Forscher zudem ideale Parameter für jede ihrer Anwendungen erstellen. „Dank Compute Engine laufen mehrere VMs parallel. Das unterstützt uns bei der Feinabstimmung und Optimierung unserer Prozesse“, verdeutlicht Postdoktorand Michael Heck.

Das Team verwendet zudem Grafikprozessoren (GPUs) von Google Cloud zur kosteneffizienten Datenverwaltung. So kommen etwa V100-GPUs bei zeitkritischen Experimenten zur Simulation von Anwendungsszenarien zum Einsatz, um mehrere Datensätze gleichzeitig zu verarbeiten. Für jedes Szenario wird dabei eine Dialogstrategie trainiert. Durch den Zugriff auf über 40 GPUs läuft eine derartige Simulation in rund zehn Stunden ab, statt bis zu eine Woche zu dauern. Ein Teil der Forschungsarbeit wird dennoch auf lokalen Systemen durchgeführt – ein Wechsel in die Cloud ist aber jederzeit möglich.

„In den Anfängen unserer Forschungsarbeit oder wenn wir nicht unter Zeitdruck stehen, beginnen wir in der Regel mit der Arbeit auf einem lokalen Rechner, zum Beispiel mit dem Debuggen von Code. Wenn wir in die Phase kommen, in der wir viele Auswertungen gleichzeitig durchführen müssen, wechseln wir oft in die Google Cloud“, so Gašić. Dies sei vor allem kurz vor Abgabeterminen oder während Überarbeitungsphasen von Publikationen relevant, wo zusätzliche Experimente innerhalb kurzer Zeit durchgeführt werden müssen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:48012291)