Definition Was ist das Multitask Unified Model (MUM)?

Das Multitask Unified Model (MUM) ist eine neue Technologie für die Google-Suche. Sie arbeitet KI-gestützt und ist in der Lage, komplexe Suchanfragen zu verstehen und zu beantworten. MUM ist multimodal und bezieht Informationen in verschiedenen Sprachen und unterschiedlichen Formaten in die Beantwortung der Fragen mit ein. Sie versteht neben Text auch Bilder, Videos und Audiodateien. Das Update wird für Ende 2021 beziehungsweise Anfang 2022 erwartet.

Anbieter zum Thema

(Bild: © aga7ta - stock.adobe.com)

MUM ist das Akronym für Multitask Unified Model. Es handelt sich beim Multitask Unified Model um eine von Google im Mai 2021 auf der Entwicklerkonferenz Google I/O angekündigte neue Technologie für die Google-Suche. Sie soll den 2019 eingeführten BERT-Algorithmus (Bidirectional Encoder Representations from Transformers) ablösen und für bessere Ergebnisse bei der Google-Suche sorgen. Das Multitask Unified Model arbeitet mit Künstlicher Intelligenz (KI) und kann Sprache verstehen und generieren. Mithilfe von MUM lassen sich komplexe Suchanfragen erfassen, verstehen und beantworten. Fragen werden expertenähnlich beantwortet. Die Zahl der durch den Suchenden zu stellenden Fragen wird reduziert.

MUM bezieht Inhalte und Informationen in 75 verschiedenen Sprachen in die Beantwortung der Fragen mit ein. Zudem ist das Multitask Unified Model multimodal und in der Lage, Bilder und Video- oder Audiodateien zu verstehen. Dadurch wird es möglich, innerhalb einer Suchanfrage beispielsweise Bild und Text zu kombinieren. Laut Aussage von Google ist das Machine-Learning-Modell für MUM tausendmal leistungsfähiger als das Vorgängermodell und kann unterschiedlichen Content in Beziehung setzen. Dadurch entwickelt MUM ein wesentlich besseres Verständnis für Informationen und das vorhandene Wissen. Ein exakter Einführungstermin für das Multitask Unified Model wurde auf der Google I/O Entwicklerkonferenz nicht genannt. Es wird erwartet, dass die Änderungen nach und nach ab dem vierten Quartal 2021 und dem ersten Quartal 2022 in die Google-Suche Einzug halten. MUM-basierte Neuerungen werden zeitnah auch bei Google Lens und im Shopping-Bereich erwartet.

Ziele des BERT-Nachfolgers Multitask Unified Model

Aktuell beantwortet die Google-Suche nur relativ einfache Fragestellungen. Um komplexe Sachverhalte und Fragestellungen über die Google-Suche beantwortet zu bekommen, müssen Anwender in der Regel mehrere Fragen stellen und sich bis zu den gewünschten Antworten vorarbeiten. Google verfolgt mit der Ablösung von BERT und der Einführung von MUM die Zielsetzung, komplexe Fragestellungen expertenähnlich direkt zu beantworten. Das Multitask Unified Model soll den Kontext der Fragen besser verstehen, verschiedene Aspekte berücksichtigen und unterschiedliche Inhalte in vielen verschiedenen Sprachen und Formaten in die Beantwortung einer Frage miteinbeziehen. Anwender gelangen dank MUM mit weniger Suchanfragen zu den gewünschten Antworten.

Die Funktionsweise des Multitask Unified Models

Google kombiniert für das Multitask Unified Model verschiedene Algorithmen und Technologien aus dem Bereich der Künstlichen Intelligenz und des Machine Learnings. Wie das Vorgängermodell BERT basiert auch MUM auf einer Transformer-Architektur. MUM verwendet das Text-to-Text Transfer Transformer Framework (T5). Das Deep-Learning-Modell soll laut Aussage von Google circa tausendmal leistungsfähiger sein als das Vorgängermodell. Es ist für 75 verschiedene Sprachen trainiert. MUM lernt von Informationsquellen anderer Sprachen – unabhängig von der Sprache, in der Fragen gestellt werden. Das Wissen wird über die in MUM einbezogenen Sprachen transformiert.

Um Informationen vielschichtiger zu verarbeiten, verfügt MUM zudem über fortgeschrittene Multitasking-Fähigkeiten. Das Multitask Unified Model versteht die Sprache nicht nur, sondern kann sie auch generieren. Darüber hinaus ist MUM multimodal. Multimodal bedeutet, dass MUM Informationen in unterschiedlichen Formaten wie in Bildern, Videos oder Audiodateien versteht und einbezieht. Das erlaubt es dem Anwender, innerhalb einer Suchanfrage Bild und Text zu kombinieren. Beispielsweise kann der Anwender sich auf eine Information in einem Bild beziehen. Eine Frage zu einem vorgegebenen Bild einer Jacke mit Muster könnte also lauten: „Gibt es weitere Kleidung mit dem gleichen Muster?“ Ein weiteres Beispiel für eine multimodale Anwendung könnte folgendermaßen aussehen: Der Anwender fotografiert ein defektes Motorteil eines Autos und fragt: „Wie wird das repariert?“ Google liefert anschließend passende Anleitungen, Videos und Kaufvorschläge für Ersatzteile.

Vorteile der Google-Suche mit dem Multitask Unified Model

Für die Google-Suche bietet das Multitask Unified Model zahlreiche Vorteile wie:

  • Der Anwender erhält Antworten auf komplexe Fragestellungen und muss weniger Einzelfragen stellen.
  • Die Google Suche versteht verschiedene Aspekte der Frage und kann sie für eine Antwort auf Experten-Level in Beziehung setzen.
  • Für die Antworten wird das Wissen in vielen verschiedenen Sprachen miteinbezogen, unabhängig von der Sprache, in der die Frage gestellt ist.
  • Die Google Suche wird multimodal (Informationen in verschiedenen Formaten wie Bilder oder Video- und Audiodateien werden verstanden).
  • Text und Bildinformationen lassen sich für Fragestellungen in der Google-Suche kombinieren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47847739)