Definition Was ist Generative AI?
Anbieter zum Thema
Generative AI (Artificial Intelligence) ist eine Form von Künstlicher Intelligenz, die auf Basis von Vorgaben und vorhandenen Informationen neue Inhalte generiert. Es kommen KI-Verfahren und -Technologien wie trainierte neuronale Netzwerke, maschinelles Lernen (Deep Learning) und KI-Algorithmen zum Einsatz, um nach Anweisungen Texte, Bilder, Audio- und Videoinhalte, Programmcode, 3D-Modelle und anderes zu erzeugen.

Der deutsche Begriff für Generative AI (Artificial Intelligence) lautet generative Künstliche Intelligenz. Es handelt sich um eine Form von Künstlicher Intelligenz, die in der Lage ist, auf Basis vorhandener Informationen und Vorgaben eines Anwenders neue Inhalte zu generieren. Zu den erzeugten Inhalten zählen zum Beispiel Texte, Bilder, Videos, Audioinhalte, Programmcode, 3D-Modelle, molekulare Strukturen und mehr. Teilweise sind die erstellten Inhalte kaum von denen menschlichen Ursprungs zu unterscheiden. Damit grenzt sich generative KI von diskriminativer KI ab, die darauf ausgelegt ist, Input zu differenzieren und zu klassifizieren, aber keine neuen Inhalte erstellt.
Generative AI lässt sich in unimodale und multimodale AI unterteilen. Während unimodale AI nur eine Art von Datentyp erzeugt oder verarbeitet, ist multimodale Künstliche Intelligenz für verschiedene Datentypen geeignet. Für Generative AI kommen Verfahren und Technologien der Künstlichen Intelligenz wie trainierte neuronale Netzwerke, überwachtes und unüberwachtes maschinelles Lernen (Deep Learning) und verschiedene KI-Algorithmen zum Einsatz.
Bekannte Beispiele für generative Künstliche Intelligenz sind große Sprachmodelle (Large Language Models) für das Erzeugen von Text wie GPT-3 oder GPT-4 und der darauf aufsetzende Chatbot ChatGPT oder Bildgeneratoren wie Stable Diffusion, Midjourney und DALL-E.
Funktionsweise generativer KI und zugrundeliegende Architekturen
Generative Künstliche Intelligenz basiert auf künstlichen neuronalen Netzwerken, die zunächst mit großen Datenmengen trainiert werden. Anschließend erfolgt die Feinabstimmung der sogenannten Foundation-Modelle für bestimmte Aufgaben. Die Modelle sind nach der Feinabstimmung in der Lage, auf Basis der im Training gelernten Informationen neue Inhalte gemäß einer vorgegebenen Aufgabenstellung zu erzeugen.
Für das Training generativer KI werden riesige Datenmengen zum Beispiel in Bild-, Multimedia- oder Textform verwendet, die aus Quellen wie Wikipedia-Artikeln, Nachrichtenseiten, Internetforen, sozialen Netzwerken, Bücher-, Bild- oder Videodatenbanken und anderen Quellen stammen. Das Lernen aus diesen Daten findet in der Regel unüberwacht oder selbstüberwacht statt.
Für generative KI kommen unterschiedliche Architekturen neuronaler Netzwerke zum Einsatz. Häufig werden Modelle mit Transformer-Architektur (in der Kurzform: Transformer) oder Generative Adversarial Networks (GANs) verwendet.
Die Transformer-Architektur ist eine Deep-Learning-Architektur, die aus in Reihe geschalteten Kodierern und Dekodierern mit Self-Attention-Mechanismus (Aufmerksamkeitsmechanismus) besteht. Sie kann Eingangsdaten im erweiterten Kontext der Umgebungsdaten verarbeiten. Im Training lernen die Modelle, wie die einzelnen Teile der Eingabesequenzen (zum Beispiel Wörter oder Token von Textsequenzen) zueinander in Beziehung stehen und welche Bedeutung sie haben. Sie bestimmen Wahrscheinlichkeiten für Zusammenhänge und können in der Inferenzphase auf Basis dieser Wahrscheinlichkeiten neue Ausgabesequenzen erzeugen. Die Transformer-Architektur hat sich im Bereich der großen generativen Sprachmodelle als eine Art Standardarchitektur durchgesetzt. Ein Großteil der aktuellen generativen KI-Sprachmodelle basiert auf der Transformer-Architektur.
Ein Generative Adversarial Network besteht aus zwei Teilen. Einem neuronalen Netzwerk zum Erzeugen von Inhalten (Generator) und einem neuronalen Netzwerk zum Unterscheiden von Inhalten (Diskriminator). Während der Generator darauf trainiert wird, neue, immer realistischere Ausgaben zu erzeugen, lernt der Diskriminator KI-generierte Daten von echten Daten zu unterscheiden. Generator und Diskriminator treten in einer Art Wettbewerb gegeneinander an. Der Generator wird dadurch zur Erzeugung immer realistischerer Daten angespornt.
Einsatzmöglichkeiten generativer Künstlicher Intelligenz
Die Einsatzmöglichkeiten generativer Künstlicher Intelligenz sind vielfältig. Schon heute wird Generative AI in vielen Bereichen und Branchen intensiv genutzt. Typische Einsatzmöglichkeiten von Generative KI sind:
- Erzeugen von Texten zum Beispiel Web-Content, Nachrichtentexte, Produktbeschreibungen oder Marketingtexte
- als intelligenter Chatbot zum Beantworten von Fragen zum Beispiel im Kundensupport
- Zusammenfassen von Textinhalten zum Beispiel für wissenschaftliche Studien
- Erzeugen fotorealistischer Bilder zum Beispiel für Werbezwecke
- Unterstützung beim Programmieren neuer Anwendungen und Erstellen von Programmcode
- Erstellen maschinenbasierter künstlerischer Werke in Bild-, Text-, Audio- oder Videoform und Erzeugen synthetischer Musik
- Erstellen von Produktdesigns
- 3D-Modellierung von Objekten
- Beantworten von Suchanfragen im Internet
- Erzeugen von gesprochenen Texten oder Nachrichten mit Stimmen vorgegebener Sprecher und bekannter Personen oder Schauspieler
- Beantwortung wissenschaftlicher Fragestellungen zum Beispiel in der Medizin
- Erstellen von Architekturobjekten
- personalisierte Werbung
Einige Beispiele für Generative AI
Mittlerweile existiert eine Vielzahl an generativer Künstlicher Intelligenz mit beeindruckenden Fähigkeiten. Dazu gehören große generative Sprachmodelle mit vielen Milliarden Parametern wie MT-NLG (Megatron-Turing Natural Language Generation) von Microsoft und Nvidia, LaMDA (Language Models for Dialog Applications) von Google, PaLM (Pathways Language Model) von Google oder GPT-3 und GPT-4 (Generative Pretrained Transformer 3 und 4) von OpenAI und der darauf aufsetzende Chatbot ChatGPT. GPT-4 ist sogar multimodal und versteht Text- und Bildeingaben. Zu den bekanntesten KI-Bildgeneratoren (Text-to-Image-Generatoren) zählen Stable Diffusion von Stability AI, Midjourney vom gleichnamigen Forschungsinstitut oder DALL-E von OpenAI. Weitere Beispiele für Generative AI sind:
- KI-Musikgeneratoren wie Jukebox von OpenAI, MusicLM von Google oder AI Music Generator von Soundraw
- KI-Videogeneratoren wie Gen1 und Gen2 von Runway Research oder Make-A-Video von Meta
- KI-Stimmgeneratoren wie VALL-E von Microsoft
Grenzen, Risiken und Gefahren
Generative Künstliche Intelligenz hat trotz beeindruckender Fähigkeiten ihre Grenzen und ihr Einsatz ist mit Risiken und Gefahren verbunden. So erzeugt Generative AI auch fehlerhaften Output und neigt bei mangelnder Wissensbasis dazu, Fakten zu erfinden und zu „halluzinieren“. Die Künstliche Intelligenz ist nicht wirklich kreativ, sondern stellt die im Training gelernten Inhalte nur neu zusammen. Ohne entsprechende Trainingsdaten kann sie keine Inhalte generieren. Von der KI erzeugte Inhalte können zudem durch im Trainingsmaterial enthaltenen Bias beeinflusst sein. Die KI lässt sich zum Erzeugen unerwünschter, betrügerischer, diskriminierender oder schädlicher Inhalte wie Deepfakes, Propaganda, Desinformationskampagnen oder für das Programmieren von Schadsoftware verwenden.
Der Einsatz der generativen KI ist zudem mit rechtlichen Fragestellungen, beispielsweise hinsichtlich der Urheberschaft, der Haftung und des Datenschutzes oder der Verwendung von urheberrechtlich geschütztem Material für das Training verbunden. Training und Betrieb großer generativer KI-Modelle erfordern großen technischen Aufwand und viel Energie.
(ID:49436990)