Die Entwicklung in und rund um KI läuft momentan so schnell ab, dass es schwierig ist, Prognosen abzugeben und langfristig zu planen. Woher kommt dieses irre Tempo? Wie reagiert das Ökosystem darauf? Und was lässt sich überhaupt über die KI-Zukunft mit Bestimmtheit sagen?
Der Autor: Michael Hunger ist Head of Product Innovation & Developer Product Strategy bei Neo4j
(Bild: Michael Hunger)
Es gibt viele Superlative, um die Flugbahn, die sich beim Thema KI seit Anfang 2023 abzeichnet, zu beschreiben. Gleichzeitig gibt es in den letzten drei Jahrzehnten nur eine Handvoll an Innovationen, die mit so großer Wucht in die IT-Welt eingeschlagen sind und ein ähnliches starkes Gravitationsfeld bilden. Der kurze Zeitrahmen dieser Entwicklung bleibt ein absolutes Novum: Immerhin sind seit der Veröffentlichung von ChatGPT gerade einmal etwas mehr als zwölf Monate vergangen.
Massive Investition als Brandbeschleuniger
Nirgendwo zeigt sich die KI-Dynamik dabei so konkret wie an den massiven Investitionen, die Konzerne weltweit in die Entwicklung und Implementierung von KI-Lösungen stecken. Laut einem Report von Gartner vom August 2023 sollen bis Ende 2026 mehr als zehn Milliarden US-Dollar in KI-Start-ups fließen, die Foundation Models (KI-Basismodelle) entwickeln.
Angesichts täglich neuer Rekordsummen fallen solche Prognosen bereits jetzt hinter der Realität zurück. Bestes Beispiel ist das KI-Start-up Anthropic: Bereits im September 2023 investierte Amazon vier Milliarden US-Dollar in den OpenAI-Konkurrenten. Google kündigte einen Monat darauf eine Beteiligung von über zwei Milliarden US-Dollar an. Fakt ist: Keiner will den Anschluss verlieren. Das Geld fließt (noch) in Strömen, was den KI-Hype weiter befeuert.
Das Wettrennen um KI-Ressourcen und Know-how, das sich die großen Tech-Konzerne liefern, hat einen guten Grund. Denn die Kapazitäten, die sowohl für das Training von Machine Learning (ML) und Large Language Models (LLMs) als auch für den laufenden Betrieb von KI-Anwendungen im Enterprise-Umfeld nötig sind, sind nur begrenzt verfügbar. Auch die Auftragsbücher in den Fertigungsanlagen der Chip-Hersteller sind voll und über Jahre hinweg ausgebucht. Nvidia kann sich vor Nachfrage kaum retten. Die großen Tech-Konzerne steigen daher gleich selbst ins Halbleiter-Geschäft ein, um leistungsfähige KI-Chips herzustellen. Microsoft zum Beispiel plant Berichten zufolge rund 50 Milliarden US-Dollar pro Jahr für Rechenzentren und KI Infrastruktur zu investieren (einschließlich der darin befindlichen Hardware). Und auch Meta arbeitet an einem KI-Supercomputer mit eigenen Chips.
Schneeballeffekt bei KI-Tools
Neben der Dynamik am Markt treibt auch die Künstliche Intelligenz als Technologie das Tempo weiter an. Oder anders gesagt: Mit und durch KI lassen sich KI-Lösungen schneller entwickeln und auf den Weg bringen. Statt beispielsweise Milliarden von Parametern in KI-Modellen zu überprüfen und anzupassen, greifen Entwickler auf integrierte KI-Algorithmen zurück, um Stellschrauben im Code zu identifizieren. Und am Halbleitermarkt soll zukünftig die Microsoft-KI gleich selbst die Microsofts KI-Chips designen. Das ScienceGPT-Projekt plant in den USA mit Regierungsunterstützung Modelle mit Billionen von Parametern für wissenschaftliche Anwendungen zu trainieren.
Vollkommen losgelöst arbeitet die KI dabei noch nicht. Die Zusammenarbeit von KI und Mensch lässt sich vielmehr als weiterer Treiber sehen. Dort, wo extrem zeitaufwendige Aufgaben anfallen, übernimmt die KI. Für die kreativen Prompts, für Variabilität und Vielseitigkeit sowie für die finalen Entscheidungen bleibt der Mensch gefragt. Das ist nicht unbedingt neu. Allerdings hat sich der Zugang zu KI-Lösungen massiv vereinfacht. Noch vor einem Jahr war die Entwicklung und Nutzung von ML, LLMs und Neuronale Netzwerken in der Regel Data Scientists vorbehalten. Mittlerweile ist KI quasi ein Allgemeingut. Über APIs steht die Intelligenz nicht nur jedem Softwareentwickler zur Verfügung, sondern über geeignete Oberflächen theoretisch jedem Anwender – zum Beispiel möglich mit GTPs von OpenAI, Gen App Builder von GCP oder PartyRock und Amazon Q von AWS.
Die Demokratisierung von Daten
Wenn daher überhaupt von einem sicheren KI-Trend die Rede sein kann, dann ist es Data Democratization. Gemeint ist, dass mehr und mehr Menschen einen sehr einfachen und schnellen Zugang zu relevanten Daten erhalten. Unternehmen können spezifische LLMs auf Basis ihrer Enterprise-Daten aufbauen. Mitarbeiter, Partner und Kunden können über natürlichsprachige Oberflächen (LUI, NLUI) mit der KI über diese Daten interagieren. Das erfolgt über die Umsetzung der Nutzeranfragen in Datenbankabfragen entweder direkt in der Abfragesprache oder über Vektorsuche. Die Ergebnisse werden dann als relevanter Kontext zusammen mit der Originalfrage dem LLM zur Generierung einer natürlichsprachigen Antwort übermittelt. Das Verfahren heißt Retrieval Augmented Generation (RAG). So müssen Entwickler nicht mehr spezifische Anwendungen für die Abfrage von Daten bereitstellen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Grundvoraussetzung für den breiteren Zugang zu Daten ist ihre Verknüpfung, wie zum Beispiel durch die Kombination von LLMs und Graphtechnologie. Dank der Sprachfähigkeiten der LLMs und den kuratierten Daten aus Knowledge Graphen (Wissensgraphen), die Unternehmen und die reale Welt detailliert abbilden können, steht vielmehr eine KI-Lösung parat, die unterschiedliche Fragen zu unterschiedlichen Themen beantwortet. Multimodale LLMs geben diese Antworten zudem in beliebigen Formaten aus – von Text über Audio und Video bis hin zu Diagrammen und CSV-Dateien.
Auch Vektorsuche hat im Zuge von KI an Bedeutung gewonnen. Vektoren speichern und indizieren ein breites Spektrum an Informationen äußerst effizient, darunter numerische Merkmale, Einbettungen aus Text oder Bildern und sogar komplexe Daten wie Molekularstrukturen. Für Menschen sind solche mehrdimensionalen Datenpunkte nicht nachvollziehbar. Für ML- oder KI-Modelle sind Vektoren jedoch essenziell. Der Hype um die Vektordatenbanken war 2023 groß. Ob er auch langlebig ist, bleibt abzuwarten. Vor allem, da mittlerweile die meisten Datenbankanbieter die Vektorsuche als eigenes Feature in ihre Produkte integriert haben – neben Oracle, MongoDB, Redis, DataStax, Postgres, CouchBase, Elastic übrigens auch Neo4j.
LLM-generierte Ergebnisse mit Knowledge-Graphen validieren (Grounding).
(Bild: Neo4j)
Zugriffsrechte und Sicherheit
Um KI effektiv einzusetzen, müssen Unternehmen für eine sauber aufgestellte Datenbasis sorgen. Dabei stellt sich natürlich auch die Frage: Wer darf auf diese Daten überhaupt zugreifen? Oder aus Perspektive der KI: An wen dürfen die generierten Antworten weitergegeben werden? Und wie lässt sich der Zugriff kontrollieren?
Realisieren lässt sich dieses Identitäts- und Zugriffsmanagement auf Datenbankebene, indem man den KI-Modellen die Daten zur Verfügung stellt, auf die der Nutzer auch Zugriff hat. In Graphdatenbanken zum Beispiel lassen sich Zugriffsrechte auf Attribute für jeden einzelnen Datenpunkt (Knoten) festlegen und flexibel anpassen. Wenn mittels RAG auf Datenquellen zugegriffen wird, kann so limitiert werden, was das LLM als Kontext für die Antworten nutzt. So lässt sich generative KI auf die spezifischen Anforderungen, Compliance und internen Richtlinien von Unternehmen anpassen.
Die Büchse der Pandora ist geöffnet
Ähnliche Ansätze sind zukünftig dringend nötig, um die Probleme von KI in den Griff zu bekommen. LLMs verwenden statistische Wahrscheinlichkeiten, um Antworten zu erzeugen. Was ihnen fehlt, ist ein rationales Verständnis über die zugrunde liegende Realität, die von der generierten Sprachkonstrukten beschrieben wird. Das Ergebnis sind KI-Halluzinationen, also überzeugend formulierte, aber faktisch falsche Antworten.
Darüber hinaus lassen sich LLMs missbrauchen, indem beispielsweise unerwünschte Anweisungen in (Prompts) platziert werden. Angreifer können über solche Indirect Prompt Injections Sicherheitsvorkehrungen umgehen und Antworten gezielt manipulieren oder Daten extrahieren. Und schließlich droht ein KI-Modellkollaps, wenn die KI langfristig nur noch von KI lernt und sich selbst referenziert – wie die Ouroboros-Schlange sich selbst in den Schwanz beißt.
Ansätze wie Responsible AI (verantwortungsbewusste KI) gewinnen nicht nur aus ethischen, sondern auch aus ganz pragmatischen Gründen an Gewicht. Wer ist verantwortlich, wenn die neue KI-App einen Rekordverlust im Unternehmen verursacht? Oder ein Kunden-Chatbot rassistische Inhalte verbreitet? CIOs, die am Aufbau ihrer Unternehmens-KI arbeiten, werden sich hier mit zunehmender Adoption absichern wollen. Die Verantwortung über Compliance- und Sicherheitsrisiken auf die Anbieter abzuwälzen, ist eine Möglichkeit. Gleichzeitig beginnen IT-Verantwortliche, selbst entsprechende Sicherheitsmechanismen und Leitplanken (Guardrails) in die IT-Infrastruktur zu integrieren, um den KI-Stack unter Kontrolle zu behalten.
Mit ihrem Fokus auf Beziehungen und Netzwerken schaffen Graphdatenbanken zum Beispiel einen reichhaltigen, relevanten Kontext, der den LLMs notwendige Grenzen setzt und die Erklärbarkeit, Transparenz und Genauigkeit von KI-Anwendungen erhöht. Jeder Datenpunkt lässt sich über die Beziehungen auf seine ursprüngliche Quelle zurückverfolgen. Jede Information und Antwort bleibt nachvollziehbar. Konversationen und ihre Elemente lassen sich ebenfalls als Graph speichern und zu den Ursprungsinformationen zurückverlinken und analysieren.
Anwendungsszenarien & Zukunftsmärkte
Wie beim Internet oder der Cloud gibt es nicht einen exemplarischen Use Case für Künstliche Intelligenz. Zudem geht KI weit über LLM-KI-Agenten und Chatbots hinaus. Es gibt viele spannende Projekte, die sich nachhaltig auf alle Bereiche unseres Arbeitens und Lebens auswirken werden. Egal, ob am Ende ein Modell für globale Wettervorhersagen steht oder tiefe neuronale Netze, die Proteinstrukturen und Krankheiten prognostizieren.
Um die Frage nach der exponentiellen Geschwindigkeit von KI zu beantworten, sind viele Bereiche interessant. Hier noch zwei Beispiele: Auf Entwickler-Seite gehört mit Sicherheit die automatische Generierung und Verifikation von Code aber auch die Vereinfachung des Entwicklungsprozesses. Die KI-Spezialisten von Deepmind beispielsweise haben mit Alphacode ein Modell entwickelt, das mit einem menschlichen (Durchschnitts-)Programmierer mithalten kann. IT-seitig tragen KI- und ML-Features aktiv zur Optimierung von Datenbanken, Rechenzentren, Cloud-Infrastrukturen und Cybersecurity bei. Angesichts solcher Faktoren ist also mit einer weiteren Beschleunigung in Sachen KI in 2024 definitiv zu rechnen.