Graph- und KI-Trends 2024 Exponentielle Geschwindigkeit der KI macht Vorhersagen (fast) unmöglich

Von Michael Hunger 7 min Lesedauer

Anbieter zum Thema

Die Entwicklung in und rund um KI läuft momentan so schnell ab, dass es schwierig ist, Prognosen abzugeben und langfristig zu planen. Woher kommt dieses irre Tempo? Wie reagiert das Ökosystem darauf? Und was lässt sich überhaupt über die KI-Zukunft mit Bestimmtheit sagen?

Der Autor: Michael Hunger ist Head of Product Innovation & Developer Product Strategy bei Neo4j(Bild:  Michael Hunger)
Der Autor: Michael Hunger ist Head of Product Innovation & Developer Product Strategy bei Neo4j
(Bild: Michael Hunger)

Es gibt viele Superlative, um die Flugbahn, die sich beim Thema KI seit Anfang 2023 abzeichnet, zu beschreiben. Gleichzeitig gibt es in den letzten drei Jahrzehnten nur eine Handvoll an Innovationen, die mit so großer Wucht in die IT-Welt eingeschlagen sind und ein ähnliches starkes Gravitationsfeld bilden. Der kurze Zeitrahmen dieser Entwicklung bleibt ein absolutes Novum: Immerhin sind seit der Veröffentlichung von ChatGPT gerade einmal etwas mehr als zwölf Monate vergangen.

Massive Investition als Brandbeschleuniger

Nirgendwo zeigt sich die KI-Dynamik dabei so konkret wie an den massiven Investitionen, die Konzerne weltweit in die Entwicklung und Implementierung von KI-Lösungen stecken. Laut einem Report von Gartner vom August 2023 sollen bis Ende 2026 mehr als zehn Milliarden US-Dollar in KI-Start-ups fließen, die Foundation Models (KI-Basismodelle) entwickeln.

Angesichts täglich neuer Rekordsummen fallen solche Prognosen bereits jetzt hinter der Realität zurück. Bestes Beispiel ist das KI-Start-up Anthropic: Bereits im September 2023 investierte Amazon vier Milliarden US-Dollar in den OpenAI-Konkurrenten. Google kündigte einen Monat darauf eine Beteiligung von über zwei Milliarden US-Dollar an. Fakt ist: Keiner will den Anschluss verlieren. Das Geld fließt (noch) in Strömen, was den KI-Hype weiter befeuert.

Das Wettrennen um KI-Ressourcen und Know-how, das sich die großen Tech-Konzerne liefern, hat einen guten Grund. Denn die Kapazitäten, die sowohl für das Training von Machine Learning (ML) und Large Language Models (LLMs) als auch für den laufenden Betrieb von KI-Anwendungen im Enterprise-Umfeld nötig sind, sind nur begrenzt verfügbar. Auch die Auftragsbücher in den Fertigungsanlagen der Chip-Hersteller sind voll und über Jahre hinweg ausgebucht. Nvidia kann sich vor Nachfrage kaum retten. Die großen Tech-Konzerne steigen daher gleich selbst ins Halbleiter-Geschäft ein, um leistungsfähige KI-Chips herzustellen. Microsoft zum Beispiel plant Berichten zufolge rund 50 Milliarden US-Dollar pro Jahr für Rechenzentren und KI Infrastruktur zu investieren (einschließlich der darin befindlichen Hardware). Und auch Meta arbeitet an einem KI-Supercomputer mit eigenen Chips.

Schneeballeffekt bei KI-Tools

Neben der Dynamik am Markt treibt auch die Künstliche Intelligenz als Technologie das Tempo weiter an. Oder anders gesagt: Mit und durch KI lassen sich KI-Lösungen schneller entwickeln und auf den Weg bringen. Statt beispielsweise Milliarden von Parametern in KI-Modellen zu überprüfen und anzupassen, greifen Entwickler auf integrierte KI-Algorithmen zurück, um Stellschrauben im Code zu identifizieren. Und am Halbleitermarkt soll zukünftig die Microsoft-KI gleich selbst die Microsofts KI-Chips designen. Das ScienceGPT-Projekt plant in den USA mit Regierungsunterstützung Modelle mit Billionen von Parametern für wissenschaftliche Anwendungen zu trainieren.

Vollkommen losgelöst arbeitet die KI dabei noch nicht. Die Zusammenarbeit von KI und Mensch lässt sich vielmehr als weiterer Treiber sehen. Dort, wo extrem zeitaufwendige Aufgaben anfallen, übernimmt die KI. Für die kreativen Prompts, für Variabilität und Vielseitigkeit sowie für die finalen Entscheidungen bleibt der Mensch gefragt. Das ist nicht unbedingt neu. Allerdings hat sich der Zugang zu KI-Lösungen massiv vereinfacht. Noch vor einem Jahr war die Entwicklung und Nutzung von ML, LLMs und Neuronale Netzwerken in der Regel Data Scientists vorbehalten. Mittlerweile ist KI quasi ein Allgemeingut. Über APIs steht die Intelligenz nicht nur jedem Softwareentwickler zur Verfügung, sondern über geeignete Oberflächen theoretisch jedem Anwender – zum Beispiel möglich mit GTPs von OpenAI, Gen App Builder von GCP oder PartyRock und Amazon Q von AWS.

Die Demokratisierung von Daten

Wenn daher überhaupt von einem sicheren KI-Trend die Rede sein kann, dann ist es Data Democratization. Gemeint ist, dass mehr und mehr Menschen einen sehr einfachen und schnellen Zugang zu relevanten Daten erhalten. Unternehmen können spezifische LLMs auf Basis ihrer Enterprise-Daten aufbauen. Mitarbeiter, Partner und Kunden können über natürlichsprachige Oberflächen (LUI, NLUI) mit der KI über diese Daten interagieren. Das erfolgt über die Umsetzung der Nutzeranfragen in Datenbankabfragen entweder direkt in der Abfragesprache oder über Vektorsuche. Die Ergebnisse werden dann als relevanter Kontext zusammen mit der Originalfrage dem LLM zur Generierung einer natürlichsprachigen Antwort übermittelt. Das Verfahren heißt Retrieval Augmented Generation (RAG). So müssen Entwickler nicht mehr spezifische Anwendungen für die Abfrage von Daten bereitstellen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Grundvoraussetzung für den breiteren Zugang zu Daten ist ihre Verknüpfung, wie zum Beispiel durch die Kombination von LLMs und Graphtechnologie. Dank der Sprachfähigkeiten der LLMs und den kuratierten Daten aus Knowledge Graphen (Wissensgraphen), die Unternehmen und die reale Welt detailliert abbilden können, steht vielmehr eine KI-Lösung parat, die unterschiedliche Fragen zu unterschiedlichen Themen beantwortet. Multimodale LLMs geben diese Antworten zudem in beliebigen Formaten aus – von Text über Audio und Video bis hin zu Diagrammen und CSV-Dateien.

Auch Vektorsuche hat im Zuge von KI an Bedeutung gewonnen. Vektoren speichern und indizieren ein breites Spektrum an Informationen äußerst effizient, darunter numerische Merkmale, Einbettungen aus Text oder Bildern und sogar komplexe Daten wie Molekularstrukturen. Für Menschen sind solche mehrdimensionalen Datenpunkte nicht nachvollziehbar. Für ML- oder KI-Modelle sind Vektoren jedoch essenziell. Der Hype um die Vektordatenbanken war 2023 groß. Ob er auch langlebig ist, bleibt abzuwarten. Vor allem, da mittlerweile die meisten Datenbankanbieter die Vektorsuche als eigenes Feature in ihre Produkte integriert haben – neben Oracle, MongoDB, Redis, DataStax, Postgres, CouchBase, Elastic übrigens auch Neo4j.

LLM-generierte Ergebnisse mit Knowledge-Graphen validieren (Grounding).(Bild:  Neo4j)
LLM-generierte Ergebnisse mit Knowledge-Graphen validieren (Grounding).
(Bild: Neo4j)

Zugriffsrechte und Sicherheit

Um KI effektiv einzusetzen, müssen Unternehmen für eine sauber aufgestellte Datenbasis sorgen. Dabei stellt sich natürlich auch die Frage: Wer darf auf diese Daten überhaupt zugreifen? Oder aus Perspektive der KI: An wen dürfen die generierten Antworten weitergegeben werden? Und wie lässt sich der Zugriff kontrollieren?

Realisieren lässt sich dieses Identitäts- und Zugriffsmanagement auf Datenbankebene, indem man den KI-Modellen die Daten zur Verfügung stellt, auf die der Nutzer auch Zugriff hat. In Graphdatenbanken zum Beispiel lassen sich Zugriffsrechte auf Attribute für jeden einzelnen Datenpunkt (Knoten) festlegen und flexibel anpassen. Wenn mittels RAG auf Datenquellen zugegriffen wird, kann so limitiert werden, was das LLM als Kontext für die Antworten nutzt. So lässt sich generative KI auf die spezifischen Anforderungen, Compliance und internen Richtlinien von Unternehmen anpassen.

Die Büchse der Pandora ist geöffnet

Ähnliche Ansätze sind zukünftig dringend nötig, um die Probleme von KI in den Griff zu bekommen. LLMs verwenden statistische Wahrscheinlichkeiten, um Antworten zu erzeugen. Was ihnen fehlt, ist ein rationales Verständnis über die zugrunde liegende Realität, die von der generierten Sprachkonstrukten beschrieben wird. Das Ergebnis sind KI-Halluzinationen, also überzeugend formulierte, aber faktisch falsche Antworten.

Darüber hinaus lassen sich LLMs missbrauchen, indem beispielsweise unerwünschte Anweisungen in (Prompts) platziert werden. Angreifer können über solche Indirect Prompt Injections Sicherheitsvorkehrungen umgehen und Antworten gezielt manipulieren oder Daten extrahieren. Und schließlich droht ein KI-Modellkollaps, wenn die KI langfristig nur noch von KI lernt und sich selbst referenziert – wie die Ouroboros-Schlange sich selbst in den Schwanz beißt.

Ansätze wie Responsible AI (verantwortungsbewusste KI) gewinnen nicht nur aus ethischen, sondern auch aus ganz pragmatischen Gründen an Gewicht. Wer ist verantwortlich, wenn die neue KI-App einen Rekordverlust im Unternehmen verursacht? Oder ein Kunden-Chatbot rassistische Inhalte verbreitet? CIOs, die am Aufbau ihrer Unternehmens-KI arbeiten, werden sich hier mit zunehmender Adoption absichern wollen. Die Verantwortung über Compliance- und Sicherheitsrisiken auf die Anbieter abzuwälzen, ist eine Möglichkeit. Gleichzeitig beginnen IT-Verantwortliche, selbst entsprechende Sicherheitsmechanismen und Leitplanken (Guardrails) in die IT-Infrastruktur zu integrieren, um den KI-Stack unter Kontrolle zu behalten.

Mit ihrem Fokus auf Beziehungen und Netzwerken schaffen Graphdatenbanken zum Beispiel einen reichhaltigen, relevanten Kontext, der den LLMs notwendige Grenzen setzt und die Erklärbarkeit, Transparenz und Genauigkeit von KI-Anwendungen erhöht. Jeder Datenpunkt lässt sich über die Beziehungen auf seine ursprüngliche Quelle zurückverfolgen. Jede Information und Antwort bleibt nachvollziehbar. Konversationen und ihre Elemente lassen sich ebenfalls als Graph speichern und zu den Ursprungsinformationen zurückverlinken und analysieren.

Anwendungsszenarien & Zukunftsmärkte

Wie beim Internet oder der Cloud gibt es nicht einen exemplarischen Use Case für Künstliche Intelligenz. Zudem geht KI weit über LLM-KI-Agenten und Chatbots hinaus. Es gibt viele spannende Projekte, die sich nachhaltig auf alle Bereiche unseres Arbeitens und Lebens auswirken werden. Egal, ob am Ende ein Modell für globale Wettervorhersagen steht oder tiefe neuronale Netze, die Proteinstrukturen und Krankheiten prognostizieren.

Um die Frage nach der exponentiellen Geschwindigkeit von KI zu beantworten, sind viele Bereiche interessant. Hier noch zwei Beispiele: Auf Entwickler-Seite gehört mit Sicherheit die automatische Generierung und Verifikation von Code aber auch die Vereinfachung des Entwicklungsprozesses. Die KI-Spezialisten von Deepmind beispielsweise haben mit Alphacode ein Modell entwickelt, das mit einem menschlichen (Durchschnitts-)Programmierer mithalten kann. IT-seitig tragen KI- und ML-Features aktiv zur Optimierung von Datenbanken, Rechenzentren, Cloud-Infrastrukturen und Cybersecurity bei. Angesichts solcher Faktoren ist also mit einer weiteren Beschleunigung in Sachen KI in 2024 definitiv zu rechnen.

Artikelfiles und Artikellinks

Link: Neo4j im Web

(ID:49835406)