Neo4j Roadmap 2025 Leistungssprung bei Graph-Datenbanken mit KI-Integration, Cloud-Skalierung und Terabyte-Graphen

Von Michael Matzer 5 min Lesedauer

Anbieter zum Thema

Auf seinem jährlichen Graph Summit gewährte Neo4j, der Marktführer bei Graph-Datenbanken, einen Einblick ist seine Produktplanung. Schwerpunkte sind die Leistungssteigerung, die Bedienfreundlichkeit, Datenintegration, Cloud-Fokus und schließlich KI-Unterstützung.

Michael Hunger, VP of Product Innovation, sprach auf dem GraphSummit 2025 in München.(Bild:  Neo4j)
Michael Hunger, VP of Product Innovation, sprach auf dem GraphSummit 2025 in München.
(Bild: Neo4j)

Vor einem internationalen Publikum stellte Michael Hunger, der inzwischen zum VP of Product Innovation avanciert ist, die Roadmap von Neo4j in München vor. Es gibt verschiedene Modelle, um Neo4j zu betreiben. Das dynamischste und am stärksten geförderte Modell ist die Cloud-Plattform „Aura“. Schon nach wenigen Minuten wurde klar, dass Aura ebenso wie sein On-premises-Pendant im Hinblick auf Performance und Skalierbarkeit verstärkt worden sind.

Skalierbarer

Der Umfang eines Graphen kann nun über 100 Terabyte übersteigen. Ermöglicht wird das durch Sharding der Datenbank des „Property Store“. Um diese Größenordnungen zu erzielen, empfiehlt Neo4j, die Topology und den Property Storage (mit dem sogenannten Sharded Property Graph) voneinander zu trennen. Auf der Basis eines autonom verwalteten Clusters mit Multi-DB-Support ist das dann kein Problem mehr. Er erlaubt sowohl Hochverfügbarkeit als auch hohe Skalierbarkeit.

Block-Format

Das neue Block-Format soll den Zugriff verbessern und Verteilung im Speicher verringern. Die Leistung sei höher in Szenarien mit begrenztem Arbeitsspeicher. Die Beziehungen eines Knoten im Graphen werden ebenfalls im Block-Format gespeichert, sodass sie rascher zugänglich sind.

Parallele Ausführung von komplexen Abfragen

Die Leistung wird um das Hundertfache erhöht, wenn es um Abfragen – mit Cypher – geht. Eine Einzelabfrage wird nun parallel auf mehreren Rechenkernen ausgeführt. Die Analyse-Abfrage erfolgt daher schneller und Neo4j kann transaktionale und analytische Verarbeitung in einer Datenbank kombinieren. Das dürfte den Weg zu neuartigen Anwendungen öffnen.

Cypher

Bei der Abfragesprache Cypher können Nutzer künftig zwischen zwei Versionen wählen. V1 sei abwärtskompatibel und stabil, v2 jedoch entwickle sich noch. Die Wahl kann auf Datenbankebene oder auf Ebene einer Einzelabfrage erfolgen. Wichtig zu wissen: Wird ein Neo4j-Server aktualisiert oder erhält ein Upgrade, müssen keine Abfragen auf die neue Serverversion migriert werden. Cypher selbst hat und wird eine Vielzahl von Neuerungen und Erweiterungen erfahren, so etwa konditionale Abfragen. Mit dem PBAC-Protokoll lässt sich der Zugriff auf Properties im Graphen kontrollieren. Mit Regeln kann ein Admin sowohl Lese- als auch Traversieren-Rechte eingrenzen.

Datenbankschema

Eine wichtige Neuerung wird ein erzwungenes Datenbankschema sein. Ein Nutzer kann ein solches Schema erstellen und durchsetzen. „Das Schema vereinfacht die Komplexität bei der Verwaltung individueller Constraints, also Einschränkungen beim Zugriff“, erläutert Hunger. „Es erlaubt eine höhere Datenqualität bei Daten aus verschiedenen Datenquellen.“ Beim Schreiben würden die Constraints zwar zu niedrigerer Performance führen, aber beim Lesen stelle das kein Problem dar, dort können ihre Metainformationen eher zur Beschleunigung dienen.

Graph Analytics

Die folgerichtige Weiterentwicklung zu den genannten Analyseoptionen besteht in „Graph Analytics“, das laut Hunger im Mai verfügbar werden soll. Mit einem neuen Analytics-Plug-in in Neo4j Graph Data Science (GDS) lassen sich Graph-Algorithmen, von denen Neo4j mehrere Dutzend mitliefert, auf einem sekundären Rechnerknoten im Datenbank-Cluster ausführen. Das sei ideal für leichtere Workloads mit geringen Latenzzeiten. Das Plug-in funktioniere sowohl mit selbst verwalteten Installationen wie auch in der Pro-Version von Aura.

Aura erhält sein eigenes Serverless-Analytik-Angebot. Es soll mit der Aura DB und selbstverwalteten Datenbanken funktionieren und eine bessere Isolierung, höhere Kosteneffizienz und Skalierbarkeit erlauben, wenn auch die Latenzzeiten höher seien. Doch die Lesezeiten und der Datendurchsatz lassen sich verbessern, wenn User die neue Option nutzen, und bis zu 15 Sekundär-Instanzen für das Nur-Lesen einrichten. Mit dieser horizontalen Skalierung lassen sich leseintensive Workload verteilen und performant ausführen.

Neue Edition von Aura

Von der AuraDB bietet Neo4j nun die Edition „Business Critical“ an, die ein Fünftel preisgünstiger sei als die Enterprise-Edition: 146 US-Dollar/Gigabyte/Monat (Minimum sind 2-Gigabyte-Cluster). Mit bis zu 512 Gigabyte Hauptspeicher pro Datenbank-Instanz bietet sie doppelt so viel Kapazität wie die Professional-Edition. Dass sie sich in drei Verfügbarkeitszonen betreiben lässt, verrät, dass sie für wirklich große geschäftskritische Workloads und international agierende Unternehmen gedacht ist. Sie verfügt wie die Professional-Edition über einen täglichen Datensicherungslauf mit einer Aufbewahrungsdauer von 30 Tagen. Die Leistungsmerkmale für Backup, Restore, Security (Zugangskontrolle und Verschlüsselung) und Compliance sind erheblich ausgeweitet worden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

KI-Unterstützung

Die Graph-Datenbank von Neo4J bietet Unterstützung für alle wichtigen Frameworks (z. B. LangChain, Llama, Spring AI, Haystack).(Bild:  Neo4j)
Die Graph-Datenbank von Neo4J bietet Unterstützung für alle wichtigen Frameworks (z. B. LangChain, Llama, Spring AI, Haystack).
(Bild: Neo4j)

In großem Umfang will Neo4j die KI-Entwicklung und LLM-Nutzung für die Entscheidungsfindung stützen. GraphRAG ist daher einer der Schwerpunkte der Entwicklung und in einem neuen Python-Paket enthalten, das Developer nutzen können. „Wir haben Neo4j mit dem GenAI-Ökosystem integriert“, so Hunger. „Neo4j fügt ein, ganz gleich, ob man LangChain, LlamaIndex, Haystack oder Spring AI nutzt. Es ist auch mit Cloud-Plattformen wie AWS Bedrock, Google Clouds Vertex AI, Azure OpenAI und anderen integriert.“

Zu RAG gehören auch Vektoren. Diese sind inzwischen ein Standardbestandteil von Neo4j, sodass sogar ein neuer Indextyp, sogenannte Vector Indexes, erstellt wurde, um Ähnlichkeitssuchen effizient und skalierbar zu machen. Mit einem neuen Werkzeug namens Graph Builder lassen sich komplette Knowledge-Graphen aus Dokumenten erstellen.

Das MCP-Protokoll (Model Context Protocol) fügt jedem KI-Modell Kontext aus Datenbanken und APIs hinzu und erlaubt die rasche Erzeugung von Programmcode, Abfragen und Charts. Die Unterstützung ist bereits so breit, dass es sich zum Standard entwickelt. Nach Anthropic und OpenAI will auch Neo4j MCP in seinen Produkten Aura, der Cloud-Version, und für Abfragen und Tools Cypher, seiner Graph-gestützten Abfragesprache, unterstützen. „Damit könnte man in einer Konversation schnell und effizient die Top Ten einer nach Kategorien sortierten Hitliste erstellen“, erläutert Michael Hunger.

Agentic AI

Schwerpunkt KI: Knowledge-Graphen für bessere und genauere Ergebnisse.(Bild:  Neo4j)
Schwerpunkt KI: Knowledge-Graphen für bessere und genauere Ergebnisse.
(Bild: Neo4j)

Die nächste Stufe der KI-Technologie bildet Agentic RAG. Agentenbasierte KI ist die Zukunft, aber ein RAG-basierter Agent ist eingebettet in die Orchestrierung einer LLM-gesteuerten Engine. Die Orchestrierung umfasst Fragen wie: Wo soll eingebettet, wann soll gesucht und wann abgefragt werden? Der Nutzer definiert seine Agenten und Werkzeuge (zum Beispiel Graph-Abfragen), und das System lernt, wann und wie sie verwendet werden sollten, um komplexe Fragen zu beantworten. Mit der Zeit können die Nutzer neue, passendere Agenten entwickeln, sie in einer Bibliothek sammeln und für passende Zwecke verwenden.

„Wir bauen dies zurzeit in Aura ein“, erläutert Hunger. „Entwickler werden Zugriff auf eine Agentic API mit angeschlossener Reasoning Engine haben, sodass sie in der Lage sind, GenAI-Apps wie etwa Chatbots in Minuten, statt Wochen zu erstellen.“ Die Agentic API, die für einen Conversational AI Service nötig ist, soll im zweiten Halbjahr 2025 verfügbar werden.

(ID:50387546)