Auf seinem jährlichen Graph Summit gewährte Neo4j, der Marktführer bei Graph-Datenbanken, einen Einblick ist seine Produktplanung. Schwerpunkte sind die Leistungssteigerung, die Bedienfreundlichkeit, Datenintegration, Cloud-Fokus und schließlich KI-Unterstützung.
Michael Hunger, VP of Product Innovation, sprach auf dem GraphSummit 2025 in München.
(Bild: Neo4j)
Vor einem internationalen Publikum stellte Michael Hunger, der inzwischen zum VP of Product Innovation avanciert ist, die Roadmap von Neo4j in München vor. Es gibt verschiedene Modelle, um Neo4j zu betreiben. Das dynamischste und am stärksten geförderte Modell ist die Cloud-Plattform „Aura“. Schon nach wenigen Minuten wurde klar, dass Aura ebenso wie sein On-premises-Pendant im Hinblick auf Performance und Skalierbarkeit verstärkt worden sind.
Skalierbarer
Der Umfang eines Graphen kann nun über 100 Terabyte übersteigen. Ermöglicht wird das durch Sharding der Datenbank des „Property Store“. Um diese Größenordnungen zu erzielen, empfiehlt Neo4j, die Topology und den Property Storage (mit dem sogenannten Sharded Property Graph) voneinander zu trennen. Auf der Basis eines autonom verwalteten Clusters mit Multi-DB-Support ist das dann kein Problem mehr. Er erlaubt sowohl Hochverfügbarkeit als auch hohe Skalierbarkeit.
Block-Format
Das neue Block-Format soll den Zugriff verbessern und Verteilung im Speicher verringern. Die Leistung sei höher in Szenarien mit begrenztem Arbeitsspeicher. Die Beziehungen eines Knoten im Graphen werden ebenfalls im Block-Format gespeichert, sodass sie rascher zugänglich sind.
Parallele Ausführung von komplexen Abfragen
Die Leistung wird um das Hundertfache erhöht, wenn es um Abfragen – mit Cypher – geht. Eine Einzelabfrage wird nun parallel auf mehreren Rechenkernen ausgeführt. Die Analyse-Abfrage erfolgt daher schneller und Neo4j kann transaktionale und analytische Verarbeitung in einer Datenbank kombinieren. Das dürfte den Weg zu neuartigen Anwendungen öffnen.
Cypher
Bei der Abfragesprache Cypher können Nutzer künftig zwischen zwei Versionen wählen. V1 sei abwärtskompatibel und stabil, v2 jedoch entwickle sich noch. Die Wahl kann auf Datenbankebene oder auf Ebene einer Einzelabfrage erfolgen. Wichtig zu wissen: Wird ein Neo4j-Server aktualisiert oder erhält ein Upgrade, müssen keine Abfragen auf die neue Serverversion migriert werden. Cypher selbst hat und wird eine Vielzahl von Neuerungen und Erweiterungen erfahren, so etwa konditionale Abfragen. Mit dem PBAC-Protokoll lässt sich der Zugriff auf Properties im Graphen kontrollieren. Mit Regeln kann ein Admin sowohl Lese- als auch Traversieren-Rechte eingrenzen.
Datenbankschema
Eine wichtige Neuerung wird ein erzwungenes Datenbankschema sein. Ein Nutzer kann ein solches Schema erstellen und durchsetzen. „Das Schema vereinfacht die Komplexität bei der Verwaltung individueller Constraints, also Einschränkungen beim Zugriff“, erläutert Hunger. „Es erlaubt eine höhere Datenqualität bei Daten aus verschiedenen Datenquellen.“ Beim Schreiben würden die Constraints zwar zu niedrigerer Performance führen, aber beim Lesen stelle das kein Problem dar, dort können ihre Metainformationen eher zur Beschleunigung dienen.
Graph Analytics
Die folgerichtige Weiterentwicklung zu den genannten Analyseoptionen besteht in „Graph Analytics“, das laut Hunger im Mai verfügbar werden soll. Mit einem neuen Analytics-Plug-in in Neo4j Graph Data Science (GDS) lassen sich Graph-Algorithmen, von denen Neo4j mehrere Dutzend mitliefert, auf einem sekundären Rechnerknoten im Datenbank-Cluster ausführen. Das sei ideal für leichtere Workloads mit geringen Latenzzeiten. Das Plug-in funktioniere sowohl mit selbst verwalteten Installationen wie auch in der Pro-Version von Aura.
Aura erhält sein eigenes Serverless-Analytik-Angebot. Es soll mit der Aura DB und selbstverwalteten Datenbanken funktionieren und eine bessere Isolierung, höhere Kosteneffizienz und Skalierbarkeit erlauben, wenn auch die Latenzzeiten höher seien. Doch die Lesezeiten und der Datendurchsatz lassen sich verbessern, wenn User die neue Option nutzen, und bis zu 15 Sekundär-Instanzen für das Nur-Lesen einrichten. Mit dieser horizontalen Skalierung lassen sich leseintensive Workload verteilen und performant ausführen.
Neue Edition von Aura
Von der AuraDB bietet Neo4j nun die Edition „Business Critical“ an, die ein Fünftel preisgünstiger sei als die Enterprise-Edition: 146 US-Dollar/Gigabyte/Monat (Minimum sind 2-Gigabyte-Cluster). Mit bis zu 512 Gigabyte Hauptspeicher pro Datenbank-Instanz bietet sie doppelt so viel Kapazität wie die Professional-Edition. Dass sie sich in drei Verfügbarkeitszonen betreiben lässt, verrät, dass sie für wirklich große geschäftskritische Workloads und international agierende Unternehmen gedacht ist. Sie verfügt wie die Professional-Edition über einen täglichen Datensicherungslauf mit einer Aufbewahrungsdauer von 30 Tagen. Die Leistungsmerkmale für Backup, Restore, Security (Zugangskontrolle und Verschlüsselung) und Compliance sind erheblich ausgeweitet worden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
KI-Unterstützung
Die Graph-Datenbank von Neo4J bietet Unterstützung für alle wichtigen Frameworks (z. B. LangChain, Llama, Spring AI, Haystack).
(Bild: Neo4j)
In großem Umfang will Neo4j die KI-Entwicklung und LLM-Nutzung für die Entscheidungsfindung stützen. GraphRAG ist daher einer der Schwerpunkte der Entwicklung und in einem neuen Python-Paket enthalten, das Developer nutzen können. „Wir haben Neo4j mit dem GenAI-Ökosystem integriert“, so Hunger. „Neo4j fügt ein, ganz gleich, ob man LangChain, LlamaIndex, Haystack oder Spring AI nutzt. Es ist auch mit Cloud-Plattformen wie AWS Bedrock, Google Clouds Vertex AI, Azure OpenAI und anderen integriert.“
Zu RAG gehören auch Vektoren. Diese sind inzwischen ein Standardbestandteil von Neo4j, sodass sogar ein neuer Indextyp, sogenannte Vector Indexes, erstellt wurde, um Ähnlichkeitssuchen effizient und skalierbar zu machen. Mit einem neuen Werkzeug namens Graph Builder lassen sich komplette Knowledge-Graphen aus Dokumenten erstellen.
Das MCP-Protokoll (Model Context Protocol) fügt jedem KI-Modell Kontext aus Datenbanken und APIs hinzu und erlaubt die rasche Erzeugung von Programmcode, Abfragen und Charts. Die Unterstützung ist bereits so breit, dass es sich zum Standard entwickelt. Nach Anthropic und OpenAI will auch Neo4j MCP in seinen Produkten Aura, der Cloud-Version, und für Abfragen und Tools Cypher, seiner Graph-gestützten Abfragesprache, unterstützen. „Damit könnte man in einer Konversation schnell und effizient die Top Ten einer nach Kategorien sortierten Hitliste erstellen“, erläutert Michael Hunger.
Agentic AI
Schwerpunkt KI: Knowledge-Graphen für bessere und genauere Ergebnisse.
(Bild: Neo4j)
Die nächste Stufe der KI-Technologie bildet Agentic RAG. Agentenbasierte KI ist die Zukunft, aber ein RAG-basierter Agent ist eingebettet in die Orchestrierung einer LLM-gesteuerten Engine. Die Orchestrierung umfasst Fragen wie: Wo soll eingebettet, wann soll gesucht und wann abgefragt werden? Der Nutzer definiert seine Agenten und Werkzeuge (zum Beispiel Graph-Abfragen), und das System lernt, wann und wie sie verwendet werden sollten, um komplexe Fragen zu beantworten. Mit der Zeit können die Nutzer neue, passendere Agenten entwickeln, sie in einer Bibliothek sammeln und für passende Zwecke verwenden.
„Wir bauen dies zurzeit in Aura ein“, erläutert Hunger. „Entwickler werden Zugriff auf eine Agentic API mit angeschlossener Reasoning Engine haben, sodass sie in der Lage sind, GenAI-Apps wie etwa Chatbots in Minuten, statt Wochen zu erstellen.“ Die Agentic API, die für einen Conversational AI Service nötig ist, soll im zweiten Halbjahr 2025 verfügbar werden.