KI-Traffic bekommt seinen eigenen Express-Lane Netskope lanciert „AI Fast Path“ und optimiert Traffic-Pfad für LLM-Workloads

Von Berk Kutsal 1 min Lesedauer

Anbieter zum Thema

Um das Dilemma zwischen Datensicherheit und Rechengeschwindigkeit zu lösen, hat der Cloud-Security-Spezialist Netskope die neue Technologie „NewEdge AI Fast Path“ vorgestellt. Die Lösung verspricht Unternehmen eine drastische Beschleunigung ihrer KI-Anwendungen bei gleichzeitig lückenloser Sicherheitskontrolle.

Express-Lane für KI-Workloads: Ein optimierter Netzwerkpfad soll Latenzen reduzieren, ohne Sicherheitskontrollen zu umgehen.(Bild:  KI-generiert)
Express-Lane für KI-Workloads: Ein optimierter Netzwerkpfad soll Latenzen reduzieren, ohne Sicherheitskontrollen zu umgehen.
(Bild: KI-generiert)

Mit „NewEdge AI Fast Path“ erweitert Netskope sein globales Backbone um eine gezielte Optimierung für KI-Datenverkehr. Die Funktion steht ab sofort für Bestandskunden zur Verfügung und soll Engpässe bei sicherheitsgeprüften KI-Workloads reduzieren.

Der Hintergrund ist operativ: KI-Anwendungen erzeugen andere Verkehrsmuster als klassische SaaS-Dienste. Kurze Antwortzyklen, viele Iterationen und große Kontextmengen treffen auf Security-Inspektion, DLP-Regeln und Policy-Kontrollen. Jede zusätzliche Prüfung kostet Millisekunden – bei dialogorientierten Systemen summiert sich das sichtbar. In der Praxis entsteht ein Zielkonflikt zwischen Sicherheitsdurchsetzung und Nutzererlebnis.

Express-Pfad für Inferenz und Agenten

AI Fast Path greift auf die bestehende NewEdge-Infrastruktur zurück. Über direkte Peering-Verbindungen zu großen Cloud- und KI-Zielen sollen Transit-Hops reduziert und der Weg zwischen Anwender, Inspektionspunkt und Zielsystem verkürzt werden. Das betrifft insbesondere:

  • Dialogorientierte KI-Anwendungen, bei denen die „Time-to-First-Token“ als Performance-Messgröße gilt
  • Agentenbasierte Workflows mit mehreren Iterationsschritten
  • Retrieval-Augmented-Generation-Szenarien, in denen LLMs externe Datenquellen abfragen

Laut Anbieter umfasse das Netzwerk mehr als 120 Rechenzentren in über 75 Regionen sowie über 11.000 Netzwerk-Adjazenzen zu mehr als 750 autonomen Systemen. Eine Telemetrie-gestützte „Route Control“ passe Pfade dynamisch an, um Überlastungen oder ISP-Probleme zu umgehen.

KI-Traffic als regulärer Workload

Technisch bleibt die Erweiterung Teil des bestehenden SSE- und SASE-Stacks von Netskope One. Der Unterschied liege im Fokus: KI-Datenverkehr werde nicht mehr wie gewöhnlicher Web-Traffic behandelt, sondern als latenzsensibler Workload mit hohem Iterationsbedarf.

Ob sich die versprochene Beschleunigung in produktiven Umgebungen messbar auswirkt, hängt von Standort, Provider-Anbindung und Zielplattform ab. Klar ist jedoch: Mit zunehmender Verlagerung von Geschäftsprozessen in KI-gestützte Systeme verschiebt sich auch die Architekturfrage vom „Ob“ zum „Wie schnell – trotz Security?“.

(ID:50767557)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung