Künstliche Intelligenz (KI) hat sich rasant zu einer wichtigen strategischen Stütze entwickelt. In Deutschland ist KI nicht mehr nur ein Hype, sondern bereits im operativen Geschäft angekommen. KI-Modelle, insbesondere die leistungsstärksten Large Language Models, werden jedoch immer größer, sehr energieintensiv und ihre effektive Skalierung ist teuer. Die ansteigende Größe führt zu einem immer höheren Bedarf an Rechenressourcen, High-End-GPUs und einer riesigen Cloud-Infrastruktur.
Der Autor: Roman Orus ist Mitbegründer und Chief Scientific Officer von Multiverse Computing
(Bild: Multiverse Computing)
Als Reaktion darauf entsteht ein neuer Ansatz, der KI zugänglicher, effizienter und an lokale Bedingungen anpassbarer macht: quanteninspirierte Tensornetzwerke. Diese Netzwerke bieten gegenüber herkömmlichen Komprimierungstechniken mehrere Vorteile. Anstatt immer größere Modelle zu erstellen, verlagert sich der Fokus darauf, bestehende Modelle durch Tensorisierung – der Prozess bei dem Schichten eines neuronalen Netzwerks, die zum Verkleinern geeignet sind identifiziert werden, und großen Matrizen innerhalb dieser Schichten in kleinere, miteinander verbundene Matrizen zerlegt werden – und Quantisierung, die Verringerung der Genauigkeit numerischer Werte, um bis zu 95 Prozent zu komprimieren. Dennoch wird die Leistung beibehalten, aber gleichzeitig die Effizienz drastisch verbessert. Im Kern strukturiert die Technologie die Darstellung neuronaler Netzwerke so um, dass unnötige Parameter eliminiert werden, während die volle Funktionsfähigkeit des Netzwerks erhalten bleibt. Diese Technik funktioniert, indem nur die relevantesten Korrelationen zwischen Datenpunkten identifiziert werden und erhalten bleiben.
Das KI-Modell wird dadurch so kompakt, dass es auf Geräten läuft, die zuvor von der KI-Bereitstellung ausgeschlossen waren. Durch die Vereinfachung der internen Architektur verarbeiten komprimierte Modelle zudem Abfragen schneller (gemessen in Token pro Sekunde), was zu einer schnelleren Benutzerinteraktion, Systemreaktion und Ergebnissen führt. Darüber hinaus wird die Energieeffizienz verbessert. Da pro Inferenz weniger Operationen erforderlich sind, sinkt der Energiebedarf deutlich um bis zu 50 Prozent, was die Betriebskosten senkt. Schließlich gibt es noch den entscheidenden Vorteil der Hardwareunabhängigkeit. Diese ultrakomprimierten Modelle können auf einer Vielzahl von Plattformen eingesetzt werden, von großen Servern bis hin zu Edge-Geräten, wodurch die Abhängigkeit von seltenen oder teuren GPU-Clustern und Internetverbindungen vermieden wird.
Während die theoretischen Grundlagen von Tensornetzwerken aus der Quantenmechanik stammen, ist ihre Anwendung auf KI vollständig mit der herkömmlichen digitalen Infrastruktur kompatibel. Hier kommen also Ideen aus der Quantenwissenschaft herkömmlichen Computerumgebungen direkt zugute.
Das Ergebnis ist ein viel kleineres KI-Modell, das genauso gut oder in manchen Fällen sogar besser funktioniert als das ursprüngliche LLM. Im operativen Umfeld bedeutet dies schnellere Erkenntnisse, höhere Reaktionsfähigkeit und weniger Infrastruktureinschränkungen. Diese neue Technik kann also tiefgreifende Auswirkungen auf die deutsche Industrie haben.
Von der Cloud bis zur Edge: lokalisierte KI-Modelle
Bisher dominierte eine Cloud-zentrierte Architektur die KI-Branche. Doch ultrakomprimierte KI-Modelle verändern dieses Paradigma grundlegend. Da sie deutlich kleiner, effizienter und prozessorfreundlicher sind, ermöglichen sie einen Wandel hin zu lokaler Bereitstellungsmodellen an der sogenannten Edge. Dieser Ansatz ist nicht nur praktischer, sondern eröffnet auch viele neue Anwendungsmöglichkeiten.
Beispiele finden sich in vielen Branchen: In Fahrzeugen, zum Beispiel, können KI-Systeme für Navigation und Sicherheit direkt an Bord laufen, unabhängig von Cloud-Diensten, die in Tunneln oder abgelegenen Gebieten ausfallen könnten. Verbrauchergeräte und intelligente Haushaltsgeräte können KI-Funktionen nun auch offline anbieten, was den Datenschutz und die Benutzerfreundlichkeit deutlich verbessert. Auch in der industriellen Automatisierung kann Edge-KI Maschinen überwachen und Arbeitsabläufe optimieren, ohne sensible Daten extern zu senden. Das ist besonders vorteilhaft für regulierte Branchen wie Biowissenschaften oder für Standorte ohne stabile Internetverbindung.
Komprimierte KI-Modelle in Krankenhäusern bieten lokale Intelligenz
Datenschutz ist im Gesundheitswesen nicht nur eine Frage der Compliance, sondern eine zentrale ethische Anforderung. Patientenakten gehören zu den sensibelsten Datensätzen und Kliniken sollten den Einsatz cloudbasierter KI-Systeme vermeiden, die persönliche Gesundheitsdaten an externe Anbieter übertragen.
Komprimierte KI-Modelle bieten eine zusätzliche Lösung, indem sie die Ausführung komplexer Modelle auf lokalen Geräten oder in sicheren, privaten Clouds ermöglichen. Das kann das krankenhausinterne Rechenzentrum oder auch Geräte wie iPads und lokale Workstations sein. Patientendaten bleiben dadurch innerhalb der Firewall der Organisation.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die KI-Komprimierung ermöglicht, dass nun auch für kleinere Gesundheitsdienstleister diese Funktionen nutzen können, denen möglicherweise das Budget oder die Infrastruktur für traditionelle KI-Implementierungen fehlt. In der Praxis bedeutet dies, dass die Diagnose nicht nur schneller, sondern auch sicherer erfolgt. Medizinisches Personal kann auf KI-Unterstützung zugreifen, ohne die Offenlegung von Patientendaten zu riskieren, und sowohl betriebliche als auch gesetzliche Anforderungen erfüllen.
Unabhängigkeit auch ohne Internet – Edge AI in der Verteidigung
Auch die Verteidigung profitiert von komprimierten KI-Modellen. Moderne Militäroperationen stützen sich zunehmend auf Echtzeit-Datenanalysen von Drohnen, Überwachungssystemen und taktischen Entscheidungshilfen. Da diese Systeme oft in abgelegenen oder feindlichen Gebieten ohne stabile Cloud- oder Internetverbindungen eingesetzt werden, sind lokale KI-Lösungen unerlässlich.
Komprimierte KI-Modelle bieten einen entscheidenden Vorteil, da sie lokal auf Hardware mit begrenzter Rechenkapazität, wie beispielsweise Drohnen oder eingebetteten Systemen, eingesetzt werden können. Durch die Reduzierung der Modellgröße und der Hardwareanforderungen kann KI vollständig am Netzwerkrand – oder an der Edge – ausgeführt werden und sofortige Intelligenz in Echtzeit liefern, ohne auf externe Infrastruktur angewiesen zu sein und ohne übermäßigen Energieverbrauch.
Zusätzlich erhöht der lokale Einsatz die Sicherheit: Sensible Daten bleiben auf das Einsatzgebiet beschränkt, was die taktische Zuverlässigkeit in Bereichen wie Cybersicherheit und elektronischer Kriegsführung verbessert. Technologisch liegt der Schlüssel darin, die Balance zwischen Komprimierung und Leistung zu finden. Mit Tensornetzwerk-basierter Komprimierung können Verteidigungsbehörden die Zuverlässigkeit der Modelle bewahren und gleichzeitig auf kleinere, leistungsstarke Hardware setzen.
Komprimierten KI-Modelle für nachhaltigere Industrieprozesse
Eine der überzeugendsten Validierungen von komprimierten KI-Modellen fand in einer Produktionsstätte in Europa statt. Ziel war es, die Größe des bestehenden KI-Modells des Herstellers, das bei der Produktion von Automobilkomponenten verwendet wird, zu reduzieren, ohne dessen Leistung zu beeinträchtigen.
Durch den Einsatz fortschrittlicher Komprimierungsmethoden auf Basis von Tensornetzwerken konnte die Größe des Modells deutlich reduziert werden. Dadurch lieferte das KI-Modell eine etwa zweimal so schnelle Reaktionszeiten und verbesserte die Integration in bestehende Anlagensysteme, wodurch der Energieverbrauch für den Betrieb des Modells um etwa 50 Prozent sank. Das komprimierte KI-Modell ermöglichte eine lokalisierte Entscheidungsfindung in Echtzeit – in der Robotik, Qualitätskontrolle oder der Wartung, ohne Daten an entfernte Server zu senden, oder auf einen instabilen Internetzugang angewiesen zu sein.
Für Fertigungsunternehmen, die Wert auf schlanke Produktion und Umweltverantwortung legen, bedeuteten diese Einsparungen nicht nur messbare Kostensenkungen, sondern auch einen beschleunigten Weg zu einer intelligenteren und effizienteren Produktion.
Neue Wege für die deutsche Industrie
Deutschlands als Land der Präzision und Effizienz, vor allem in der Industrie, findet sich nun in der einzigartigen Position wieder, um Kompressionstechniken frühzeitig einzusetzen. Von der Fertigung bis zum Operationssaal ermöglichen komprimierte Modelle schnellere Erkenntnisse eine bessere Energieeffizienz und mehr Datenschutz – auch ohne Kompromisse bei der Genauigkeit. Der Schwerpunkt auf regionaler Datenverwaltung steht auch im Einklang mit den Vorteilen lokaler KI in den ansässigen Schlüsselindustrien.
KI besticht nicht mehr durch Größe, sondern durch Einfallsreichtum. Komprimierte KI stellt eine entscheidende Weiterentwicklung in der Art und Weise dar, wie wir Machine-Learning-Modelle entwickeln, einsetzen und nutzen. Das bedeutet nicht weniger Leistung, sondern eine Industrie, die bereit für die Gegenwart als auch für die Zukunft ist.