Einheitliche Datenplattform für Analyse, Integration und KI-Workloads Microsoft Fabric: Datenanalyse für und mit KI der nächsten Generation

Von Thomas Joos 7 min Lesedauer

Anbieter zum Thema

Microsoft Fabric konsolidiert Datenintegration, Analyse und Künstliche Intelligenz (KI) in einer einheitlichen Plattform. Fabric verbindet OneLake als zentralen Datenspeicher mit Azure-KI-Services, Copilot und Foundry, um strukturierte, unstrukturierte und Echtzeitdaten technisch konsistent und skalierbar auszuwerten. Wir zeigen in diesem Beitrag die Möglichkeiten dazu.

Microsoft Fabric lässt sich über ein Dashboard steuern und komplett aus der Cloud 60 Tage kostenlos nutzen. (Bild:  T. Joos)
Microsoft Fabric lässt sich über ein Dashboard steuern und komplett aus der Cloud 60 Tage kostenlos nutzen.
(Bild: T. Joos)

Microsoft Fabric will die gesamte Datenanalyse- und KI-Infrastruktur in einer einzigen, vollständig integrierten Cloud-Umgebung vereinen. Die Plattform soll die Lücke zwischen Datentechnik, Data Science, Echtzeit-Streaming und KI-gestützter Analyse schließen. Ihr Fundament bildet OneLake, ein Multi-Cloud-Datenpool, der strukturierte, semistrukturierte und unstrukturierte Datenformate ohne Duplikate oder Fragmentierung zugänglich macht.

Vereinheitlichte Datenbasis mit OneLake

OneLake fungiert als zentraler Speicher für alle Datenquellen, unabhängig von Format, Cloud-Anbieter oder Standort. Die Lösung unterstützt offene Standards wie Delta Parquet und Iceberg und eliminiert die üblichen Hürden bei der Integration unterschiedlicher Datenformate. Die Daten bleiben an ihrem Ursprung und werden über Verknüpfungen (Shortcuts) virtuell eingebunden. Dadurch entfällt die Notwendigkeit, Daten physisch zu verschieben. Ergänzend ermöglicht die Spiegelung (Mirroring) eine Replikation von Datenbanken in nahezu Echtzeit aus Azure SQL, Snowflake, Cosmos DB oder MongoDB direkt in OneLake.

Bildergalerie

Änderungen an der Quelle werden unmittelbar synchronisiert, ohne ETL-Prozesse. Für komplexere Datenbewegungen oder Transformationen steht Data Factory mit mehr als 180 nativen Konnektoren bereit. So lassen sich Datenströme aus SAP, Salesforce, Amazon S3, Google Cloud Storage oder lokalen SQL-Systemen direkt einbinden. Shortcuts unterstützen offene Speicherformate wie Microsoft Dataverse, Azure Data Lake Storage, Google Cloud Storage, Databricks, Amazon S3 und S3-kompatible Stores. Lokale Systeme können über das Fabric-Datengateway angebunden werden. Die offene Spiegelung erlaubt es, Daten aus beliebigen Quellen mithilfe einer API synchron zu halten. Fabric erkennt Änderungen an der Quelle automatisch und aktualisiert sie nahezu in Echtzeit. Damit entsteht eine einheitliche Sicht auf operative Daten, ohne Kopien oder Latenzen.

Datenaktivierung in Echtzeit

Fabric erweitert die klassische Datenverarbeitung um den Echtzeitaspekt. Über Real-Time Intelligence lassen sich Streaming-Daten aus IoT-Systemen oder Unternehmensanwendungen sofort analysieren. Die Komponente Data Activator ergänzt das durch eine ereignisgesteuerte Automatisierung. Anwender definieren Regeln, die auf eintreffende Daten reagieren, zum Beispiel Temperaturabweichungen oder Schwellenwerte, und automatisch Aktionen auslösen. Data Activator ist als No-Code-/Low-Code-Modul konzipiert und ermöglicht Reaktionen wie E-Mail-Versand, Power-Automate-Workflows oder PowerShell-Aufrufe. So lassen sich Produktionsüberwachungen, Energieanalysen oder Wartungsszenarien automatisiert abbilden.

Architektur der Integration

Fabric ist als reine SaaS-Plattform konzipiert. Alle Dienste sind ohne lokale Installation oder Serverbereitstellung verfügbar. Innerhalb eines Arbeitsbereichs stehen sämtliche Funktionen zur Verfügung: Data Engineering, Data Warehouse, Data Science, Real-Time Analytics und Business Intelligence. Während in klassischen Azure-Setups Data Factory, Synapse Analytics und Power BI getrennt betrieben und abgerechnet wurden, integriert Fabric diese Komponenten in einer konsistenten Oberfläche mit einheitlichem Kapazitätsmodell.

Der OneLake-Katalog ermöglicht die Datenverwaltung. Er listet alle Assets, ihre Herkunft, Nutzung und Klassifikation. Microsoft Purview steuert Zugriffsrechte, Compliance und Vertraulichkeitsstufen. Datenkennzeichnungen werden automatisch vererbt, sodass der Schutz vertraulicher Informationen durchgängig erhalten bleibt. Benutzer können direkt im Katalog Zugriffsanfragen stellen, Freigaben erteilen oder Berechtigungen granular steuern. Fabric verwendet ein offenes Speicherformat. Delta Parquet ersetzt proprietäre Strukturen früherer Microsoft-Dienste. Das erlaubt eine reibungslose Zusammenarbeit mit externen Plattformen wie Databricks oder Snowflake.

KI-Integration auf Plattformebene

Ein wesentlicher Bestandteil der neuen Fabric-Generation ist die enge Anbindung an Azure-KI-Services. Diese Integration eröffnet zwei Zugangswege. Vorkonfigurierte KI-Modelle nutzen direkt Fabric, ohne zusätzliche Authentifizierung zu verwenden. Sie werden über Fabric-Kapazität abgerechnet und unterstützen REST-APIs, SynapseML und Python-SDKs. Dazu gehören:

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung
  • Sprachmodelle GPT-5, GPT-4.1, GPT-4.1-mini, GPT-4o-mini
  • Einbettungsmodell text-embedding-ada-002
  • Textanalyse mit Sprachenerkennung, Stimmungsanalyse, Schlüsselbegriffserkennung, PII-Filterung, Entitätsverknüpfung
  • Azure AI Translator mit Übersetzungs- und Transliterationsfunktionen

Der zweite Einsatz ist Bring Your Own Key (BYOK). Organisationen können eigene Azure-Instanzen nutzen und Schlüssel selbst verwalten, falls spezialisierte KI-Dienste oder Regionenanforderungen bestehen. Die Verbrauchsraten sind transparent definiert. GPT-5 nutzt 42 CU-Sekunden (Compute Unit) pro 1.000 Eingabetoken, GPT-4.1-mini 13,44, GPT-4o-mini 5,04. Ada benötigt 3,36 CU-Sekunden für Einbettungen. Textanalyse- und Übersetzungsdienste werden in 33.613 bzw. 336.134 CU-Sekunden pro Einheit abgerechnet.

Für Unternehmen bedeutet diese Kapazitätslogik eine transparente und kalkulierbare Nutzung von KI-Ressourcen. Die Abrechnung pro Compute-Unit-Sekunde erlaubt präzise Kostensteuerung, da jede Modellabfrage messbar bleibt. Teams können den Ressourcenverbrauch ihrer Workloads beobachten, Budgets exakt planen und den Einsatz leistungsstärkerer Modelle gezielt an geschäftskritische Anwendungen koppeln. Die granularen CU-Werte erleichtern außerdem die Vergleichbarkeit zwischen Sprach-, Analyse- und Übersetzungsdiensten und schaffen damit eine einheitliche Grundlage für Kapazitätsplanung, Kostenoptimierung und Performancebewertung im operativen Betrieb.

Die KI-Workloads in Microsoft Fabric laufen auf einer mehrschichtigen, containerisierten Architektur innerhalb der Azure-Compute-Infrastruktur. Jede Ausführung eines Modells wird in isolierten Compute-Containern gestartet, die über Fabric-Kapazitätseinheiten (CU) skaliert werden. Diese Trennung stellt sicher, dass Analysejobs, Pipelines und KI-Abfragen parallel ausgeführt werden können, ohne sich gegenseitig zu blockieren. Fabric nutzt für KI-Dienste dedizierte Endpunkte mit REST- und SynapseML-Schnittstellen.

Die Datenverarbeitung erfolgt dabei direkt im OneLake-Umfeld, wodurch Modelle Eingabedaten ohne Zwischenspeicherung auslesen und Ergebnisse unmittelbar an Pipelines oder Notebooks zurückgeben können. Über den integrierten Kapazitätsmonitor werden Latenzzeiten, CU-Verbrauch und Laufzeitmetriken pro Modell und Sitzung protokolliert. Dadurch lassen sich Antwortzeiten, Netzwerkauslastung und Kosten pro Workload technisch nachvollziehen. KI-Aufrufe über Spark werden im Spark-Abrechnungszähler erfasst. Die Autoscale-Funktion ist für KI-Dienste deaktiviert, um eine Kostenkontrolle zu wahren.

Fabric steuert die Zuweisung von Rechenleistung über einen zentralen Scheduler, der alle Workloads, Spark, Synapse, Echtzeit-Streams und KI-Aufrufe priorisiert und dynamisch skaliert. Jeder Vorgang wird einer Kapazitätsinstanz zugeordnet, die CPU-, GPU- und Speicherressourcen nach Bedarf reserviert. KI-Aufrufe mit großen Kontextfenstern, etwa GPT-5 oder GPT-4.1, nutzen GPU-basierte Knoten, während leichtere Modelle wie GPT-4o-mini oder Ada auf CPU-optimierten Einheiten laufen. Die Plattform verwaltet Zwischenergebnisse im OneLake-Cache, um nachfolgende Modellabfragen mit denselben Datensätzen ohne erneutes Laden zu beschleunigen. Über Fabric-Metriken lassen sich Durchsatz, Tokenverarbeitung und Ressourcenbelegung in Echtzeit überwachen. Administratoren können Schwellenwerte definieren, um die Priorität von Workloads zu steuern und Engpässe in der Kapazitätsnutzung zu vermeiden.

Verbindung von KI und Datenanalyse

Fabric ist auf die Verbindung von KI-Workloads und analytischer Auswertung ausgelegt. KI-Modelle können direkt auf Daten im OneLake zugreifen, ohne Kopien oder Zwischenspeicher. Die Integration mit SynapseML, REST-APIs und der OpenAI-Python-Bibliothek erlaubt es, Text-, Sprach- oder Bildmodelle unmittelbar auf operative Datensätze anzuwenden. Data Factory unterstützt automatisierte Transformationen, validiert Schemaabweichungen, erkennt Konflikte und dokumentiert sie. Copilot erzeugt automatisch Beschreibungen und Abfragen. Die klassische Bronze-Silver-Gold-Architektur wird nativ unterstützt, inklusive Pipeline-Visualisierung.

Die Plattform ermöglicht generative Szenarien direkt in den Arbeitsbereichen. Nutzer können Tabellen per Prompt restrukturieren, Spalten umbenennen oder Transformationen beschreiben. Copilot erzeugt SQL- oder DAX-Ausdrücke automatisch und erklärt zugleich die Logik hinter jedem Schritt.

Copilot und generative Analyse

Copilot in Fabric verbindet Datenaufbereitung, Modellierung und Visualisierung über natürliche Sprache. Anwender formulieren Prompts direkt in Notebooks, Pipelines oder Power BI-Berichten. Copilot erstellt SQL-Abfragen, DAX-Formeln oder Python-Transformationen automatisch und erklärt zugleich, was ein Datenfluss oder ein Notebook tut.

In Power BI ergänzt Copilot die bisher bekannten Import- und DirectQuery-Modi um den Direct-Lake-Zugriff. Damit kombiniert Fabric Echtzeit-Datenabfrage mit der Geschwindigkeit lokaler Modelle. Nutzer können Fragen an ihre Daten richten und erhalten sofort Diagramme, Textzusammenfassungen oder Prognosen. Die Plattform generiert die passenden Visualisierungen, identifiziert Einflussfaktoren und liefert erklärende Narrative.

Die Copilot-Erweiterung für Power BI erstellt Visuals auf Basis natürlicher Sprache, identifiziert Schlüsselmetriken und kann Prognosen ableiten. Analysten können komplexe Berechnungen beschreiben und erhalten den generierten Code direkt einsatzbereit.

Verbindung zu Azure AI Foundry

Microsoft positioniert Fabric als Datenfundament für Azure AI Foundry, die Entwicklungsumgebung für Multi-Agent-Systeme. Foundry übernimmt die Erstellung, Orchestrierung und Überwachung von Agenten, Fabric stellt die zugrunde liegenden Daten, Sicherheitsmechanismen und Analysen bereit. Außerdem bietet Foundry Observability, Evaluationsmetriken, Content-Safety-Filter und Multi-Agent-Orchestrierung. Diese Agenten können zum Beispiel Betrugserkennung, Produktempfehlungen oder Compliance-Prüfungen übernehmen.

Ein typisches Beispiel stammt aus der Finanzbranche: Ein Fraud-Agent prüft Transaktionen in Echtzeit, ein Recommendation-Agent schlägt Produkte oder Investments vor, ein Compliance-Agent überwacht Regeltreue. Fabric analysiert die Leistungsdaten, erkennt Anomalien und liefert Rückmeldungen an die Entwicklung. Im Demo-Szenario „Contoso Doors“ erkennt Fabric in einem Lakehouse Kreditkartendaten, markiert sie als vertraulich, entfernt sie über ein Spark-Notebook und stuft den Datensatz nach Korrektur als „general“ ein. Anschließend bindet Foundry über ein GPT-4-Modell Produktdaten aus AWS S3 per Shortcut ein und nutzt diese Daten für agentenbasierte Chat-Anwendungen.

Offene Protokolle und Ökosystem

Fabric bleibt offen für externe Quellen und Agenten anderer Anbieter. Über standardisierte Schnittstellen können auch Nicht-Microsoft-Modelle integriert werden. Die Plattform unterstützt das Open-Protocol MXGPT-A, das Interaktion zwischen Agenten verschiedener Clouds ermöglicht. Die Lösung integriert OneLake-Sicherheit, OneLake-Katalog und Microsoft Purview zu einem einheitlichen Governance-System. Sensitivitätslabels werden automatisch vererbt, Berechtigungen zentral verwaltet und Zugriffe protokolliert. Der gesamte Datenfluss von Shortcuts über Mirror bis zu Pipelines bleibt dadurch nachvollziehbar. Compliance-Kontrollen sind tief in die Benutzeroberfläche eingebettet. Daten werden klassifiziert, bevor sie in Echtzeit von KI-Modellen verarbeitet werden.

Die Nutzung von Fabric ist kapazitätsbasiert. Jede Einheit (CU) repräsentiert Rechenzeit und wird je nach Workload, zum Beispiel Spark, Synapse, Real-Time Intelligence oder KI-Dienst, gemessen. Unternehmen können Fabric zunächst über eine 60-Tage-Testversion mit eigenständiger Kapazität pro Benutzer erproben.

Datenanalyse als KI-Motor

Die Architektur von Fabric folgt der Maxime „keine KI ohne Daten“. Die Plattform ersetzt isolierte Dienste wie Synapse, Data Factory und Power BI durch ein konsolidiertes System. Datenintegration, Transformation, Speicherung und Auswertung greifen ineinander. Fabric erzeugt damit die Basis für jede Form von maschinellem Lernen und generativer Intelligenz. KI-Modelle sind auf konsistente, vertrauenswürdige Daten angewiesen. Fabric soll dabei sicherstellen, dass diese Daten in Echtzeit verfügbar, klassifiziert, gesichert und analysierbar bleiben, unabhängig von Quelle oder Cloud.

(ID:50612784)