Erstgespräch vereinbaren

Aufbau einer zentralen Datenplattform in Microsoft Fabric

Auf einen Blick:

  • Branche: Eventmanagement
  • Projektziel: Aufbau einer zentralen Datenplattform in Microsoft Fabric, um Ticket- und Kundendaten aus mehreren Systemen zu integrieren
  • Tools: Microsoft Fabric, SFTP-Server, APIs, Python Notebooks, Python/PySpark
  • Dauer: knapp 12 Wochen
  • Anzahl beteiligter Mitarbeiter: 10

Bisher agierte unser Kunde – einer der größten Konzert- und Festivalveranstalter Europas – ohne einheitliche Datenbasis. Wertvolle Informationen, wie Verkaufsdaten externer Ticketplattformen, flossen nicht zentral zusammen, sondern verblieben in Datensilos ohne Kundenbezug.

Das Ergebnis: Ein lückenhaftes Kundenverständnis und eine fehlende Kontrolle über die Datenqualität, insbesondere bei den Postanschriften.

Während der Implementierung deckten wir zudem eine kritische Lücke in der Datenbereitstellung auf: Ein Dienstleister lieferte statt eines Full-Extracts lediglich Momentaufnahmen aktueller Events, was die historische Analyse zunächst einschränkte.

Vor diesen Herausforderungen stand unser Kunde

Dezentralisierte, externe Datenbasis

Kundendaten liegen verteilt in externen Systemen und verhindern ein vollständiges Kundenprofil für zielgerichtetes Marketing.

Fehlende Datenqualitätsprüfung

Ohne Datenqualitätsprüfungen bleiben fehlerhafte Daten unentdeckt und führen zu ungenauer oder falscher Kundenansprache.

Kein analysefähiger Datenzugriff

Es bestand keine Datenbasis, die für Analysezwecke nutzbar war. Dadurch waren weder Forecastings, Segmentations noch Dashboards möglich. 

Aufbau des Lakehouse auf Microsoft Fabric

Wir haben das Projekt als Proof of Concept (PoC) gestartet und nach erfolgreichem Abschluss in ein skalierbares Produktivsystem überführt. Als technisches Fundament haben wir dafür Microsoft Fabric als zentrale Datenplattform implementiert.

Unsere Lösung

Architektur der Fabric Plattform

In der ersten Phase haben wir Ticketdaten einer Quelle via SFTP angebunden, die seither automatisiert und inkrementell auf nächtlicher Basis integriert werden.

Die Datenverarbeitung erfolgt entlang einer Medallion-Architektur, in der wir ein intensives Data Cleaning etabliert haben. Hierbei bereinigen und vereinheitlichen wir Adressdaten (Städte, PLZ, Länderkürzel) systematisch. Zur Absicherung haben wir eine zweistufige Qualitätskontrolle integriert: Soft Checks neutralisieren fehlerhafte Felder durch NULL-Werte, während Hard Checks inkonsistente Datensätze in eine Quarantäne-Tabelle aussteuern. Dies stellt sicher, dass nur valide Daten den Gold-Layer erreichen, und ermöglicht es uns gleichzeitig, Ursachen für Datenfehler im Quellsystem rückwirkend zu identifizieren und zu beheben.

Im Gold-Layer führen wir das Mapping auf das Zielmodell der neu eingeführten Customer Data Platform (CDP) durch und steuern den Datentransfer in enger Kooperation mit dem CDP-Anbieter. Inzwischen haben wir zwei weitere Ticketsysteme erfolgreich integriert.

Den Grundstein für die Zukunft haben wir bereits gelegt: In einem gemeinsamen Workshop haben wir weitere Use Cases definiert und für die Roadmap priorisiert mit Hilfe des bewährten ICE-Frameworks.

ICE-Framework_Tier-System
Das ICE Framework zur Priorisierung von Use Cases
Jetzt Datenplattform mit Datasolut aufbauen
Data Platform & Lakehouse

Vom Fundament zur Vision: Projektergebnisse und priorisierte Data & AI-Roadmap

Innerhalb von drei Monaten haben wir die Basis für die neue datengetriebene Architektur unseres Kunden geschaffen. Wir haben eine produktive End-to-End-Pipeline aufgebaut, die Ticketdaten nach höchsten Qualitätsstandards prozessiert und direkt in die Customer Data Platform überführt.

Um den langfristigen Erfolg zu sichern, haben wir zudem die strategische Planung übernommen: Aus 12 neu identifizierten Data & AI-Anwendungsfällen haben wir die Top 4 mithilfe des ICE-Frameworks priorisiert. Damit haben wir nicht nur ein funktionierendes System übergeben, sondern auch eine klare, wertorientierte Roadmap für die kommenden Monate entwickelt.

Die Ergebnisse im Überblick

Grundlage für eine Moderne AI & Analytics-Ready Data Infrastruktur

Mit der Implementierung von Microsoft Fabric und der Datenintegration entlang der Medallion-Architektur haben wir eine zukunftsfähige Datenplattform geschaffen. Sie dient ab sofort als skalierbares Fundament für weitere Use Cases und den gezielten Einsatz von AI-Technologien.

Ergänzung des Kundenprofils um Transaktionsdaten

Durch die Integration externer Ticketdaten ist es uns gelungen, die Kundenprofile um wertvolle Transaktionshistorien zu ergänzen. Dies schafft die notwendige Datengrundlage für hochgradig personalisierte und zielgerichtete Marketingmaßnahmen.

Erhöhung der Datenqualität

Unser Fokus auf Datenqualität zahlt sich direkt aus: Mithilfe des neuen Validierungsprozesses haben wir eine Fehlerquote von 2 % im Rohdatenbestand isoliert. Darüber hinaus ist es uns gelungen, mehrere tausend fehlerhafte Datenfelder proaktiv zu korrigieren, wodurch wir eine saubere und verlässliche Basis für alle weiteren Analysen garantieren.

Sie wollen mit Fabric starten? Dann sind Sie bei uns an der richtigen Adresse!

Fabric Beratung

Profilbild von Vinzent Wuttke Geschäftsführer Datasolut GmbH
Vinzent Wuttke
Geschäftsführer

Ihr nächster Schritt mit uns!

Wenn Sie aktuell prüfen, ob Microsoft Fabric der richtige Schritt ist, hilft ein kurzer Austausch mehr als weitere Recherchen. In einem Orientierungsgespräch klären wir.

  • ob Fabric in Ihrer Situation sinnvoll ist
  • welcher Einstieg den größten Nutzen bringt
  • wie die nächsten Schritte aussehen könnte
Eignungs-Check: Lohnt sich Fabric für Sie?
Newsletter und Updates

Sie sehen gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Erstgespräch vereinbaren