Data + AI Summit 2025 – Die wichtigsten Neuerungen von Databricks im Überblick 

Beitragsbild: Databricks DATA + AI SUMMIT 2025

Der Data + AI Summit 2025 in San Francisco hat gezeigt, wie sich Databricks als zentrale Plattform für Daten, Machine Learning und generative KI positioniert.

Hier finden Sie die wichtigsten Informationen in 5 Minuten zusammengefasst:

Die Ankündigungen drehen sich um mehr Benutzerfreundlichkeit, mehr Automatisierung – und um eine klare strategische Ausrichtung:

Databricks will zur AI-nativen Plattform für Unternehmen werden.

Bei vielen unseren Kunden sehen wir, wie Databricks als zentrale Plattform für AI & BI als Beschleuniger für KI und Datenprojekte fungiert.  Wir fassen die wichtigsten Neuerungen für Sie zusammen – aus der Perspektive von Datasolut, einer KI-Beratung mit Fokus auf moderne Datenplattformen und AI-Projekte.

Lassen Sie uns starten!

 

1. Lakebase – Operative Datenbank für KI-Agenten und mehr 

 
Ein Lakebase ist eine transaktionale Datenbank, die direkt auf offenen Formaten (z. B. Delta Lake) auf einem Cloud-Object-Storage läuft – ohne spezielle Speicher-Engine oder proprietäre Formate. Sie verbindet:

  • Schema-on-read und Schema Enforcement
  • ACID-Transaktionen wie in klassischen Datenbanken
  • Niedrige Latenzzeiten für Lese- und Schreibzugriffe
  • SQL-Unterstützung für operative Workloads
  • Skalierung und Kostenstruktur eines Data Lakes

Im Kern ist ein Lakebase eine betriebsfähige serverless PostgreSQL-Datenbank mit den Vorteilen einer Lakehouse-Architektur die Databricks durch die Übernahme von Neon integriert hat.

Durch die Lakehouse Architektur eignet sich Lakebase ideal für hybride Workloads und für:

  • Online-Serving von ML-Features 
  • Schnelle Datenzugriffe durch KI-Agenten 
  • Echtzeit-Reporting oder APIs 

Dank der Trennung von Storage und Compute kann Lakebase flexibel skalieren – ideal für agentenbasierte und reaktive Workloads. Da die Datenbank serverless ist glänzt sie besonders in Scenarien wo unregelmäßige Abfragen und eine schnelle Zugriffszeit gefragt ist. 

Ab wann ist Lakebase verfügbar: Aktuell in Private Preview (Q2/Q3 2025 erwartet) 

2. Lakebridge – SQL- und ETL-Migration automatisieren 

Mit Lakebridge stellt Databricks ein Migrationstool vor, das SQL- und ETL-Prozesse aus klassischen Tools (z. B. Informatica) automatisiert ins Lakehouse überführt. Es soll dabei bis zu 80% der Migrationsaufgaben automatisiert übernehmen und diese um das 2-fache Beschleunigen.

Insbesondere richtet es sich an Unternehmen, die von klassischen Data Warehouses (z. B. Snowflake) auf ein Lakehouse-Modell mit Databricks SQL umsteigen möchten.

Hier kommen Sie zum Snowflake vs. Databricks Artikel, in dem wir die beiden Plattformen und ihre Vor- und Nachteile miteinander vergleichen.

Viele unserer Kunden betreiben ältere (on-prem) Datenbanken wie Oracle und planen aus Kostengründen und zur Reduktion des TCO eine Migration. Genau hierbei kann Lakebridge (jetzt open-source) unterstützen. 

Was macht Lakebridge konkret?

Lakebridge analysiert und migriert:

KomponenteMigration zu Databricks SQL
SQL-SkripteIn kompatiblen Spark SQL / Delta SQL Code
TabellenstrukturenIn Delta Lake Tabellen
Views und Stored ProceduresIn Spark SQL Views / Funktionen
Zeitpläne, PipelinesIn Workflows oder DLT Pipelines


Dabei wird ein Großteil der Migration automatisch übersetzt und angepasst, inklusive:

  • SQL-Syntax-Konvertierung
  • Mapping proprietärer Funktionen
  • Rewriting von Views/Procedures
  • Analysieren von Abhängigkeiten

Die Eckpunkte: 

  • Profiler & Assessment (wie komplex ist meine aktuelle Codebase) 
  • SQL-Konvertierung (automatische Konvertierung basierend auf GenAI) – spart bis zu 80% an Zeit 
  • Validierung der Ergebnisse gegen Quellsysteme 

Ziel: DWH-Migrationen erheblich beschleunigen und die technischen Einstiegshürden senken. 

Unsere Einschätzung: Das Tool ist Ideal für Unternehmen, die ihre Cloud-Migration beschleunigen wollen um bis zu 80% der Entwicklungszeit einzusparen.

Ab wann wird es Lakebridge geben?: Lakebridge ist seit dem 4. Juni 2024 öffentlich verfügbar – und zwar als kostenloses Open-Source-Tool auf GitHub.

Hier der offizielle Link zum Repository: https://github.com/databrickslabs/lakebridge

3. Agent Bricks – Agenten einfach entwickeln und verbessern 

 
Agent Bricks ist ein Framework und Toolkit innerhalb von Databricks, mit dem Unternehmen

  • eigene KI-Agenten erstellen können,
  • diese Agenten mit strukturierter Unternehmenslogik versorgen,
  • und kontrollierbarsicher sowie skalierbar betreiben.

Wir sind offizieller Databricks Partner und helfen mit Ihren Fragen oder Ihrem Setup. Starten Sie jetzt Ihre Databricks Beratung mit Datasolut!

Dabei geht es nicht um einfache Chatbots, sondern um intelligente Agenten, die

  • SQL-Abfragen selbstständig formulieren und ausführen,
  • Daten transformieren,
  • Reports generieren,
  • Prozesse in Bewegung setzen oder
  • mit APIs interagieren.

Agent Bricks geht über typische LLM-Anwendungen (Fragen an PDFs oder Dashboards) hinaus. Es ermöglicht Unternehmen, agentische KI-Systeme zu bauen, die nicht nur „antworten“, sondern handeln – auf Basis von Live-Daten und strengen Sicherheitsregeln.

Das neue Framework zur Erstellung und Optimierung von KI-Agenten bringt wichtige Features wie:

  • Deklarative Agenten-Erstellung 
  • Auto-Evaluation mit integriertem Qualitätsfeedback 
  • Agent Learning from Human Feedback 

Unsere Einschätzung: Das Tool ist Ideal für Unternehmen, die Agenten direkt auf bestehenden Databricks-Daten entwickeln und betreiben möchten. 

Ab wann?: Als private Preview seit Juni 2025 verfügbar

Warum Lakehouses die Daten-Architektur der Zukunft sind

In unserem Whitepaper erfahren Sie:

  • Wie sich ein Data Lakehouse von anderen Architekturen unterscheidet.
  • Wie Sie durch ein Lakehouse KI-Anwendungen schneller umsetzen.
  • Wie Sie ihr internes Team befähigen selbstständig KI Projekte zu implementieren.
Jetzt herunterladen

4. Lakeflow & Deklarative Pipelines (vormals DLT) 

 
Databricks öffnet die Delta Live Tables (DLT) unter dem Namen Lakeflow Declarative Pipelines für die Open Source Community.

Die Verbesserungen im Überblick: 

  • Vereinfachte Verarbeitung von CDC-Daten 
  • Bessere Wartbarkeit und Performance 
  • Unified Job Orchestration über Lakeflow Jobs 

Lakeflow Deklarative Pipelines ermöglichen es, ETL-Jobs in YAML zu definieren, anstatt sie in PySpark oder SQL zu programmieren. Dabei beschreibst man lediglich was passieren soll – nicht wie genau es passiert.

Hier ein Beispiel:

yamlKopierenBearbeiten

pipeline:
name: sales_data_pipeline
sources:
- name: raw_sales
type: delta
transforms:
- name: clean_sales
input: raw_sales
type: sql
query: SELECT * FROM raw_sales WHERE country = 'DE'
targets:
- name: cleaned_sales
type: delta

Die Pipelines richten sich speziell an

  • Unternehmen mit vielen wiederkehrenden ETL-Jobs
  • Data Engineers, die zuverlässige und skalierbare Workflows bauen wollen
  • Teams, die Wartbarkeit und Lesbarkeit erhöhen wollen

Der Unterschied zu DLT (Delta Live Tables)

MerkmalDLTLakeflow Deklarative Pipelines
DefinitionPython/SQL CodeYAML (deklarativ)
ZielgruppeEntwickler:innenData Engineers, Low-Code-Teams
FokusDatenqualität, CDCOrchestrierung + Wartbarkeit
FlexibilitätHochHoch, aber stärker strukturiert

DLT bleibt bestehen – Lakeflow erweitert das Spektrum um eine deklarativere, orchestrierte und CI/CD-fähige Variante.

Unsere Meinung: Die deklarativen Pipelines von Lakeflow stellen einen entscheidenden Fortschritt für produktionsreife ETL-Prozesse auf Databricks dar. Durch den deklarativen Ansatz in YAML werden die Erstellung, Wartung und Versionierung von Pipelines deutlich einfacher und übersichtlicher, was sie ideal für den Einsatz in CI/CD-Umgebungen macht.

Besonders überzeugt haben uns die enge Integration mit Delta Lake, die eingebaute Orchestrierung, die automatische Fehlerbehandlung und die Beobachtbarkeit. All das musste bisher manuell umgesetzt werden. Für viele unserer Kunden ist das ein echter Gamechanger in Richtung skalierbarer und wartbarer Datenprodukte.

Ab wann?: Ab sofort (Juni 2025) 

5. Lakeflow Designer – ETL per Klick oder Spracheingabe 

Der Lakeflow Designer ist eine visuelle Entwicklungsumgebung, in der Benutzer mit wenigen Klicks:

  • Datenquellen anbinden (z. B. SAP, Salesforce, Amazon S3)
  • Transformationen konfigurieren (z. B. Filter, Joins, Aggregationen)
  • Zielsysteme definieren (z. B. Delta Lake, SQL Warehouse, Power BI)

Dabei erzeugt der Designer im Hintergrund deklarative YAML-Pipelines, die direkt auf Databricks Compute ausgeführt werden können – inklusive Orchestrierung, Logging und Monitoring. 

Das visuelle UI dient dem Erstellen von ETL-Prozessen und ergänzt diese um Sprachsteuerung und eine vereinfachte Logikmodellierung.

  • Niedrigere Einstiegshürde für Fachanwender 
  • Integrierbar mit bestehenden Pipelines und Workflows 

Datasoluts Einschätzung: Das erste Mal, das seine No-Code Lösung auf Databricks präsentiert wird. Unserer Einschätzung nach genau der richtige Weg, damit man sich gegen Microsoft Fabric und andere Tools am Markt behaupten kann. Denn oft entscheiden die benötigten Skills der Mitarbeiter über die Auswahl der passenden Datenplattform.  

Ab wann?: Private Preview beginnt im Sommer 2025 

6. Databricks One – Das UI für nicht-technische Nutzer 

Databricks One ist keine neue Funktion oder Produktlinie, sondern eine vereinheitlichte UI- und UX-Initiative.

Sie bringt eine modernisierte Oberfläche und eine klare Struktur für die Kernbereiche:

  • Daten (Datenkatalog, Tabellen, Modelle)
  • Notebooks & Code (Entwicklung und Analyse)
  • Jobs & Pipelines (Workflows und Automatisierung)
  • KI-Agenten & Dashboards (Interaktive Interfaces)

Das Ziel von Databricks One: Die Plattform soll sich wie ein Produkt anfühlen – nicht wie ein Sammelsurium von Tools.

Unsere Meinung: Ein Feature was wir persönlich als sehr gelungen empfinden, obwohl es keine bahnbrechende Innovation ist. Bis dato hat ein einfacher Zugang für Databricks von nicht technischen Nutzern gefehlt. Es gab zwar den Weg über Databricks Apps und Genie Spaces aber das UI von Databricks wurde immer vollumfänglich angezeigt.

Dies kann schnell zu Überforderung von nicht technischen Nutzern führen und eine abgespeckte Business UI ist eine sehr gute Neuerung. 

Mit Databricks One entsteht eine zentrale Arbeitsumgebung für Management und Fachbereiche: 

  • Zugang zu Dashboards, Databricks Apps und AI-Interfaces 
  • „Genie Space“ für Abfragen in natürlicher Sprache 
  • Fokus auf Visualisierung und Bedienbarkeit 

Ab wann verfügbar?: Private Preview verfügbar seit Juni 2025 

Sie möchten die neuen Databricks-Funktionen gezielt einsetzen und Ihre Datenplattform fit für AI machen?

Datasolut ist Ihr zertifizierter Experte für Databricks und begleitet Sie von der Strategie bis zur operativen Umsetzung – effizient, praxisnah und end-to-end.

Jetzt unverbindliches Erstgespräch buchen.

Was bedeutet das für deutsche Unternehmen? 

Databricks wird offener für Business Anwender und spannt sein Netz weiter um die zentrale Datenplattform für alle Datenprodukte zu werden.

Von GenAI bis hin zu Agenten und SQL Datenbanken gab es eine breite Anzahl an Neuerungen. Im Gegensatz zum letzten Summit sind viele Änderungen sofort wirksam oder kommen innerhalb von kürzester Zeit. Dies bedeutet, dass man nicht sehr lange auf die Verbesserungen warten muss, sondern direkt die Vorteile nutzen kann. 

Für viele Unternehmen die noch nicht mit Databricks gestartet haben, sind dies positive Signale und nach unserer Erfahrung benötigt ein Unternehmen, welches Databricks im Einsatz hat erstmal keine weiteren Tools und ist in allen Bereichen gut abgedeckt. 

Databricks zeigt mit dem Summit 2025 eine klare Vision: AI-ready Plattform für alle Rollen im Unternehmen. Wer früh einsteigt, kann schnellere Time-to-Value, niedrigere Betriebskosten und mehr AI-Effizienz realisieren. 
 
Wir bei Datasolut unterstützen Unternehmen genau dabei – strategisch und operativ. Kontaktieren Sie uns jetzt!

Profilbild von Vinzent Wuttke Geschäftsführer Datasolut GmbH
Vinzent Wuttke
Geschäftsführer

Lassen Sie uns sprechen und Ihr Potenzial entdecken.

Ob und wie künstliche Intelligenz Ihnen weiterhelfen kann, können Sie in einem ersten, unverbindlichen Gespräch mit uns herausfinden.

In diesem Gespräch erfahren Sie:

  • Wie Ihr Use-Case technisch am besten umgesetzt werden kann
  • Wie wir maximal sicher mit Ihren Kundendaten umgehen
  • Wie lange wir für die Umsetzung benötigen und wie ein konkreter Projektplan aussehen könnte
Jetzt Erstgespräch vereinbaren

FAQ – Die wichtigsten Fragen schnell beantwortet

Welche neuen Funktionen hat Databricks beim Summit 2025 vorgestellt?

Zu den wichtigsten Neuerungen zählen Lakebase (serverlose operative Datenbank), Lakebridge (automatisierte Migration), Agent Bricks (KI-Agenten Framework), Lakeflow (deklarative ETL-Pipelines) sowie Databricks One – eine neue Benutzeroberfläche für Business-Anwender.

Wie unterstützt Lakebridge die Migration zu Databricks?

Lakebridge automatisiert die Migration von SQL-Code, ETL-Prozessen und Datenmodellen aus Tools wie Informatica, Oracle oder Snowflake zu Databricks. Es spart bis zu 80 % an manueller Arbeit und senkt die Hürden beim Umstieg auf ein Lakehouse.

Was ist der Unterschied zwischen Delta Live Tables (DLT) und Lakeflow?

DLT bleibt bestehen, wird aber durch Lakeflow erweitert. Lakeflow bietet deklarative YAML-Pipelines, bessere Orchestrierung, einfachere Wartung und eignet sich ideal für CI/CD-Workflows und produktionsreife ETL-Prozesse.

Was ist Databricks One?

Databricks One ist eine vereinheitlichte Benutzeroberfläche für Daten, Workflows, Notebooks und KI-Agenten. Zielgruppe sind nicht-technische Nutzer aus Management und Fachbereichen, die einfachen Zugang zu Dashboards und KI-Funktionen benötigen.

Bietet Datasolut Unterstützung bei der Einführung dieser neuen Funktionen?

Ja, als zertifizierter Databricks-Partner begleiten wir Unternehmen bei der strategischen Einführung und operativen Umsetzung von Databricks – von der Migration über die KI-Agentenentwicklung bis hin zur Low-Code-Plattform-Nutzung.

Weiterlesen

Beitragsbild Databricks Lakehouse Federation vs. Lakeflow Connect
Data Platform Vor 4 Tagen

Was ist besser: Lakeflow Connect oder Lakehouse Federation?

Die Databricks-Plattform entwickelt sich rasant weiter – besonders im Bereich der Datenintegration. Zwei zentrale Konzepte stehen dabei im Fokus: Lakehouse Federation und Lakeflow Connect. Beide Ansätze ermöglichen den Zugriff auf […]
Beitragsbild Power BI Integration in Databricks
Databricks Vor 1 Monat

Power BI und Databricks: die wichtigsten Integrationspfade

Die Integration von Power BI und Databricks ist ein zentrales Thema in vielen Unternehmen, da sie den Brückenschlag zwischen einer skalierbaren Datenplattform und flexibler Business-Intelligence (BI) ermöglicht. Als Partner von […]
Beitragsbild: Delta Sharing
Databricks Vor 1 Monat

Databricks Delta Sharing – Am Beispiel von Zalando

Databricks hat mit Delta Sharing ein offenes Protokoll geschaffen, das den Austausch von Daten zwischen Unternehmen sicher und zuverlässig ermöglicht. Bisher waren die verfügbaren Data Sharing-Methoden fragmentiert: SFTP-Transfers, CSV-Dateien, APIs oder proprietäre […]
Beitragsbild zum Blogbeitrag "Databricks Serverless Compute"
Databricks Vor 2 Monaten

Databricks Serverless oder Classic Compute? Der Praxis-Guide

Die Entscheidung, ob Databricks Serverless Compute im bestehenden Workspace aktiviert werden sollte, ist für viele Unternehmen eine wichtige strategische Auswahl. Dieser Beitrag erklärt, wie Serverless in Databricks funktioniert, zeigt die Unterschiede zu […]
Beitragsbild: Der große Data Platform Vergleich 2025
Data Platform Vor 3 Monaten

Der große Data Platform Vergleich 2025

Daten sind schon lange nicht mehr nur ein Nebenprodukt des Tagesgeschäfts, sondern die Grundlage für Entscheidungen, Innovation und Effizienz. Je größer jedoch die Datenmengen werden, desto wichtiger wird die Frage: […]
Strategien zur Migration des DWH ins Lakehouse
Data Platform Vor 4 Monaten

Migrationsstrategien für Ihr Data Lakehouse

Viele Unternehmen stehen vor der Herausforderung, ihr etabliertes Data Warehouse in ein modernes Data Lakehouse zu überführen. Neben hohen Kosten und komplexen Projektrisiken gilt es vor allem, wertvolle Business-Logik, jahrzehntelange […]
Beitragsbild SAP Databricks
Databricks Vor 6 Monaten

SAP Databricks vs. Databricks Entscheidungshilfe

Was ist der Unterschied zwischen SAP Databricks vs Databricks? SAP und Databricks bündeln Ihre Stärken in einem neuen Produkt: SAP Databricks. Wie sich das Produkt vom klassischen Databricks unterscheidet, welche […]
Beitragsbild Power BI und Databricks Best Practices
Databricks Vor 8 Monaten

Power BI und Databricks: Best Practices für maximale Performance

Die Integration von Microsoft Power BI mit Databricks ermöglicht es Unternehmen, umfangreiche Datenmengen effizient zu analysieren und zu visualisieren. Als erfahrene KI-Beratungsfirma und stolzer Databricks- und Microsoft-Partner wissen wir, worauf […]
Beitragsbild SAP Databricks.
Databricks Vor 9 Monaten

SAP und Databricks kooperieren: KI für alle Geschäftsanwendungen

Am 13. Februar 2025 gaben SAP und Databricks ein Produkt bekannt, welches aus der Kooperation entstand: SAP Databricks. SAP Databricks wird ab sofort von SAP als Teil der SAP Business […]
Newsletter und Updates

Sie sehen gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Erstgespräch vereinbaren