Der Data + AI Summit 2025 in San Francisco hat gezeigt, wie sich Databricks als zentrale Plattform für Daten, Machine Learning und generative KI positioniert.
Hier finden Sie die wichtigsten Informationen in 5 Minuten zusammengefasst:
Die Ankündigungen drehen sich um mehr Benutzerfreundlichkeit, mehr Automatisierung – und um eine klare strategische Ausrichtung:
Databricks will zur AI-nativen Plattform für Unternehmen werden.
Bei vielen unseren Kunden sehen wir, wie Databricks als zentrale Plattform für AI & BI als Beschleuniger für KI und Datenprojekte fungiert. Wir fassen die wichtigsten Neuerungen für Sie zusammen – aus der Perspektive von Datasolut, einer KI-Beratung mit Fokus auf moderne Datenplattformen und AI-Projekte.
Lassen Sie uns starten!
Für Sie auch interessant:
1. Lakebase – Operative Datenbank für KI-Agenten und mehr
Ein Lakebase ist eine transaktionale Datenbank, die direkt auf offenen Formaten (z. B. Delta Lake) auf einem Cloud-Object-Storage läuft – ohne spezielle Speicher-Engine oder proprietäre Formate. Sie verbindet:
- Schema-on-read und Schema Enforcement
- ACID-Transaktionen wie in klassischen Datenbanken
- Niedrige Latenzzeiten für Lese- und Schreibzugriffe
- SQL-Unterstützung für operative Workloads
- Skalierung und Kostenstruktur eines Data Lakes
Im Kern ist ein Lakebase eine betriebsfähige serverless PostgreSQL-Datenbank mit den Vorteilen einer Lakehouse-Architektur die Databricks durch die Übernahme von Neon integriert hat.
Durch die Lakehouse Architektur eignet sich Lakebase ideal für hybride Workloads und für:
- Online-Serving von ML-Features
- Schnelle Datenzugriffe durch KI-Agenten
- Echtzeit-Reporting oder APIs
Dank der Trennung von Storage und Compute kann Lakebase flexibel skalieren – ideal für agentenbasierte und reaktive Workloads. Da die Datenbank serverless ist glänzt sie besonders in Scenarien wo unregelmäßige Abfragen und eine schnelle Zugriffszeit gefragt ist.
Ab wann ist Lakebase verfügbar: Aktuell in Private Preview (Q2/Q3 2025 erwartet)
2. Lakebridge – SQL- und ETL-Migration automatisieren
Mit Lakebridge stellt Databricks ein Migrationstool vor, das SQL- und ETL-Prozesse aus klassischen Tools (z. B. Informatica) automatisiert ins Lakehouse überführt. Es soll dabei bis zu 80% der Migrationsaufgaben automatisiert übernehmen und diese um das 2-fache Beschleunigen.
Insbesondere richtet es sich an Unternehmen, die von klassischen Data Warehouses (z. B. Snowflake) auf ein Lakehouse-Modell mit Databricks SQL umsteigen möchten.
Hier kommen Sie zum Snowflake vs. Databricks Artikel, in dem wir die beiden Plattformen und ihre Vor- und Nachteile miteinander vergleichen.
Viele unserer Kunden betreiben ältere (on-prem) Datenbanken wie Oracle und planen aus Kostengründen und zur Reduktion des TCO eine Migration. Genau hierbei kann Lakebridge (jetzt open-source) unterstützen.
Was macht Lakebridge konkret?
Lakebridge analysiert und migriert:
| Komponente | Migration zu Databricks SQL |
|---|---|
| SQL-Skripte | In kompatiblen Spark SQL / Delta SQL Code |
| Tabellenstrukturen | In Delta Lake Tabellen |
| Views und Stored Procedures | In Spark SQL Views / Funktionen |
| Zeitpläne, Pipelines | In Workflows oder DLT Pipelines |
Dabei wird ein Großteil der Migration automatisch übersetzt und angepasst, inklusive:
- SQL-Syntax-Konvertierung
- Mapping proprietärer Funktionen
- Rewriting von Views/Procedures
- Analysieren von Abhängigkeiten
Die Eckpunkte:
- Profiler & Assessment (wie komplex ist meine aktuelle Codebase)
- SQL-Konvertierung (automatische Konvertierung basierend auf GenAI) – spart bis zu 80% an Zeit
- Validierung der Ergebnisse gegen Quellsysteme
Ziel: DWH-Migrationen erheblich beschleunigen und die technischen Einstiegshürden senken.
Unsere Einschätzung: Das Tool ist Ideal für Unternehmen, die ihre Cloud-Migration beschleunigen wollen um bis zu 80% der Entwicklungszeit einzusparen.
Ab wann wird es Lakebridge geben?: Lakebridge ist seit dem 4. Juni 2024 öffentlich verfügbar – und zwar als kostenloses Open-Source-Tool auf GitHub.
Hier der offizielle Link zum Repository: https://github.com/databrickslabs/lakebridge
3. Agent Bricks – Agenten einfach entwickeln und verbessern
Agent Bricks ist ein Framework und Toolkit innerhalb von Databricks, mit dem Unternehmen
- eigene KI-Agenten erstellen können,
- diese Agenten mit strukturierter Unternehmenslogik versorgen,
- und kontrollierbar, sicher sowie skalierbar betreiben.
Wir sind offizieller Databricks Partner und helfen mit Ihren Fragen oder Ihrem Setup. Starten Sie jetzt Ihre Databricks Beratung mit Datasolut!
Dabei geht es nicht um einfache Chatbots, sondern um intelligente Agenten, die
- SQL-Abfragen selbstständig formulieren und ausführen,
- Daten transformieren,
- Reports generieren,
- Prozesse in Bewegung setzen oder
- mit APIs interagieren.
Agent Bricks geht über typische LLM-Anwendungen (Fragen an PDFs oder Dashboards) hinaus. Es ermöglicht Unternehmen, agentische KI-Systeme zu bauen, die nicht nur „antworten“, sondern handeln – auf Basis von Live-Daten und strengen Sicherheitsregeln.
Das neue Framework zur Erstellung und Optimierung von KI-Agenten bringt wichtige Features wie:
- Deklarative Agenten-Erstellung
- Auto-Evaluation mit integriertem Qualitätsfeedback
- Agent Learning from Human Feedback
Unsere Einschätzung: Das Tool ist Ideal für Unternehmen, die Agenten direkt auf bestehenden Databricks-Daten entwickeln und betreiben möchten.
Ab wann?: Als private Preview seit Juni 2025 verfügbar
4. Lakeflow & Deklarative Pipelines (vormals DLT)
Databricks öffnet die Delta Live Tables (DLT) unter dem Namen Lakeflow Declarative Pipelines für die Open Source Community.
Die Verbesserungen im Überblick:
- Vereinfachte Verarbeitung von CDC-Daten
- Bessere Wartbarkeit und Performance
- Unified Job Orchestration über Lakeflow Jobs
Lakeflow Deklarative Pipelines ermöglichen es, ETL-Jobs in YAML zu definieren, anstatt sie in PySpark oder SQL zu programmieren. Dabei beschreibst man lediglich was passieren soll – nicht wie genau es passiert.
Hier ein Beispiel:
yamlKopierenBearbeiten
pipeline:
name: sales_data_pipeline
sources:
- name: raw_sales
type: delta
transforms:
- name: clean_sales
input: raw_sales
type: sql
query: SELECT * FROM raw_sales WHERE country = 'DE'
targets:
- name: cleaned_sales
type: delta
Die Pipelines richten sich speziell an
- Unternehmen mit vielen wiederkehrenden ETL-Jobs
- Data Engineers, die zuverlässige und skalierbare Workflows bauen wollen
- Teams, die Wartbarkeit und Lesbarkeit erhöhen wollen
Der Unterschied zu DLT (Delta Live Tables)
| Merkmal | DLT | Lakeflow Deklarative Pipelines |
|---|---|---|
| Definition | Python/SQL Code | YAML (deklarativ) |
| Zielgruppe | Entwickler:innen | Data Engineers, Low-Code-Teams |
| Fokus | Datenqualität, CDC | Orchestrierung + Wartbarkeit |
| Flexibilität | Hoch | Hoch, aber stärker strukturiert |
DLT bleibt bestehen – Lakeflow erweitert das Spektrum um eine deklarativere, orchestrierte und CI/CD-fähige Variante.
Unsere Meinung: Die deklarativen Pipelines von Lakeflow stellen einen entscheidenden Fortschritt für produktionsreife ETL-Prozesse auf Databricks dar. Durch den deklarativen Ansatz in YAML werden die Erstellung, Wartung und Versionierung von Pipelines deutlich einfacher und übersichtlicher, was sie ideal für den Einsatz in CI/CD-Umgebungen macht.
Besonders überzeugt haben uns die enge Integration mit Delta Lake, die eingebaute Orchestrierung, die automatische Fehlerbehandlung und die Beobachtbarkeit. All das musste bisher manuell umgesetzt werden. Für viele unserer Kunden ist das ein echter Gamechanger in Richtung skalierbarer und wartbarer Datenprodukte.
Ab wann?: Ab sofort (Juni 2025)
5. Lakeflow Designer – ETL per Klick oder Spracheingabe
Der Lakeflow Designer ist eine visuelle Entwicklungsumgebung, in der Benutzer mit wenigen Klicks:
- Datenquellen anbinden (z. B. SAP, Salesforce, Amazon S3)
- Transformationen konfigurieren (z. B. Filter, Joins, Aggregationen)
- Zielsysteme definieren (z. B. Delta Lake, SQL Warehouse, Power BI)
Dabei erzeugt der Designer im Hintergrund deklarative YAML-Pipelines, die direkt auf Databricks Compute ausgeführt werden können – inklusive Orchestrierung, Logging und Monitoring.
Das visuelle UI dient dem Erstellen von ETL-Prozessen und ergänzt diese um Sprachsteuerung und eine vereinfachte Logikmodellierung.
- Niedrigere Einstiegshürde für Fachanwender
- Integrierbar mit bestehenden Pipelines und Workflows
Datasoluts Einschätzung: Das erste Mal, das seine No-Code Lösung auf Databricks präsentiert wird. Unserer Einschätzung nach genau der richtige Weg, damit man sich gegen Microsoft Fabric und andere Tools am Markt behaupten kann. Denn oft entscheiden die benötigten Skills der Mitarbeiter über die Auswahl der passenden Datenplattform.
Ab wann?: Private Preview beginnt im Sommer 2025
6. Databricks One – Das UI für nicht-technische Nutzer
Databricks One ist keine neue Funktion oder Produktlinie, sondern eine vereinheitlichte UI- und UX-Initiative.
Sie bringt eine modernisierte Oberfläche und eine klare Struktur für die Kernbereiche:
- Daten (Datenkatalog, Tabellen, Modelle)
- Notebooks & Code (Entwicklung und Analyse)
- Jobs & Pipelines (Workflows und Automatisierung)
- KI-Agenten & Dashboards (Interaktive Interfaces)
Das Ziel von Databricks One: Die Plattform soll sich wie ein Produkt anfühlen – nicht wie ein Sammelsurium von Tools.
Unsere Meinung: Ein Feature was wir persönlich als sehr gelungen empfinden, obwohl es keine bahnbrechende Innovation ist. Bis dato hat ein einfacher Zugang für Databricks von nicht technischen Nutzern gefehlt. Es gab zwar den Weg über Databricks Apps und Genie Spaces aber das UI von Databricks wurde immer vollumfänglich angezeigt.
Dies kann schnell zu Überforderung von nicht technischen Nutzern führen und eine abgespeckte Business UI ist eine sehr gute Neuerung.
Mit Databricks One entsteht eine zentrale Arbeitsumgebung für Management und Fachbereiche:
- Zugang zu Dashboards, Databricks Apps und AI-Interfaces
- „Genie Space“ für Abfragen in natürlicher Sprache
- Fokus auf Visualisierung und Bedienbarkeit
Ab wann verfügbar?: Private Preview verfügbar seit Juni 2025
Sie möchten die neuen Databricks-Funktionen gezielt einsetzen und Ihre Datenplattform fit für AI machen?
Datasolut ist Ihr zertifizierter Experte für Databricks und begleitet Sie von der Strategie bis zur operativen Umsetzung – effizient, praxisnah und end-to-end.
Jetzt unverbindliches Erstgespräch buchen.
Was bedeutet das für deutsche Unternehmen?
Databricks wird offener für Business Anwender und spannt sein Netz weiter um die zentrale Datenplattform für alle Datenprodukte zu werden.
Von GenAI bis hin zu Agenten und SQL Datenbanken gab es eine breite Anzahl an Neuerungen. Im Gegensatz zum letzten Summit sind viele Änderungen sofort wirksam oder kommen innerhalb von kürzester Zeit. Dies bedeutet, dass man nicht sehr lange auf die Verbesserungen warten muss, sondern direkt die Vorteile nutzen kann.
Für viele Unternehmen die noch nicht mit Databricks gestartet haben, sind dies positive Signale und nach unserer Erfahrung benötigt ein Unternehmen, welches Databricks im Einsatz hat erstmal keine weiteren Tools und ist in allen Bereichen gut abgedeckt.
Databricks zeigt mit dem Summit 2025 eine klare Vision: AI-ready Plattform für alle Rollen im Unternehmen. Wer früh einsteigt, kann schnellere Time-to-Value, niedrigere Betriebskosten und mehr AI-Effizienz realisieren.
Wir bei Datasolut unterstützen Unternehmen genau dabei – strategisch und operativ. Kontaktieren Sie uns jetzt!
Lassen Sie uns sprechen und Ihr Potenzial entdecken.
Ob und wie künstliche Intelligenz Ihnen weiterhelfen kann, können Sie in einem ersten, unverbindlichen Gespräch mit uns herausfinden.
In diesem Gespräch erfahren Sie:
- Wie Ihr Use-Case technisch am besten umgesetzt werden kann
- Wie wir maximal sicher mit Ihren Kundendaten umgehen
- Wie lange wir für die Umsetzung benötigen und wie ein konkreter Projektplan aussehen könnte
FAQ – Die wichtigsten Fragen schnell beantwortet
Zu den wichtigsten Neuerungen zählen Lakebase (serverlose operative Datenbank), Lakebridge (automatisierte Migration), Agent Bricks (KI-Agenten Framework), Lakeflow (deklarative ETL-Pipelines) sowie Databricks One – eine neue Benutzeroberfläche für Business-Anwender.
Lakebridge automatisiert die Migration von SQL-Code, ETL-Prozessen und Datenmodellen aus Tools wie Informatica, Oracle oder Snowflake zu Databricks. Es spart bis zu 80 % an manueller Arbeit und senkt die Hürden beim Umstieg auf ein Lakehouse.
DLT bleibt bestehen, wird aber durch Lakeflow erweitert. Lakeflow bietet deklarative YAML-Pipelines, bessere Orchestrierung, einfachere Wartung und eignet sich ideal für CI/CD-Workflows und produktionsreife ETL-Prozesse.
Databricks One ist eine vereinheitlichte Benutzeroberfläche für Daten, Workflows, Notebooks und KI-Agenten. Zielgruppe sind nicht-technische Nutzer aus Management und Fachbereichen, die einfachen Zugang zu Dashboards und KI-Funktionen benötigen.
Ja, als zertifizierter Databricks-Partner begleiten wir Unternehmen bei der strategischen Einführung und operativen Umsetzung von Databricks – von der Migration über die KI-Agentenentwicklung bis hin zur Low-Code-Plattform-Nutzung.