Erstgespräch vereinbaren
Laurenz Wuttke /

RAG vs. MCP: Wissen und Fähigkeiten für KI-Agenten richtig kombinieren

9 Minuten Lesezeit
Generative KI
Zusammenfassung
  • RAG (Retrieval Augmented Generation) gibt LLMs Zugang zu unternehmensspezifischem Wissen — Dokumente, Handbücher, Knowledge Bases.
  • MCP (Model Context Protocol) gibt LLMs die Fähigkeit zu handeln — Tickets erstellen, E-Mails senden, Systeme abfragen.
  • RAG und MCP sind keine Konkurrenten, sondern ergänzen sich: RAG ist die Wissensschicht, MCP die Aktionsschicht eines KI-Agenten.
  • Die besten KI-Systeme nutzen immer beide Ansätze.

Wer sich mit KI-Agenten beschäftigt, stolpert aktuell überall über zwei Abkürzungen: RAG und MCP. Beide werden oft in einem Atemzug genannt — und genauso oft verwechselt. Dabei lösen sie fundamental unterschiedliche Probleme: RAG gibt einem Agenten Zugang zu Wissen. MCP gibt ihm Zugang zu Werkzeugen und Systemen. Wer beides in einen Topf wirft, baut am Ende Agenten, die entweder viel wissen aber nichts tun können — oder blind handeln, ohne den nötigen Kontext zu haben.

In diesem Artikel erklären wir den Unterschied zwischen RAG und MCP, zeigen an einem konkreten Praxisbeispiel, wie beide zusammenspielen, und geben Ihnen eine klare Entscheidungshilfe für Ihre eigene Agenten-Architektur.

Warum Large Language Models allein nicht reichen

Large Language Models wie GPT-4, Claude oder Gemini sind beeindruckend leistungsfähig. Aber sie haben zwei grundlegende Schwächen, die ihren Einsatz im Unternehmenskontext limitieren:

Schwäche 1: Kein Unternehmenswissen. Ein LLM weiß nur das, womit es trainiert wurde. Es kennt keine Kundendaten, keine internen Prozesse, keine Produktdokumentation und keine Geschäftslogik. Fragen Sie ein LLM nach dem Status einer Kundenbestellung, bekommen Sie bestenfalls eine allgemeine Antwort — aber keine konkrete.

Schwäche 2: Keine Handlungsfähigkeit. Ein LLM kann Text generieren, aber es kann kein Ticket erstellen, keine E-Mail versenden, keinen Termin buchen und kein CRM-System aktualisieren. Es ist — isoliert betrachtet — ein reines Textwerkzeug.

Warum Lakehouses die Daten-Architektur der Zukunft sind

In unserem Whitepaper erfahren Sie:

  • Wie sich ein Data Lakehouse von anderen Architekturen unterscheidet.
  • Wie Sie durch ein Lakehouse KI-Anwendungen schneller umsetzen.
  • Wie Sie ihr internes Team befähigen selbstständig KI Projekte zu implementieren.
Jetzt herunterladen

RAG adressiert die erste Lücke: Zugang zu Wissen. MCP adressiert die zweite: Zugang zu Werkzeugen und Systemen. Erst wenn beides zusammenkommt, entsteht ein Agent, der in der Praxis echten Mehrwert liefert.

Was ist RAG? — Die Wissensschicht für KI-Agenten

Retrieval Augmented Generation (RAG) ist ein Architekturansatz, der LLMs mit unternehmensspezifischem Wissen anreichert. Statt das Modell selbst nachzutrainieren, werden relevante Dokumente und Informationen zur Laufzeit abgerufen und dem LLM als Kontext mitgegeben.

So funktioniert RAG in fünf Schritten

  1. Frage (Ask): Der Nutzer stellt eine Frage — zum Beispiel: „Warum lädt mein Dashboard seit dem letzten Update nicht mehr?“
  2. Suche (Retrieval): Das System durchsucht eine Wissensdatenbank (z. B. via Vektor-Suche) und findet relevante Passagen in Dokumenten, Handbüchern oder Release Notes.
  3. Rückgabe (Return): Die gefundenen Passagen werden zurückgegeben.
  4. Zusammenführung (Augment): Die ursprüngliche Frage wird zusammen mit den gefundenen Dokumenten zu einem erweiterten Prompt zusammengepackt.
  5. Antwort (Generate): Das LLM generiert eine Antwort, die auf der Frage und den abgerufenen Dokumenten basiert.
Grafische Darstellung der Funktionsweise von RAG: Retrieval Augmentet Generation

Ein entscheidender Vorteil von RAG: Gute Implementierungen liefern die Quellen mit. Der Nutzer kann nachprüfen, woher eine Antwort stammt — und idealerweise direkt an die relevante Stelle im Originaldokument springen.

Welche Daten nutzt RAG?

RAG arbeitet typischerweise mit statischen oder selten veränderten Daten: Handbücher, Produktdokumentation, Release Notes, FAQ-Artikel, Richtlinien, Wissensdatenbanken. Diese Inhalte werden vorab indexiert und als Vektoren in einer Datenbank gespeichert.

In unserer Beratungspraxis setzen wir RAG unter anderem für interne Wissensplattformen, Kunden-Support-Systeme und die Erschließung großer Dokumentenbestände ein — beispielsweise bei einem Q&A Chatbot für ein Telekommunikationsunternehmen.

Was ist MCP? — Die Aktionsschicht für KI-Agenten

Das Model Context Protocol (MCP) ist ein offener Standard, der KI-Agenten mit externen Systemen und Werkzeugen verbindet. Während RAG dem Agenten Wissen gibt, gibt MCP ihm die Fähigkeit zu handeln: Daten abfragen, Einträge erstellen, Prozesse auslösen.

MCP wurde Ende 2024 von Anthropic als Open-Source-Projekt veröffentlicht und hat sich innerhalb eines Jahres zum De-facto-Standard für die Tool-Anbindung von LLMs entwickelt. OpenAI, Google, Microsoft und zahlreiche weitere Unternehmen unterstützen das Protokoll mittlerweile. Seit Dezember 2025 wird MCP von der Agentic AI Foundation unter dem Dach der Linux Foundation verwaltet — ein klares Signal für die langfristige Relevanz.

So funktioniert MCP in fünf Schritten

  1. Verbindung (Connect): Das LLM verbindet sich mit einem MCP-Server und sieht die verfügbaren Tools — zum Beispiel ein Ticketsystem, ein CRM oder einen Kalender.
  2. Verstehen (Discover): Das LLM liest die Beschreibungen der Tools, versteht deren Zweck, die erwarteten Eingaben und die möglichen Ausgaben.
  3. Planen (Plan): Das LLM entscheidet, welche Tools es in welcher Reihenfolge aufrufen muss. Zum Beispiel: Erst ein Ticket erstellen, dann eine Priorität setzen, dann einen Ansprechpartner zuweisen.
  4. Ausführen (Execute): Das LLM sendet die entsprechenden Aufrufe an den MCP-Server. Die Aktionen werden im Zielsystem durchgeführt.
  5. Ergebnis (Return): Die Ergebnisse fließen zurück zum LLM — etwa eine Bestätigung mit Ticketnummer, ein gebuchter Termin oder ein aktualisierter Datensatz.
Grafische Darstellung der Funktionsweise von MCP: Model Context Protocol

Welche Daten nutzt MCP?

MCP arbeitet mit Live-Systemen und Echtzeitdaten: CRM, Ticketsysteme, Kalender, E-Mail, Datenbanken, APIs. Die Daten ändern sich ständig — deshalb werden sie nicht vorab indexiert, sondern zur Laufzeit abgefragt oder manipuliert.

Die Architektur folgt einem Client-Server-Modell auf Basis von JSON-RPC 2.0. MCP-Server stellen drei Kernbausteine bereit: Tools (Funktionen, die das LLM aufrufen kann), Resources (Datenquellen zum Lesen) und Prompts (vorgefertigte Workflows).

RAG vs. MCP im direkten Vergleich

KriteriumRAGMCP
ZweckWissen bereitstellenHandlungen ausführen
Was es dem LLM gibtKontext und InformationenFähigkeiten und Werkzeuge
DatentypStatische Dokumente (Handbücher, FAQs, Knowledge Base)Live-Systeme (CRM, Ticketsystem, Kalender, APIs)
RichtungInformationen fließen zum LLMAktionen fließen vom LLM zu externen Systemen
KernprozessSuchen → Finden → AntwortenEntdecken → Planen → Handeln
AnalogieEin Mitarbeiter, der Zugang zur Firmenbibliothek hatEin Mitarbeiter, der Zugang zu allen Firmensystemen hat
Typisches ErgebnisEine fundierte Antwort mit QuellenangabeEine ausgeführte Aktion mit Bestätigung
Veränderung im ZielsystemKeine (nur Lesen)Ja (Erstellen, Ändern, Auslösen)

Einfach gesagt: Wenn Ihr Agent etwas wissen muss — viel, statisch, kontextreich — dann ist das RAG. Wenn Ihr Agent etwas tun soll — eine Aktion auslösen, eine kurze Abfrage machen, ein System bedienen — dann ist das MCP.

Unser CTO Laurenz erklärt Ihnen in 6 Minuten die wichtigsten Unterschiede zwischen RAG und MCP.

Praxisbeispiel: Support-Agent mit RAG und MCP

Ein konkretes Beispiel macht den Unterschied greifbar. Stellen Sie sich einen KI-gestützten Support-Agenten vor:

Schritt 1 — RAG im Einsatz:
Ein Kunde schreibt: „Meine Dashboards laden seit dem letzten Update nicht mehr.“ Der Agent durchsucht per RAG die interne Wissensdatenbank, findet die passende Stelle in den Release Notes und antwortet mit einer Schritt-für-Schritt-Anleitung. Der Agent hat Wissen abgerufen.

Schritt 2 — MCP im Einsatz:
Der Kunde antwortet: „Das hat leider nicht geholfen. Ich brauche einen Ansprechpartner.“ Jetzt wechselt der Agent zur Aktionsschicht: Per MCP erstellt er ein Ticket im Support-System, fasst das bisherige Gespräch als Beschreibung zusammen, setzt die Priorität und weist einen Mitarbeiter zu. Der Kunde erhält eine Bestätigung mit Ticketnummer und Kontaktdaten. Der Agent hat gehandelt.

Ohne RAG hätte der Agent keine Antwort auf die technische Frage gehabt. Ohne MCP hätte er kein Ticket erstellen können. Erst die Kombination beider Ansätze ergibt einen Agenten, der den Support-Prozess tatsächlich End-to-End abbildet.

In unserer Beratungspraxis sehen wir genau dieses Muster bei vielen Kunden: Der erste Schritt ist oft ein RAG-basierter Chatbot für die Wissenserschließung. Der zweite Schritt — und hier entsteht der eigentliche Produktivitätssprung — ist die Anbindung an operative Systeme über Tool-Schnittstellen.

Warum die besten KI-Systeme beides nutzen

RAG und MCP sind keine Konkurrenten. Sie funktionieren auf komplett unterschiedlichen Ebenen:

  • RAG ist die Wissensschicht — sie gibt dem Agenten Zugang zu Informationen, die das LLM allein nicht hat.
  • MCP ist die Aktionsschicht — sie gibt dem Agenten die Fähigkeit, in der realen Welt zu handeln.

Ein vollständiger KI-Agent braucht beides. Die Wissensschicht liefert den Kontext für gute Entscheidungen. Die Aktionsschicht setzt diese Entscheidungen in konkrete Handlungen um. Erst wenn beides zusammenspielt, entsteht Automatisierung auf einem Level, das über einfache Chatbots hinausgeht.

So sehen wir das in der Praxis

In unseren Projekten folgen wir einem klaren Stufenmodell:

  1. Stufe 1 — Wissen erschließen (RAG): Unternehmensdokumente werden indexiert, ein Chatbot beantwortet Fragen auf Basis interner Daten. Das liefert schnellen Mehrwert und schafft Vertrauen in die Technologie.
  2. Stufe 2 — Systeme anbinden (MCP / Tools): Der Agent wird an operative Systeme angebunden — Ticketing, CRM, E-Mail, Kalender. Er kann jetzt nicht nur antworten, sondern handeln.
  3. Stufe 3 — Orchestrierung: Mehrere Agenten arbeiten zusammen. Ein Routing-Agent entscheidet, ob RAG oder ein Tool-Aufruf nötig ist. Komplexe Workflows werden End-to-End automatisiert.

Dieses Stufenmodell hat sich bewährt, weil es Komplexität schrittweise aufbaut und nach jeder Stufe messbaren Mehrwert liefert — statt alles auf einmal zu versuchen und in Pilotitis zu enden.

Generative KI mit Datasolut

Wir bauen einen KI-Agenten, der auf Ihre Bedürfnisse zugeschnitten ist.

Häufige Fehler bei der Agenten-Architektur

Aus unserer Beratungserfahrung kennen wir typische Stolpersteine, die Unternehmen beim Aufbau von KI-Agenten begegnen:

Alles mit RAG lösen wollen. RAG ist stark bei der Wissenserschließung. Aber wenn ein Agent Aktionen ausführen soll — Daten schreiben, Systeme bedienen, Prozesse auslösen — reicht RAG nicht. Hier brauchen Sie eine Tool-Schicht.

MCP ohne Kontext einsetzen. Ein Agent, der Tickets erstellen kann, aber nicht weiß, was im Ticket stehen soll, ist nutzlos. Die Aktionsschicht braucht immer eine Wissensschicht als Grundlage.

Statische und dynamische Daten verwechseln. Produktdokumentation gehört in eine RAG-Pipeline. Der aktuelle Status einer Kundenbestellung gehört in einen Live-API-Aufruf über MCP. Wer beides vermischt, bekommt entweder veraltete Antworten oder unnötig komplexe Architekturen.

Keine Quellenangaben implementieren. Gute RAG-Systeme liefern Quellen mit. Nutzer müssen nachprüfen können, woher eine Antwort kommt. Ohne Transparenz schwindet das Vertrauen schnell — besonders bei kritischen Geschäftsprozessen.

Zu viele Tools gleichzeitig anbinden. MCP macht es technisch einfach, dutzende Systeme anzubinden. Aber jedes Tool erhöht die Komplexität für das LLM. In der Praxis hat sich bewährt, mit wenigen, klar definierten Tools zu starten und schrittweise zu erweitern.

Fazit

RAG und MCP lösen zwei fundamental verschiedene Probleme für KI-Agenten. RAG gibt dem Agenten Wissen — Zugang zu Dokumenten, Handbüchern und Knowledge Bases. MCP gibt ihm Fähigkeiten — Zugang zu Werkzeugen, Systemen und Aktionen. Wer beides verwechselt oder nur eines davon einsetzt, verschenkt Potenzial.

Die klare Empfehlung: Starten Sie mit RAG, um Unternehmenswissen für Ihre Agenten nutzbar zu machen. Erweitern Sie dann mit MCP (oder vergleichbaren Tool-Schnittstellen), um von der Wissensebene zur Handlungsebene zu kommen. Und orchestrieren Sie beides in einer durchdachten Agenten-Architektur, die schrittweise Mehrwert liefert.

KI-Agenten richtig aufsetzen — mit Datasolut

Sie möchten KI-Agenten einsetzen, die nicht nur antworten, sondern handeln? Wir begleiten Sie vom ersten RAG-Prototyp bis zur produktiven Agenten-Plattform — mit einer Architektur, die Wissen und Aktionen sauber verbindet.

Jetzt kostenloses Erstgespräch vereinbaren und erfahren, wie Sie RAG und MCP in Ihrem Unternehmen einsetzen.

Profilbild von Vinzent Wuttke Geschäftsführer Datasolut GmbH
Vinzent Wuttke
Geschäftsführer

Lassen Sie uns sprechen und Ihr Potenzial entdecken.

Ob und wie künstliche Intelligenz Ihnen weiterhelfen kann, können Sie in einem ersten, unverbindlichen Gespräch mit uns herausfinden.

In diesem Gespräch erfahren Sie:

  • Wie Ihr Use-Case technisch am besten umgesetzt werden kann
  • Wie wir maximal sicher mit Ihren Kundendaten umgehen
  • Wie lange wir für die Umsetzung benötigen und wie ein konkreter Projektplan aussehen könnte
Jetzt Erstgespräch vereinbaren

Weiterlesen

Beitragsbild KI-Agenten
Generative KI Vor 1 Jahr

KI-Agenten: Die Zukunft intelligenter Automatisierung

Stellen Sie sich vor, Sie hätten einen cleveren Assistenten, der nicht nur Ihre Anweisungen versteht, sondern auch selbstständig denkt und handelt. Genau das sind KI-Agenten – Ihre neuen digitalen Verbündeten […]
Generative KI Vor 2 Jahren

LLM-Feinabstimmung: Best Practices und Anwendungsfälle

Die Entwicklung von Large Language Models (LLMs) hat sich in den letzten Jahren rasant fortentwickelt, sodass sie zu einem der interessanten Tools für den Einsatz von generativer KI geworden sind. […]
Diagramm zeigt, wie ein Prompt eine menschliche Anfrage in eine Chatbot-Antwort umwandelt.
Generative KI Vor 2 Jahren

Was ist Prompt Engineering?

Die Verwendung von LLMs wie OpenAIs ChatGPT bringt viele Vorteile mit sich aber ohne Prompt Engineering, sind die Ergebnisse des Modells höchstens ausreichend. Doch was genau verbirgt sich hinter diesem […]
Generative KI Vor 2 Jahren

Was ist LLMOps? – Vorteile, Funktionen und Best Practices

LLMOps (Large-Language-Model-Operations) verwendet spezielle Tools und Verfahren zur Verwaltung großer Sprachmodelle. In diesem Artikel werfen wir einen detaillierten Blick auf LLMOps, seine um die Potenziale von LLMs voll auszuschöpfen. Lassen […]
Diagramm zeigt den RAG-Prozess: Eingabe, Retrieval, Augmentation und Generierung einer Antwort.
Generative KI Vor 2 Jahren

Was ist Retrieval Augmented Generation (RAG)?

Seit einigen Jahren sind große Sprachmodelle oder auch Large Language Models, kurz LLMs in aller Munde und werden von vielen Unternehmen als Chatbots oder für Texterstellung genutzt. Es gibt verschiedene […]
Generative KI Vor 3 Jahren

Large Language Model Fallbeispiele

Große Sprachmodelle (Large Language Models, LLMs) verändern die Art und Weise, wie wir digitale Sprache verarbeiten und erstellen. In den letzten Jahren haben LLMs an Popularität gewonnen, besonders seit der […]
Generative KI Vor 3 Jahren

Large Language Model: Einblicke in die wichtigsten Konzepte und Beispiele 

Large Language Models (zu dt. Große Sprachmodelle) arbeiten auf Basis von Deep Learning Modellen mit menschlicher Sprache. Das Ziel des Large Language Models (LLM) ist es, einen Text auf menschenähnliche […]
Newsletter und Updates

Sie sehen gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Erstgespräch vereinbaren