MCP Server: Warum meine Website jetzt direkt mit KIs spricht

Das Wichtigste in Kürze

Das Wichtigste in Kürze:

  • Direkte Leitung statt Crawler: designare.at hat einen eigenen MCP Server. KI-Systeme bekommen strukturierte Daten direkt aus der Knowledge Base – nicht aus veraltetem, gecrawltem HTML.
  • Null neue Dependencies: Der Server nutzt die bestehende RAG-Pipeline (Upstash Vector + Gemini Embeddings), die auch Evita versorgt. Drei neue Dateien, null neue Packages.
  • GEO auf dem nächsten Level: Statt zu hoffen, dass ein Crawler deine Seite richtig interpretiert, kontrollierst du selbst, was KIs über dich wissen.
  • Zukunftsinvestment: Wenn MCP-Discovery kommt (voraussichtlich 2027), sind Websites mit bestehendem Server sofort angebunden.
Ohne MCP
LLM
HTMLCrawl
Veraltet, unstrukturiert, unkontrolliert
Mit MCP
LLM
ServerMCP
Vector DBRAG
Aktuell, strukturiert, kontrolliert

Einleitung

Wenn du meinen Artikel über GEO gelesen hast, kennst du das Problem: KI-Systeme entscheiden zunehmend, welche Unternehmen in ihren Antworten auftauchen. Aber bisher konntest du nur hoffen, dass der Crawler deine Seite findet, richtig interpretiert und nicht Wochen alte Daten ausliefert. Was wäre, wenn du den KIs stattdessen eine direkte Leitung zu deiner Knowledge Base geben könntest?

Was hier läuft:

designare.at betreibt seit heute einen eigenen MCP Server. Das Model Context Protocol (MCP) ist ein offenes Protokoll von Anthropic[5] – quasi USB für KI-Tools. Es standardisiert, wie LLMs mit externen Datenquellen kommunizieren. Mein Server gibt Claude, ChatGPT und anderen KIs direkten Zugriff auf die gleiche Knowledge Base, die auch Evita versorgt.

Die Idee ist einfach: Warum soll ein LLM sich durch gecrawltes HTML wühlen, wenn ich ihm die Antwort strukturiert auf dem Silbertablett servieren kann? Und das Beste: Die gesamte Infrastruktur existierte bereits. Evitas RAG-Pipeline – Upstash Vector, Gemini Embeddings, das nächtliche Section-Chunking – brauchte nur eine neue Tür nach außen.

Das Problem: Crawler sind blind

Klassisches GEO funktioniert so: Du optimierst deine Seite mit Schema.org, semantischem Markup und Fakten-basiertem Content. Dann hoffst du, dass ein Crawler vorbeikommt, deine Seite richtig versteht und die KI dich zitiert. Das funktioniert – aber es hat drei Schwachstellen:

Verzögerung
Zwischen Änderung auf deiner Website und Aktualisierung im LLM-Trainings-Snapshot können Wochen oder Monate liegen. Dein neues Service, dein aktuellster Blogartikel – für die KI existieren sie noch nicht.
Interpretation
Der Crawler entscheidet, was relevant ist. Er extrahiert vielleicht den falschen Absatz, übersieht den wichtigen, oder mischt Inhalte aus verschiedenen Seiten. Du hast keine Kontrolle über das Ergebnis.
Unsichtbarkeit
Selbst wenn dein Content perfekt ist: Wenn der Crawler dich nicht indexiert, existierst du für die KI nicht. Neue Seiten, kleine Websites, Nischenthemen – sie fallen oft durchs Raster.

Die Lösung: Ein MCP Server für deine Knowledge Base

Architektur:

Der MCP Server läuft als Vercel Serverless Function (/api/mcp) mit Streamable HTTP Transport – dem aktuellen Standard für Remote-MCP-Server.[4] Keine zusätzlichen npm-Packages, kein Next.js, reines JSON-RPC über HTTP.

Der Server stellt zwei Tools bereit, die externe LLMs über das MCP-Protokoll aufrufen können:

search_knowledge
Semantische Suche in der gesamten designare.at Knowledge Base. Ein LLM fragt zum Beispiel: „Was bietet designare.at im Bereich GEO an?“ – und bekommt strukturierte, relevante Textblöcke zurück, inklusive Quellenlinks. Unter der Haube läuft exakt die gleiche Pipeline, die auch Evita nutzt: Gemini Embedding → Upstash Vector Query → Top-5-Chunks.
get_services
Ein strukturierter Überblick aller Dienstleistungen, Spezialisierungen und Kernkompetenzen. Kein Parsing nötig, keine Interpretation – das LLM bekommt JSON mit klaren Feldern: Name, Beschreibung, Kategorie.

Unter der Haube: So funktioniert der Datenfluss

Der Weg von der LLM-Frage zur Antwort in vier Schritten – ohne Crawler, ohne Verzögerung:

Schritt 1: JSON-RPC Handshake

Ein MCP-Client (z.B. Claude Desktop) verbindet sich mit https://designare.at/api/mcp. Per initialize-Call identifiziert sich der Client, und der Server antwortet mit seinen Capabilities und der Liste verfügbarer Tools. Alles über Standard-HTTP, kein WebSocket, keine persistente Verbindung.

Schritt 2: Tool-Aufruf

Das LLM entscheidet, dass es Informationen über designare.at braucht und ruft search_knowledge mit einer natürlichsprachigen Query auf. Der MCP Server empfängt den JSON-RPC-Call und leitet ihn an die RAG-Pipeline weiter.

Schritt 3: RAG-Pipeline

Dieselbe Magie, die auch Evita antreibt: Die Query wird über die Gemini Embedding API in einen Vektor umgewandelt, Upstash Vector findet die semantisch ähnlichsten Content-Sektionen, und die Top-Treffer werden als strukturiertes JSON aufbereitet.

Schritt 4: Antwort mit Quellenangabe

Das LLM erhält die Daten, formuliert seine Antwort und – das ist der entscheidende Punkt – zitiert designare.at als Quelle. Nicht weil ein Crawler das HTML richtig geraten hat, sondern weil die Daten direkt und verifiziert vom Server kamen.

Automatisch aktuell:

Die Upstash Vector DB wird jede Nacht um 3:30 Uhr via Cron-Job synchronisiert. Änderst du heute einen Blogartikel, liefert der MCP Server morgen früh die aktualisierte Information – ohne manuellen Eingriff.

KI-Suche der Zukunft: So sieht das in der Praxis aus

Theorie ist gut, Praxis ist besser. Die folgende Simulation zeigt, was passiert, wenn ein LLM den designare.at MCP Server nutzt – vom User-Prompt bis zur zitierten Antwort.

KI-Assistent MCP aktiv
Protokoll
Was du hier siehst:

Links die Chat-Ansicht, wie sie der Nutzer erlebt. Rechts das MCP-Protokoll, das im Hintergrund läuft – der JSON-RPC-Call an /api/mcp, die Vektor-Suche und die strukturierte Antwort. Der Nutzer sieht davon nichts – er bekommt einfach eine fundierte Antwort mit Quellenangabe.

Die Umsetzung: Drei Dateien, null Dependencies

Das Überraschende: Die gesamte MCP-Integration bestand aus drei neuen Dateien und einer dreizeiligen Änderung am bestehenden Rate Limiter. Kein Umbau, kein neues Framework, keine npm-Packages. Fairerweise: Das funktioniert so schlank, weil die RAG-Pipeline (Upstash Vector, Gemini Embeddings, nächtlicher Cron-Sync) bereits stand. Ohne diese Basis wäre der erste Schritt nicht der MCP Server, sondern die Knowledge Base – ein eigenes Projekt.

api/mcp.js – Der Endpoint
JSON-RPC 2.0 Handler für MCP Streamable HTTP Transport. Unterstützt initialize, tools/list, tools/call und ping. GET für Health-Check, POST für MCP-Kommunikation, DELETE für Session-Cleanup. Gleicher Pattern wie alle anderen Vercel Functions im Projekt.
lib/mcp-config.js – Konfiguration & Tool-Logik
Definiert die zwei Tools im MCP JSON Schema Format und die executeToolCall()-Funktion, die den Dispatch übernimmt. Importiert searchContext() aus der bestehenden rag-service.js – die gesamte Vektor-Suche wird wiederverwendet, nicht dupliziert.
.well-known/mcp.json – Discovery
Eine statische JSON-Datei im public/-Verzeichnis, die den Server für zukünftige MCP-Discovery-Systeme beschreibt. Fünf Zeilen JSON mit Server-URL, Transport-Typ und Tool-Übersicht – das Pendant zu robots.txt für die KI-Ära.

Warum jetzt? Die Zukunft von MCP

Ehrliche Einschätzung: Die MCP-Client-Unterstützung ist 2026 bereits breit – ChatGPT, Claude, Gemini, Cursor und VS Code können MCP Server ansprechen. Was fehlt, ist die automatische Discovery: Wer den Server nutzen will, muss die URL heute noch manuell eintragen. Drei Entwicklungen werden das ändern:

MCP-Registry
Anthropic arbeitet an einem Verzeichnis, über das LLMs automatisch passende MCP Server finden können. Stell dir vor: Ein Nutzer fragt Claude „Wer macht gutes Webdesign in Wien?“, und Claude entdeckt selbstständig den designare.at MCP Server – ohne dass jemand die URL eingetragen hat.
Breitere Adoption – bereits Realität
ChatGPT, Gemini, Microsoft Copilot, Cursor und VS Code unterstützen MCP bereits als Client.[1] OpenAI hat im März 2025 MCP im Agents SDK, der Responses API und ChatGPT Desktop übernommen.[2] Im Dezember 2025 spendete Anthropic MCP an die Agentic AI Foundation unter der Linux Foundation – mit OpenAI, Block, AWS, Google und Microsoft als Mitglieder.[3] Die Infrastruktur steht – was fehlt, ist die automatische Discovery.
Runtime statt Training
Der Trend geht von „alles aus dem Training wissen“ zu „zur Laufzeit die beste Quelle anfragen“. MCP ist die Infrastruktur für genau diesen Wandel. Langfristig wird ein MCP-Endpoint so selbstverständlich sein wie heute eine Sitemap.
Kosten: Exakt null.

Der Server läuft als Vercel Serverless Function im bestehenden Pro-Plan. Gemini Embeddings und Upstash Vector Queries sind im Free Tier. Rate Limiting schützt vor Missbrauch. Bis signifikanter Traffic entsteht, zahlt man keinen Cent extra.

Häufig gestellte Fragen (FAQ)

Was ist ein MCP Server?

MCP (Model Context Protocol) ist ein offenes Protokoll von Anthropic, das standardisiert, wie KI-Systeme mit externen Datenquellen kommunizieren. Ein MCP Server stellt Tools und Daten bereit, die LLMs wie Claude oder ChatGPT zur Laufzeit abfragen können – statt sich auf ihren Trainings-Snapshot zu verlassen. Stell es dir wie USB für KI-Tools vor: Egal welches Gerät, der Stecker ist immer gleich.

Warum braucht eine Website einen MCP Server?

Weil Crawler unzuverlässig sind. Ein Crawler interpretiert HTML nach eigenem Ermessen, oft mit Wochen Verzögerung. Ein MCP Server liefert dem LLM strukturierte, aktuelle, kuratierte Daten – direkt aus der eigenen Knowledge Base. Das ist GEO auf dem nächsten Level: nicht hoffen, dass die KI dich findet, sondern ihr eine direkte Leitung geben.

Kostet ein MCP Server auf Vercel etwas?

Praktisch nichts. Der Endpoint läuft als Vercel Serverless Function im bestehenden Plan. Jede Anfrage triggert ein Gemini Embedding (~0.001 ct) und eine Upstash Vector Query (Free Tier: 500.000/Monat). Bei normalem Betrieb fallen null zusätzliche Kosten an. Rate Limiting schützt vor Missbrauch.

Können Claude und ChatGPT den Server schon automatisch finden?

Stand 2026 noch nicht automatisch. MCP-Clients wie Claude Desktop oder Cursor können den Server manuell einbinden.[1] Anthropic arbeitet an einer MCP-Registry für automatische Discovery.[3] Die .well-known/mcp.json-Datei bereitet genau darauf vor – wenn Discovery kommt, ist der Server sofort auffindbar.

Wie hängt MCP mit GEO zusammen?

GEO-Optimierungen (Schema.org, semantisches Markup, E-E-A-T) bleiben die Basis – sie sorgen dafür, dass Crawler deine Inhalte verstehen. MCP geht einen Schritt weiter: Statt darauf zu warten, dass die KI deine optimierte Seite crawlt, gibst du ihr eine direkte, strukturierte Datenquelle. Die beiden Ansätze ergänzen sich perfekt.

Welche Daten liefert der designare.at MCP Server?

Zwei Tools: search_knowledge durchsucht die gesamte Knowledge Base semantisch – das ist dieselbe Upstash Vector Pipeline, die auch Evita nutzt. Und get_services liefert einen strukturierten Überblick aller Dienstleistungen als JSON. Die Vector DB synchronisiert sich jede Nacht automatisch.

Fazit: Sei die Quelle, nicht das Suchergebnis

In meinem GEO-Artikel habe ich geschrieben: Die neue Währung ist nicht der Klick, sondern das Zitat. MCP macht daraus eine technische Realität. Du lieferst nicht mehr passiv Content und hoffst auf Crawler – du gibst LLMs eine direkte, verifizierte Leitung zu deinem Wissen.

Takeaway:

  • GEO bleibt die Basis: Strukturierte Daten, semantisches Markup und E-E-A-T sind weiterhin Pflicht. MCP ersetzt GEO nicht – es erweitert es um eine proaktive Komponente.
  • Die Infrastruktur existiert: Wenn du bereits eine RAG-Pipeline betreibst (für einen Chatbot, ein FAQ-System, eine Wissensdatenbank), ist ein MCP Server ein Nachmittagsprojekt – nicht ein Quartals-Ticket.
  • Noch keine RAG-Pipeline? Dann ist der MCP Server das Ziel, nicht der erste Schritt. Fang mit einer Knowledge Base und Vektor-Suche an – der MCP-Endpoint kommt dann fast von allein.
  • Timing: 2026 ist MCP client-seitig bereits Standard (ChatGPT, Claude, Gemini).[1] Der fehlende Baustein ist Discovery – wenn KIs MCP Server automatisch finden können, wird es zum echten Wettbewerbsvorteil.

Probier es aus: Wenn du Claude Desktop nutzt, kannst du den designare.at MCP Server schon heute einbinden und meine Knowledge Base direkt abfragen.

Quellen

  1. Pento: A Year of MCP: From Internal Experiment to Industry Standard – Überblick über die MCP-Adoption inkl. Client-Support in Claude, ChatGPT, Cursor, Gemini, Copilot und VS Code.
  2. InfoQ: OpenAI Adds Full MCP Support to ChatGPT Developer Mode (Oktober 2025) – OpenAIs MCP-Integration mit Lese- und Schreibzugriff auf externe Tools.
  3. PulseMCP: Anthropic donates MCP to the Linux Foundation (Dezember 2025) – Gründung der Agentic AI Foundation mit OpenAI, Block, AWS, Google und Microsoft.
  4. Vercel: Building efficient MCP servers – Streamable HTTP Transport als empfohlener Standard für Remote-MCP-Server.
  5. Anthropic: Model Context Protocol – Offizielle Spezifikation (Spec 2025-03-26) – Das Protokoll, auf dem dieser Server basiert.
  6. VentureBeat: OpenAI updates Responses API with MCP support (Dezember 2025) – Integration von Remote-MCP-Servern in die OpenAI API.

MCP Server für deine Website?

Ob du deine bestehende RAG-Pipeline nach außen öffnen willst oder einen MCP Server von Grund auf brauchst – lass uns reden.