GEO statt SEO. Sichtbar in ChatGPT und Perplexity
Mein Einstieg in Generative Engine Optimization. Was sich gegenüber klassischem SEO ändert, welche Hebel ich 2026 für sinnvoll halte und worauf ich beim Aufbau dieser Seite selbst achte.
Klassisches SEO zielt auf Google Rankings. GEO zielt auf die Antwort selbst. Wenn jemand ChatGPT fragt, wer in Lüneburg KI Lösungen für KMU baut, will ich Teil der Antwort sein. Nicht Platz drei in einer Liste auf Seite zwei. Dieser Artikel ist mein Einstieg ins Thema. Was GEO ist, wie ich es selbst angehe und worauf ich beim Aufbau dieser Seite achte. Weitere Artikel zu den einzelnen Detailthemen folgen.
Was GEO unterscheidet
Suchmaschinen liefern Links. LLMs liefern Antworten. Wer optimieren will, muss verstehen wie diese Antworten zustande kommen. Drei Mechanismen sind für mich entscheidend.
- Trainingsdaten. Was im Pretraining drin war, sitzt im Modell.
- Retrieval Augmented Generation. Bei Live Suche werden aktuelle Quellen gezogen, oft via Bing oder Google Index.
- Browsing Tools. Perplexity, ChatGPT mit Search, Claude. Sie crawlen Seiten in Echtzeit und zitieren sie als Quelle.
Was 2026 für mich funktioniert
Vieles am Thema GEO ist noch experimentell. Ich teste laufend selbst und bilde mir auf Basis meiner Beobachtungen eine Meinung. Die folgenden Hebel halte ich aktuell für die wichtigsten.
Klare Aussagen statt Marketing Bla Bla
LLMs lieben Sätze, die eine konkrete Aussage treffen. Wer schreibt "Wir bieten innovative Lösungen", wird ignoriert. Wer schreibt "Ich baue KI Chatbots für Twitch Streamer mit eigener Stimme und Live Websuche", wird zitiert.
Strukturierte Daten
Schema.org ist nicht nur für Google. Auch LLMs nutzen strukturierte Daten als Hinweis was eine Seite ist und worüber sie spricht. FAQ Schema, Person Schema, Article Schema. Alles hilft.
Zitierfähige Inhalte
Schreibe so, dass ein Absatz aus deinem Text wortwörtlich in einer ChatGPT Antwort funktioniert. Kurze, eigenständige Aussagen. Keine reinen Übergangssätze ohne Substanz.
Technisch sauber sein
Bevor irgendein LLM deine Seite zitiert, muss es sie crawlen können. Klingt trivial, ist es aber nicht. Cloudflare blockiert AI-Crawler in seiner Standardkonfiguration. Wer Cloudflare nutzt und nichts geändert hat, ist möglicherweise für GPTBot, ClaudeBot und PerplexityBot unsichtbar.
Für die robots.txt reicht ein einfaches userAgent: '*' mit allow: '/'. Das erlaubt alle Bots inklusive AI-Crawler. Kein Grund, jeden einzeln aufzulisten. robots.txt ist dabei kein technisches Blockierungsmittel, sondern ein Signal an kooperative Crawler.
llms.txt: nett, aber kein Wundermittel
Viele GEO-Guides verkaufen llms.txt als großen Hebel. Mein Eindruck ist nüchterner. Ich habe bisher keine harten Hinweise gefunden, dass die großen LLM-Anbieter sie wirklich für Antworten heranziehen. Trotzdem habe ich sie auf dieser Seite, weil sie praktisch keinen Aufwand bedeutet und einen klaren Anwendungsfall hat. AI-Agenten und Entwickler, die meine Dienste programmatisch nutzen wollen, sehen so auf einen Blick was ich anbiete. Meine llms-full.txt ansehen.
Außerhalb der eigenen Seite
Wer lokal gefunden werden will, also wenn jemand ChatGPT fragt "Wer baut KI-Lösungen für KMU in Lüneburg?", muss verstehen wo ChatGPT diese Information herholt. Es ist nicht primär Google.
Lokale Präsenz jenseits von Google
ChatGPT hat keine direkte Integration mit Google Business Profile. Für lokale Empfehlungen zieht es primär aus dem Bing-Index und aus Bing Places for Business. Dazu kommen aggregierte lokale Businessdaten aus Karten- und POI-Datenbanken, Bewertungsplattformen und Buchungsportalen. Google Business Profile bleibt wichtig, allerdings eher für Google AI Overviews und Gemini. Wer also nur bei Google gepflegt ist, ist für ChatGPT erstmal blind.
NAP-Konsistenz
Name, Adresse und Telefonnummer müssen auf allen Plattformen und der eigenen Website identisch sein. Nicht ähnlich, sondern identisch. Wenn die Website "Lüneburg" als Standort angibt, aber das Bing-Profil nur die Postleitzahl, registriert das Modell einen Widerspruch und zieht weiter. AI-Bots lesen nicht, um dich kennenzulernen. Sie lesen, um zu verifizieren was andere Quellen bereits über dich sagen.
Reddit ist relevanter als gedacht
Reddit taucht in LLM-Antworten verdächtig oft als Quelle auf. Aus meiner Beobachtung gehört es zu den am häufigsten zitierten Plattformen, oft sogar vor Wikipedia. Der Grund ist relativ simpel. OpenAI und Google haben Lizenzen mit Reddit für Trainingsdaten, und echte Diskussionen zwischen echten Menschen sind für Modelle wertvoller als jede Marketingseite.
Eigenwerbung in Subreddits funktioniert nicht. Das wird downvoted und schadet eher. Was funktioniert ist, echte Fachfragen ehrlich zu beantworten, eigene Erfahrungen zu teilen und nur dann auf eigene Ressourcen zu verweisen, wenn explizit danach gefragt wird.
Was nicht mehr funktioniert
Keyword Stuffing, Backlink Farmen, dünne Inhalte mit reinem Suchvolumen Fokus. LLMs bewerten Inhalt anders als Google PageRank. Backlinks verlieren im GEO-Kontext an direkter Bedeutung. Entscheidend wird, ob Inhalte klar zitierbar und semantisch eindeutig sind.
Mein Fazit
Schreibe für den Leser, strukturiere für die Maschine. Sei technisch erreichbar, sei in den relevanten Verzeichnissen präsent, und sei dort sichtbar wo echte Diskussionen stattfinden. Wer das jetzt etabliert, ist in zwei Jahren nicht mehr einzuholen.
Dieser Artikel ist bewusst als Überblick gedacht. Zu jedem der Themen, die hier nur kurz angerissen sind, plane ich eigene tiefere Artikel. Konkret zur llms.txt, zum Aufbau einer guten robots.txt, zu lokalen Verzeichnissen und zu Reddit als GEO-Hebel. Wer hier wiederkommt, findet sie nach und nach in der Kategorie GEO & SEO.