Definition
Generative Engine Optimization (GEO) ist die Disziplin, eine Website oder Marke so zu strukturieren, dass generative KI-Engines wie Perplexity, ChatGPT, Anthropic Claude und Google AI Overviews sie als Quelle in ihren Antworten zitieren. Klassisches SEO optimiert für die Suchergebnis-Seite und für Klicks. GEO optimiert für die Antwort selbst — also für Erwähnung, Link-Citation und Quellen-Status innerhalb der generierten Antwort.
Der Unterschied klingt akademisch, ist aber operativ groß: Eine Seite kann bei Google auf Position 1 ranken und trotzdem keine einzige Erwähnung in Perplexity oder ChatGPT bekommen. Umgekehrt kann eine SEO-mäßig mittelmäßige Domain in einem signifikanten Teil der branchen-typischen Anfragen bei Perplexity als Quelle auftauchen — wenn ihre Schema-Architektur, Author-Profile und Antwort-Strukturen richtig sitzen. GEO ist ein eigenständiges Optimierungsfeld, kein SEO-Add-on.
Mechanik: Wie LLMs Quellen auswählen
Generative KI-Engines wählen Quellen über drei Mechaniken aus, die unterschiedlich gewichtet sind:
- Retrieval-Augmented Generation (RAG): Bei Web-Search-fähigen Modellen (Perplexity, ChatGPT mit Search, Anthropic mit Search, Google AI Overviews) wird zur Anfrage live im Web nach Quellen gesucht. Die Auswahl basiert auf einer Mischung aus klassischem Search-Ranking und semantischer Ähnlichkeit zur Anfrage.
- Trainings-Memorisation: Bei Anfragen ohne Web-Search greift das Modell auf das zurück, was es im Trainings-Korpus gesehen hat. Inhalte, die häufiger und in autoritativen Kontexten zitiert wurden, sind tiefer in den Modell-Gewichten verankert.
- Tool-Calling und APIs: Manche Engines nutzen externe APIs (Wikidata, eigene Knowledge-Graphs, fachspezifische Datenbanken) und gewichten Inhalte höher, die in diesen strukturierten Quellen referenziert sind.
Für GEO heißt das: Wer alle drei Mechaniken bedient, hat den höchsten Citation-Hebel. Praktisch bedeutet das: live-crawlbarer Content für RAG, semantisch-dichte Pillar-Inhalte für Trainings-Memorisation, strukturierte Daten und Wikidata-Verlinkung für Tool-Calling.
GEO vs. SEO: Wo die Disziplinen sich trennen
SEO und GEO teilen sich technische Grundlagen — beide brauchen sauberen HTML-Code, schnelle Server, mobile-optimierte Layouts. Ab dieser Basis trennen sich die Wege.
Was SEO will
- Hohes Ranking auf der Google-Ergebnisseite
- Klick aus der SERP auf die eigene Site
- Keyword-Targeting für Suchintent
- Backlink-Aufbau für Domain-Authority
- UX-Signale (CTR, Verweildauer, Pogo-Sticking)
Was GEO will
- Erwähnung als Quelle innerhalb generierter Antworten
- Eindeutige Entity-Identifikation (das Unternehmen, die Person, der Service)
- Strukturierte, zitierbare Antwort-Blöcke
- Author-Authority pro Person, nicht nur pro Domain
- Schema-Markup als primärer Indikator (nicht nur als Bonus)
Diese Differenz erklärt, warum SEO-Audits 2026 oft an Symptomen vorbeigehen: ein Audit, das auf Keyword-Dichte und Title-Tags optimiert, übersieht, dass Perplexity die Seite nicht mal als relevantes Ergebnis erkennt, weil das Schema-Markup unzureichend ist.
Engines im Vergleich
Die vier zentralen Engines für B2B-DACH unterscheiden sich in Crawler-Verhalten, Quellen-Präferenz und Update-Geschwindigkeit:
Perplexity, ChatGPT und Claude greifen bei aktuellen Anfragen live auf das Web zu. Google AI Overviews nutzen den Google-Index. Sichtbarkeit in diesen Engines hängt deshalb weniger von einem festen Update-Rhythmus ab, sondern davon, ob eure Seite strukturiert genug ist, um in dem Moment, in dem die Engine sucht, als Quelle erkannt zu werden. Das ist der Unterschied zwischen „wird gefunden" und „wird zitiert".
Eine GEO-Strategie sollte alle vier Engines bedienen, weil B2B-Buying-Center heterogen recherchieren. Die ChatGPT-Affinität in DACH ist hoch, aber Perplexity hat bei technischen B2B-Buyern überproportionale Reichweite. Google AI Overviews wirken über organische Reichweite und sind oft der erste Touchpoint, auch wenn die Click-Through-Rate niedrig ist.
Schema-Engineering: Der wichtigste Hebel
Schema.org ist die strukturierte Daten-Sprache, mit der Crawler den Inhalt einer Seite verstehen. In klassischem SEO ist Schema oft ein nice-to-have — bei GEO ist es der zentrale Hebel, weil generative Engines explizit auf strukturierte Daten zurückgreifen, um Antworten zu konstruieren.
Ein vollständiges Schema-Setup für eine B2B-SaaS-Domain umfasst mindestens:
- Organization: mit name, url, logo, foundingDate, areaServed, sameAs (LinkedIn, Wikidata, Crunchbase), knowsAbout-Liste, contactPoint.
- WebSite: mit potentialAction (SearchAction) und publisher-Verlinkung zur Organization.
- Person für jeden Founder und jeden zentralen Author: mit jobTitle, worksFor, sameAs, alumniOf, knowsAbout, image. Ohne Person-Schema haben Author-Boxen keine Entity-Wirkung.
- Service: ein Service-Eintrag pro Leistungs-Subseite, mit serviceType, provider, areaServed, offers (mit Preis bei Transparenz oder priceRange).
- FAQPage: auf jeder Seite mit FAQ-Sektion, mit mainEntity-Array.
- Article + Person-Author: auf jedem Lab- oder Blog-Artikel.
- BreadcrumbList: auf allen Sub-Pages.
Drei häufige Fehler: (a) Schema nur via Plugin generiert ohne manuelle Validation, (b) sameAs-Listen, die ins Leere zeigen oder unaktualisiert sind, (c) Service-Schemas ohne offers, weil das Pricing-Tabu hochgehalten wird — das kostet Citations bei Pricing-fokussierten Anfragen.
Entity-Mapping: Eindeutigkeit über sameAs
Eine Entität (das Unternehmen, ein Founder, ein Service) muss für Crawler eindeutig sein. Der Mechanismus dafür ist das sameAs-Feld in Schema.org: ein Array von URLs, die dasselbe Entity in autoritativen externen Quellen referenzieren.
Beispiele für solche Quellen: Wikidata, Wikipedia, LinkedIn (Company und Person), Crunchbase, GitHub (für Tech-Personen), eigene Tool-Repositories, akademische Profile (ResearchGate, ORCID).
Eine Person ohne sameAs ist für ein LLM ein Name, mehr nicht — ein Name kann beliebig viele reale Personen meinen. Eine Person mit sameAs auf LinkedIn, Wikidata und GitHub ist eine eindeutige Identität, an die das LLM Reputation, Expertise und Author-Authority koppeln kann. Der Citation-Vorteil ist in der Praxis substanziell.
Author-Authority: Der unterschätzte Faktor
Generative Engines bevorzugen Inhalte mit identifizierbaren Autoren. Anonyme Marketing-Texte werden seltener zitiert als Beiträge mit Person-Schema, Author-Bylines und externer Verlinkung. Der Grund: das Modell kann Inhalt → Person → Reputation → Vertrauenswürdigkeit verketten.
Praktisch heißt das für B2B-Marketing: nicht „Marketing-Team" als Autor, sondern echte Personen mit eigener Domain-Authority. Im Mittelstand bedeutet das oft: die Founder selbst werden zu Author-Brands — mit eigener LinkedIn-Aktivität, Konferenz-Beiträgen, eigenen Lab-/Blog-Beiträgen unter ihrem Namen.
Author-Authority lässt sich gezielt aufbauen. Konkrete Hebel: regelmäßige LinkedIn-Posts mit fachlicher Tiefe (nicht Marketing-Posts), Gastbeiträge auf Branchen-Sites mit Backlink zur Author-URL, Open-Source-Projekte mit klarer Author-Identifikation, Konferenz-Auftritte, deren Aufzeichnungen mit Person-Schema eingebettet werden.
Antwort-Strukturen: Was LLMs zitierbar finden
Inhalte, die LLMs in Antworten verarbeiten, haben charakteristische Strukturen. Diese sind nicht zufällig — sie ergeben sich aus dem Trainings-Bias der Modelle, die mit Wikipedia-, Encyclopaedia- und Lehrbuch-Stil trainiert wurden.
Zitierbare Antwort-Strukturen:
- Definition-First: Jeder H2 wird gefolgt von einem Absatz, der den Begriff in 2–3 Sätzen stand-alone definiert. Der Absatz funktioniert ohne Kontext der restlichen Seite.
- Listen und Tabellen: Vergleichende Inhalte als HTML-Listen oder -Tabellen, nicht als Bilder. LLMs können strukturierte Daten extrahieren, sie können keine Bilder lesen (außer in seltenen Multimodal-Modi).
- FAQ-Blöcke: Frage-Antwort-Paare am Ende einer Pillar-Page, die häufige Fragen abdecken. Mit FAQPage-Schema. Diese Strukturen werden überproportional oft zitiert.
- Faktische Dichte: Inhalte mit konkreten Zahlen, Datierungen, Quellen-Verweisen. Marketing-Texte mit hoher Adjektiv-Dichte werden gefiltert.
Messung & KPIs
GEO-Erfolg lässt sich messen, aber anders als SEO. Die Kern-KPIs:
- Citation-Rate pro Engine: In wie viel Prozent von 50–100 branchen-typischen Anfragen wird eure Domain als Quelle zitiert? Standardmessung: monatlich, mit fixiertem Anfrage-Set.
- Citation-Position: Wenn zitiert — als erste, zweite, dritte Quelle? Frühe Positionen werden tendenziell stärker gewichtet in der Antwort.
- Sentiment der Erwähnung: Wird neutral, positiv, oder vergleichend erwähnt — und wenn vergleichend, gegenüber wem?
- Click-Through aus AI-Antworten: Trotz fertiger Antwort wird ein Teil der Nutzer auf die zitierte Quelle klicken. Messbar via Plausible/GA4 mit UTM oder Referrer-Auswertung.
- Author-Authority-Score: Pro genannten Founder/Author ein eigener Citation-Score über alle Engines.
Roadmap: Wie Ihr in 90 Tagen messbar werdet
Ein realistischer 90-Tage-Plan für eine B2B-Domain mit durchschnittlicher SEO-Basis:
Tage 0–14: Diagnose & Foundation
- Citation-Audit über vier Engines, Baseline für 50–100 Anfragen
- Schema-Audit: Lücken auflisten, Prioritäten setzen
- llms.txt + robots.txt-Konfiguration für GPTBot, ClaudeBot, PerplexityBot
- OG-Image-Set für Schlüssel-Pages
Tage 15–45: Schema + Author-Setup
- Vollständige Schema-Implementierung (Organization, Person, Service, Article)
- sameAs-Verlinkung auf LinkedIn, Wikidata, Crunchbase
- Author-Profile-Seiten mit Person-Schema
- FAQPage-Schemas auf Pillar-Pages
Tage 46–75: Content + Pillar-Pages
- Drei Pillar-Pages mit Definition-First-Struktur
- FAQ-Blocks mit 8–10 zitierbaren Antworten
- Tabellen für Vergleichs-Anfragen
- Author-Bylines auf allen redaktionellen Inhalten
Tage 76–90: Re-Audit + Optimierung
- Re-Citation-Audit über alle vier Engines
- Vergleich Baseline vs. T+90: Citation-Rate-Anstieg messen
- Lücken-Analyse: was ist noch nicht durchgekommen, woran liegt es
- Sprint-Plan für Tage 91–180
Realistische Erwartung: in 90 Tagen erreichbar ist eine Citation-Rate-Steigerung um Faktor 2–3 in Perplexity und Google AI Overviews. ChatGPT und Claude reagieren langsamer (Trainingsdaten-Lag), zeigen aber innerhalb von 6 Monaten ähnliche Effekte, wenn die strukturelle Basis sitzt.