Ein Online-Shop kann tausende URLs haben: Kategorien, Filterkombinationen, Varianten, interne Suchseiten, Promo-Landingpages, Pagination (Seite 2, 3, 4 …). Für Suchmaschinen ist das nur dann gut, wenn klar ist, welche Seiten wirklich wichtig sind. Genau hier hilft eine XML-Sitemap: Sie ist eine Liste von URLs, die Suchmaschinen als „bitte crawlen und bewerten“ verstehen sollen.
Wichtig: Eine Sitemap ist keine Garantie für Rankings. Sie ist ein Steuerungsinstrument für Crawling (Abruf) und Indexierung (Aufnahme in den Index). Richtig eingesetzt spart sie Crawl-Budget (die Zeit, die Google pro Shop investiert) und verhindert, dass Nebenseiten die wichtigen Seiten verdrängen.
Welche Shop-Seiten gehören in eine Sitemap – und welche nicht?
Die wichtigste Regel ist simpel: In die Sitemap gehören nur Seiten, die indexiert werden sollen und technisch sauber erreichbar sind (Status 200, keine Weiterleitung, nicht blockiert). Alles andere erzeugt unnötige Signale.
Typische Kandidaten für die Sitemap
- Produktseiten, die aktiv verkauft werden (inkl. Evergreen-Produkte).
- Kategorieseiten, die echte Sortimentsübersichten bieten.
- Redaktionelle Inhalte, die im Shop helfen (z. B. Ratgeber, Marken- oder Materialseiten), sofern sie Teil der SEO-Strategie sind.
- Wichtige Landingpages (z. B. dauerhaft für Kampagnen oder Sortimentseinstiege).
Seiten, die meist nicht in eine Sitemap gehören
- Interne Suchergebnisseiten.
- Filter- und Sortier-URLs, wenn sie nur technische Varianten der gleichen Kategorie sind (z. B. ?sort=price oder ?color=red).
- Warenkorb, Checkout, Konto-Bereiche.
- URL-Varianten mit Trackingparametern (utm_*, gclid, fbclid).
- Duplikate durch Varianten- oder Paginierungs-Logik, wenn dafür kanonische Seiten (Canonical = „Haupt-URL“) existieren.
Gerade Filter-URLs sind eine der häufigsten Ursachen für „Indexierung läuft aus dem Ruder“. Ohne klare Regeln entstehen schnell zehntausende Seiten, die keinen Mehrwert haben und die Sichtbarkeit wichtiger Seiten bremsen können.
So arbeitet Google mit Sitemaps – kurz und praxisnah
Suchmaschinen nutzen Sitemaps als Hinweis, nicht als Befehl. Eine URL in der Sitemap wird trotzdem nicht indexiert, wenn sie z. B. dünnen Inhalt hat, ein Canonical auf eine andere Seite zeigt oder per noindex ausgeschlossen wird. Umgekehrt kann Google Seiten auch ohne Sitemap finden – zum Beispiel über interne Links.
Crawling vs. Indexierung: der entscheidende Unterschied
Indexierung bedeutet, dass eine Seite grundsätzlich in den Suchindex aufgenommen wird und in Suchergebnissen erscheinen kann. Crawling heißt nur, dass Google die Seite abruft. Eine gute Sitemap hilft vor allem dabei, dass Google die richtigen Seiten regelmäßig besucht und Änderungen schneller erkennt.
Warum „letztes Änderungsdatum“ oft missverstanden wird
Viele Systeme setzen das lastmod-Datum automatisch bei jeder Kleinigkeit neu (z. B. wenn ein Preis aktualisiert wird). Das ist nicht grundsätzlich falsch, kann aber dazu führen, dass Suchmaschinen unnötig oft Seiten neu abrufen. Sinnvoll ist lastmod vor allem, wenn es echte inhaltliche Änderungen gibt (Produktbeschreibung, Verfügbarkeit, neue Bilder, Kategorie-Text).
Sitemap-Strategie für Shops: groß, dynamisch, sauber
Eine einzelne riesige Sitemap ist selten ideal. Besser ist eine Struktur, die zum Shop passt und Wachstum verkraftet. Technisch spricht man oft von einem Sitemap-Index: eine Datei, die auf mehrere Sitemap-Dateien verweist.
Aufteilen nach Inhaltstypen
- Produkte (ggf. zusätzlich nach Alphabet oder ID-Bereichen splitten)
- Kategorien
- Content-/Ratgeberseiten
- Landingpages
Der Vorteil: Probleme lassen sich schneller finden („Nur die Produkt-Sitemap hat viele Fehler“) und es wird leichter, Prioritäten zu setzen.
Dynamische Generierung statt manuelle Listen
Shops ändern sich täglich: Produkte werden deaktiviert, Kategorien umgebaut, URLs angepasst. Eine manuell gepflegte Sitemap veraltet schnell. Besser ist, die Sitemap automatisch aus dem System zu generieren – mit klaren Regeln, welche Objekte hinein dürfen (aktiv, indexierbar, kanonisch).
Häufige Sitemap-Fehler, die Shops Sichtbarkeit kosten
In der Praxis sind es nicht „zu wenige“ Sitemaps, sondern falsche Inhalte. Diese Stolpersteine sind besonders typisch:
Weiterleitungen, 404 und „ausverkauft für immer“
URLs, die auf 301/302 weiterleiten oder 404 liefern, gehören nicht in eine Sitemap. Das gilt auch für dauerhaft entfernte Produkte. Besser: sauber weiterleiten (wenn es einen Nachfolger gibt) oder konsequent entfernen und intern entlinken.
noindex- oder robots-sperrte Seiten in der Sitemap
Eine URL gleichzeitig per noindex auszuschließen und in der Sitemap zu listen, ist ein widersprüchliches Signal. Das führt zu unnötigen Crawls und kann in der Search Console als Warnung auftauchen. Die Regel sollte lauten: Sitemap = indexierbare Seiten.
Canonical zeigt auf eine andere Seite
Viele Shops arbeiten mit Canonicals, um Duplikate zu vermeiden (z. B. Varianten-URLs). Dann sollte in der Sitemap nur die kanonische URL stehen – also die, auf die verwiesen wird. Sonst „bittet“ die Sitemap um Indexierung einer URL, die das System selbst als Zweitversion kennzeichnet.
Parameter-URLs und Filterseiten ungeplant in der Sitemap
Wenn Filterseiten strategisch gewollt sind (z. B. „Sneaker weiß Damen“ als eigene Landingpage), dann sollten sie bewusst gebaut werden: stabile URL, eigener Text, klare interne Verlinkung, Canonical auf sich selbst. Wenn Filterseiten nicht gewollt sind, dürfen sie nicht massenhaft in der Sitemap landen.
Praktische Schritte, um eine Shop-Sitemap zu prüfen und zu verbessern
Die folgenden Schritte funktionieren unabhängig vom Shopsystem. Die Bedienung unterscheidet sich, die Logik bleibt gleich.
Kurze To-do-Liste für den nächsten Arbeitstag
- Sitemap-URL im Browser öffnen und prüfen, ob sie erreichbar ist und aktuelle Inhalte zeigt.
- Stichproben machen: 20–30 URLs aus der Sitemap auf Status 200, Canonical und noindex prüfen.
- Aus der Sitemap alle URL-Typen entfernen, die nicht indexiert werden sollen (Suche, Filter-Parameter, Konto/Checkout).
- Produkt-Regeln festlegen: Welche Zustände sind indexierbar? (z. B. aktiv, lieferbar oder mit Nachlieferdatum, nicht gelöscht)
- Nach einem Relaunch oder einer Migration: Sitemaps erst nach Redirect-Check wieder freigeben, damit keine Weiterleitungen gelistet werden.
Wo sich Fehler oft „verstecken“
Viele Shops erzeugen URLs aus mehreren Quellen: CMS-Seiten, Blog, Shop-Kategorien, Marken-Seiten, Produktvarianten, Kampagnen-Tools. Daher lohnt sich ein Blick in die Gesamtsicht: Sind wirklich nur die Seiten enthalten, die auch intern aktiv verlinkt werden? Eine Sitemap sollte keine „Schattenwelt“ abbilden, die Nutzer nie erreichen.
Entscheidungshilfe: Soll diese Seite in die Sitemap?
Diese Logik hilft beim täglichen Umgang mit neuen Seitentypen (z. B. neue Filter, neue Landingpage-Vorlagen, neue Variantenlogik):
- Ist die Seite für Nutzer gedacht (nicht nur technisch erzeugt)?
- Nein → nicht in die Sitemap.
- Ja → weiter.
- Hat die Seite eine stabile, kanonische URL ohne unnötige Parameter?
- Nein → zuerst URL-Konzept/Canonical klären, dann entscheiden.
- Ja → weiter.
- Lieferte die Seite in Tests einen Status 200 (keine Weiterleitung, kein Fehler)?
- Nein → technisch reparieren oder aus der Sitemap entfernen.
- Ja → weiter.
- Soll die Seite in Google erscheinen (indexierbar, kein noindex, nicht per robots blockiert)?
- Nein → nicht in die Sitemap.
- Ja → aufnehmen.
Kurzer Vergleich: Sitemap, robots.txt und Canonical – wofür ist was?
| Werkzeug | Wofür es gedacht ist | Typischer Shop-Einsatz |
|---|---|---|
| XML-Sitemap | Signalisiert wichtige URLs, die gecrawlt und zur Indexierung berücksichtigt werden sollen | Produkte, Kategorien, Content-Seiten sauber listen |
| robots.txt | Steuert, welche Bereiche gecrawlt werden dürfen (Crawling-Steuerung) | Unwichtige Bereiche wie Suche/Filter-Bereiche crawl-sparend begrenzen (mit Bedacht) |
| Canonical | Definiert die bevorzugte Haupt-URL bei doppelten/ähnlichen Seiten | Varianten/Parameter-URLs auf eine Hauptseite bündeln |
Diese drei Werkzeuge sollten zusammenpassen. Eine saubere Praxis ist: Sitemap listet nur kanonische, indexierbare URLs; Canonicals bündeln Duplikate; robots.txt verhindert unnötiges Crawling von technischen Bereichen.
Shopsystem-spezifische Hinweise: worauf besonders zu achten ist
Die Details hängen vom System und den Erweiterungen ab. Trotzdem tauchen ähnliche Muster immer wieder auf.
WooCommerce: Blog- und Shop-URLs sauber trennen
Bei WooCommerce laufen Shop und Inhalte in WordPress zusammen. Das ist praktisch, macht Sitemaps aber manchmal unübersichtlich (Produkte, Seiten, Beiträge, Kategorien, Tags). Wichtig ist eine klare Regel, welche Archive wirklich in Google erscheinen sollen. Wer gleichzeitig Shop-Kategorien und Blog-Kategorien indexiert, sollte Doppelungen vermeiden. Praktisch ist auch ein Blick auf Shop-Performance, weil langsam ladende Seiten häufiger schlechter gecrawlt werden: WooCommerce Performance optimieren.
Shopify: System-URLs und App-URL-Müll im Blick behalten
Shopify bringt eine klare Grundstruktur mit. Probleme entstehen eher durch Apps, die neue URL-Typen erzeugen, oder durch Filter-/Collection-Parameter. Hier hilft eine regelmäßige Kontrolle, ob wirklich nur die gewünschten Collections und Produkte prominent geführt werden. Wer international arbeitet, sollte außerdem sauber mit Länder-/Sprachversionen umgehen, damit nicht mehrere Versionen um dieselbe Sichtbarkeit konkurrieren: Shopify Markets richtig nutzen.
Shopware/Magento: Varianten, Canonicals und Indexer-Logik
Bei Shopware und Magento entstehen viele URLs durch Varianten, Layered Navigation (Filter) und teils durch technische Indexer (Hintergrundprozesse, die Daten aufbereiten). Hier lohnt sich die Abstimmung zwischen SEO-Logik und Datenlogik: Welche URLs sind „eigenständige Seiten“, welche sind nur technische Ansichten? Wer generell an der Shop-Struktur schraubt, sollte erst die Datenqualität stabilisieren, damit die Sitemap nicht ständig „wackelt“: Produktdaten im Shop skalieren.
Mini-Fallbeispiel aus der Praxis: Filterseiten übernehmen den Index
Ein mittelgroßer Shop erweitert den Katalog und aktiviert mehrere Filter (Farbe, Größe, Marke, Preis). Plötzlich entstehen sehr viele URL-Kombinationen. Die Sitemap wird automatisch gefüllt und enthält neben Kategorien auch tausende Filter-URLs. In der Search Console steigen die gecrawlten Seiten stark an, während neue Produkte langsamer indexiert werden.
Die Lösung ist meist keine „SEO-Magie“, sondern Aufräumen: Filter-URLs aus der Sitemap entfernen, Canonicals auf die Hauptkategorie setzen, nur wenige strategische Filterseiten als feste Landingpages definieren (mit eigener URL und Inhalt) und intern verlinken. Danach konzentriert sich das Crawling wieder auf Produkte und Hauptkategorien.
Pflege-Routine: wie Sitemaps dauerhaft sauber bleiben
Eine Sitemap ist kein Einmal-Projekt. Jede neue App, jedes neue Plugin, jedes neue Template kann neue URL-Typen erzeugen. Sinnvoll ist daher eine kleine Routine:
- Nach Releases/Theme-Updates: Stichprobe in der Sitemap (gibt es plötzlich neue Parameter-URLs?).
- Bei Sortimentswechsel: entfernte Produkte konsequent aus der Sitemap entfernen und Weiterleitungen prüfen.
- Bei Tracking-Projekten: sicherstellen, dass Parameter nicht als eigenständige URLs in der Sitemap landen. Wer Tracking umbaut, sollte generell sauber planen: Shop-Tracking ohne Chaos.
Wer diese Punkte regelmäßig prüft, verhindert stille SEO-Probleme, die sich sonst erst Wochen später in sinkender Indexierung oder unklaren Rankings zeigen.

