Paginierung entsteht überall dort, wo viele Inhalte in mehrere Seiten aufgeteilt werden: Blog-Archive, Produktlisten, Kategorien oder Kommentare. Für Suchmaschinen ist das ein Balanceakt: Einerseits sollen wichtige Inhalte gefunden werden, andererseits sollen nicht dutzende fast gleiche Listen-Seiten den Index verstopfen. Genau hier tauchen oft Fragen zu Pagination-Tags auf – vor allem zu rel="next" und rel="prev".
Wichtig ist eine nüchterne Einordnung: Diese Tags sind kein Zaubertrick. Sie helfen dabei, Seiten als zusammengehörige Reihe zu kennzeichnen. Sichtbarkeit entsteht aber vor allem durch saubere interne Verlinkung, sinnvolle Indexierungsentscheidungen und gute Seitenqualität.
Warum Pagination SEO-Probleme verursacht
Viele Seiten, wenig Unterschied: das Muster hinter „Thin“-Listen
Paginiert aufgebaute Listen ähneln sich stark: gleiche Überschrift, gleiche Filter, ähnliche Einleitung, nur andere Items im Hauptbereich. Wenn jede Seite indexiert wird, kann das zu viel „ähnlichem“ Content führen. Das ist nicht automatisch schädlich, aber es erhöht die Wahrscheinlichkeit, dass Suchmaschinen die falsche Seite ranken (z. B. Seite 4 statt Seite 1) oder dass Crawling-Kapazität auf unwichtigen URLs landet.
Typisches Alltagsbeispiel: Eine Kategorie „Sneaker“ hat 20 Unterseiten. Seite 1 zeigt die beliebtesten Produkte, Seite 2 zeigt den Rest. Wenn Nutzer:innen meist über „Sneaker kaufen“ einsteigen, ist Seite 1 die beste Zielseite. Seite 7 hat selten einen eigenen Suchwert, kann aber trotzdem gecrawlt und indexiert werden – je nach Setup.
Wenn Signale „zerstreuen“: interne Links und Linkkraft
Bei Paginierung verteilt sich interne Linkkraft (einfach gesagt: interne Signale) über viele URLs. Wenn wichtige Unterseiten oder Produkte nur auf Seite 8 auftauchen und diese Seite kaum intern verlinkt ist, kann das die Auffindbarkeit erschweren. Das Problem ist weniger „Duplicate Content“, sondern eher: wichtige Ziele hängen zu tief in der Liste.
Indexierung vs. Crawling: zwei verschiedene Entscheidungen
Viele Setups vermischen diese Themen. Crawling bedeutet: Google ruft eine URL ab. Indexierung bedeutet: Google nimmt sie in den Suchindex auf. Eine paginierte Seite kann gecrawlt werden, ohne dass sie eine gute Kandidatin für den Index ist. Genau deshalb braucht es klare Regeln pro Seitentyp.
rel next/prev: Was die Tags leisten – und was nicht
Wozu rel=“next“ und rel=“prev“ gedacht sind
Die Tags rel="next" und rel="prev" kennzeichnen die Beziehung zwischen Seiten einer Reihe. Seite 1 verweist auf Seite 2 (next), Seite 2 zurück auf Seite 1 (prev) und weiter auf Seite 3 (next) usw. Ziel: Suchmaschinen sollen erkennen, dass diese Seiten zusammengehören.
In der Praxis helfen diese Hinweise vor allem bei der Interpretation der Struktur. Sie ersetzen aber keine anderen Signale wie interne Links, Canonicals oder klare URL-Strukturen.
Warum die Tags heute oft überschätzt werden
Viele Teams hoffen, dass rel next/prev automatisch dafür sorgt, dass nur Seite 1 rankt. Das ist nicht garantiert. Ranking wird pro URL entschieden, je nach Relevanz und Qualität. Wenn Seite 3 zufällig genau die Produkte enthält, die zur Suchanfrage passen, kann auch Seite 3 sichtbar werden.
Deshalb gilt: rel next/prev ist ein Ordnungs-Signal, aber keine „Indexierungs-Steuerung“. Wer Indexierung aktiv steuern will, braucht andere Hebel.
Technische Umsetzung: typische Fehler
- Next/Prev nur auf Seite 1 gesetzt, danach fehlt die Kette.
- Falsche Ziele (z. B. Seite 2 zeigt next auf Seite 4).
- Parameter- oder Sortier-URLs werden in die Kette gemischt.
- Die Paginierung hat zusätzlich eine andere URL-Variante (mit/ohne Slash), wodurch doppelte Reihen entstehen.
Canonical bei Paginierung: die häufigste Fehlentscheidung
Warum „alle Seiten canonicals auf Seite 1“ oft schadet
Ein verbreitetes Muster: Jede paginierte Seite setzt ein Canonical auf Seite 1. Das wirkt auf den ersten Blick logisch („Seite 1 ist die wichtigste“), kann aber Nebenwirkungen haben. Denn Canonical heißt: „Diese Seite ist eine Kopie, bitte nimm die andere als Hauptversion.“ Paginierte Seiten sind aber nicht identisch, sie enthalten unterschiedliche Items.
Wenn alle Seiten auf Seite 1 canonicalisieren, können Suchmaschinen die tieferen Seiten als weniger relevant behandeln. Das kann vor allem dann problematisch sein, wenn Produkte/Artikel nur auf Seite 5 verlinkt sind: Die Seite wird entwertet, ihre Links können schwächer wirken, und Inhalte werden schlechter entdeckt.
Wann ein Self-Canonical sinnvoll ist
In vielen Fällen ist ein Self-Canonical (jede Seite canonicalisiert auf sich selbst) die sauberste Lösung: Jede URL ist eine eigenständige Seite in der Reihe. Dann entscheidet sich über Indexierung und Ranking über andere Signale (z. B. interne Links, noindex, Content-Qualität).
Wenn zusätzlich Sortierungen, Filter oder Tracking-Parameter existieren, sollte Canonical vor allem dafür genutzt werden, diese Varianten auf eine klare Haupt-URL zurückzuführen. Für Parameter-Fragen passt der Vertiefungsartikel zu Parameter-URLs sauber lösen.
Praxisregel für Teams ohne Spezial-Setup
Wenn es keine starke Begründung für etwas anderes gibt: Self-Canonical auf paginierten Seiten, konsistente Pagination-Links, und dann gezielt entscheiden, welche Seiten indexiert werden sollen.
Welche Pagination-Seiten sollten indexiert werden?
Wenn Seite 2+ echten Suchwert hat
Es gibt Fälle, in denen Seite 2 oder 3 eigene Suchanfragen abdecken kann. Beispiel: „Sneaker blau Größe 46“ landet zufällig auf Seite 3 der Kategorie. Oder ein Blog-Archiv hat auf Seite 2 eine eigene relevante Teilliste (z. B. ältere, aber sehr gesuchte Artikel). Dann kann Indexierung sinnvoll sein – vor allem, wenn die Seite nicht nur eine leere Liste ist.
Wenn Seite 2+ kaum Nutzen bringt
Viele paginierte Seiten sind reine Durchblätter-Seiten ohne eigene Orientierung. Hier ist es oft sinnvoll, die Indexierung zu begrenzen, damit der Index nicht mit schwachen Listen gefüllt wird. Das bedeutet nicht, dass diese Seiten „verboten“ sind: Sie können weiterhin gecrawlt werden, um Links zu entdecken.
Für die Steuerung der Indexierung sind Meta-Robots-Regeln entscheidend. Der passende Kontext steckt im Beitrag Robots Meta Tag: Indexierung gezielt steuern.
Entscheidungshilfe als verschachtelte Liste
- Hat die paginierte Seite einen eigenständigen Nutzen in der Suche?
- Ja: indexierbar lassen und Qualität verbessern (Einleitung, Filterlogik, interne Links).
- Nein: eher nicht indexieren und trotzdem gut verlinkbar halten.
- Enthält die Seite wichtige Ziele (Produkte/Artikel), die sonst schlecht erreichbar sind?
- Ja: sicherstellen, dass diese Ziele zusätzlich intern verlinkt sind (z. B. über „Beliebt“, „Neu“, thematische Hubs).
- Nein: Paginierung kann stärker als Navigation behandelt werden.
Interne Verlinkung: der unterschätzte Hebel bei Paginierung
Wichtige Inhalte aus der Tiefe nach vorn holen
Wenn Produkte oder Artikel nur über „Weiterblättern“ erreichbar sind, dauert es länger, bis Suchmaschinen sie finden und verstehen. Besser ist, wichtige Inhalte zusätzlich prominent zu verlinken, zum Beispiel:
- „Top“-Blöcke in Kategorien (z. B. meistgeklickte Produkte)
- thematische Unterkategorien statt endloser Listen
- interne Links aus passenden Ratgeberseiten
Wie Ankertexte und Struktur zusammenspielen, erklärt der Beitrag Interne Links für SEO planen.
Pagination-Navigation selbst: klar, stabil, crawlbar
Die Paginierungs-Links sollten als normale Links im HTML verfügbar sein (nicht nur per Script nachgeladen). Außerdem sollte es einen stabilen Pfad geben: Seite 1 verlinkt Seite 2, Seite 2 verlinkt Seite 3 usw. Ein „Alle anzeigen“-Link kann hilfreich sein, wenn er wirklich performant ist – sonst wird er schnell zum Problem (lange Ladezeit, unübersichtlich, hoher Ressourcenverbrauch).
So wird Pagination sauber umgesetzt
- Eine einheitliche URL-Logik festlegen (z. B. /kategorie/page/2/ oder ?page=2) und Varianten vermeiden.
- Pagination technisch durchgängiger machen: Jede Seite verlinkt die nächste und vorherige Seite.
- Canonical prüfen: In Standardfällen Self-Canonical je Seite; Parameter-Varianten auf die Haupt-URL konsolidieren.
- Indexierung bewusst entscheiden: Nur Seiten indexieren lassen, die eigenständigen Suchwert haben.
- Interne Links ergänzen: wichtige Produkte/Beiträge nicht nur „tief“ in Listen verstecken.
- Snippets testen: Title/Description so schreiben, dass Seite 2+ nicht wie eine Kopie von Seite 1 wirkt (falls sie indexiert bleiben soll).
Kontrolle in der Praxis: woran sich gute Pagination erkennen lässt
In der Search Console typische Muster prüfen
Ohne Zahlenversprechen lässt sich trotzdem systematisch prüfen, ob das Setup stabil ist:
- Werden unerwünschte Paginierungs-URLs indexiert (z. B. Sortierungen, Filterkombinationen)?
- Ranken unerwartet Seite-3-URLs für generische Keywords, obwohl Seite 1 besser wäre?
- Gibt es viele „Duplikat“-Hinweise, die auf URL-Varianten hindeuten?
Wenn dabei viele Altlasten sichtbar werden, hilft ein strukturiertes Vorgehen über ein Inhalts- und Seiteninventar. Passend dazu: SEO für Content-Audits.
Ein kurzer Realitätscheck mit zwei Beispiel-Szenarien
| Szenario | Typisches Ziel | Pragmatische Entscheidung |
|---|---|---|
| Blog-Archiv mit 30 Seiten | Nur Seite 1 soll als Einstiegsseite ranken | Seite 1 optimieren, Seite 2+ eher nicht indexieren, aber sauber verlinken |
| Shop-Kategorie mit wechselndem Sortiment | Produkte sollen schnell gefunden werden | Starke interne Links zu Top-Produkten/Unterkategorien, Paginierung als Navigation stabil halten |
Häufige Fragen aus dem Alltag
Sollten paginierte Seiten per robots.txt blockiert werden?
Meistens nicht. Wenn Suchmaschinen die Seiten nicht crawlen dürfen, können sie auch die Links zu Produkten/Artikeln dahinter schlechter entdecken. Besser ist häufig: Crawling zulassen, Indexierung separat steuern. Wer Crawling-Regeln braucht, findet Details in SEO für robots.txt.
Was ist besser: /page/2/ oder ?page=2?
Beides kann funktionieren. Entscheidend ist Konsistenz, keine Doppelvarianten und ein sauberes Handling von Parametern (Sortierung, Filter, Tracking). Wenn mehrere Varianten parallel existieren, steigen Duplikat-Risiken.
Ist „noindex, follow“ für Seite 2+ sinnvoll?
Das kann sinnvoll sein, wenn Seite 2+ keinen Suchwert hat, aber die Links dennoch genutzt werden sollen. Wichtig ist, die Wirkung sauber zu testen und nicht „blind“ auf Templates zu setzen. Zudem sollte die Navigation so gebaut sein, dass wichtige Ziele auch ohne tiefe Paginierung erreichbar bleiben.
Die wichtigste Leitidee: Paginierung ist Navigation. Ranking entsteht dort, wo eine Seite Nutzer:innen wirklich abholt – und wo Signale klar auf die richtige Zielseite zeigen. rel next/prev kann dabei helfen, Ordnung zu schaffen, ersetzt aber keine saubere Struktur, gute interne Links und klare Entscheidungen zur Indexierung.

