Viele Websites verlieren Sichtbarkeit nicht wegen Technikfehlern, sondern wegen Inhalten, die zu wenig Nutzen liefern. Gemeint sind Seiten, die eine Suchanfrage nur oberflächlich beantworten, kaum eigene Informationen enthalten oder sich stark mit anderen URLs überschneiden. Suchmaschinen wollen Ergebnisse zeigen, die ein Problem lösen – nicht nur „da sein“.
Dieser Leitfaden erklärt, wie Thin Content (dünner Inhalt) entsteht, wie sich betroffene Seiten systematisch finden lassen und welche Verbesserungen in der Praxis am meisten bringen. Ziel ist nicht „mehr Text“, sondern mehr Klarheit, Kontext und Entscheidungshilfe für Leser:innen.
Woran dünne Inhalte in der Praxis scheitern
Typische Muster: vorhanden, aber nicht hilfreich
Dünne Inhalte erkennt man oft an wiederkehrenden Mustern. Dazu gehören Seiten, die ein Thema nur anreißen, ohne die naheliegenden Anschlussfragen zu beantworten. Oder URLs, die sich stark ähneln und kaum einen eigenen Zweck haben.
- Eine Produkt- oder Leistungsseite nennt nur Features, aber keine Einsatzfälle, Grenzen, Voraussetzungen oder nächsten Schritte.
- Ein Blogartikel erklärt Begriffe, bleibt aber ohne Beispiel, Anleitung oder Entscheidungskriterien.
- Viele Standort- oder Service-Varianten unterscheiden sich nur in einem Stadtnamen.
- Filter- und Sortierseiten erzeugen zahlreiche URLs, die kaum eigenständige Inhalte haben.
„Zu kurz“ ist nicht automatisch Thin Content
Eine Seite kann kurz und trotzdem stark sein – etwa, wenn sie eine sehr konkrete Frage direkt beantwortet (z. B. Öffnungszeiten, eine Definition mit Beispiel, eine klare Download-Anleitung). Umgekehrt kann eine lange Seite dünn sein, wenn sie nur Allgemeinplätze wiederholt.
Hilfreich ist eine einfache Prüffrage: Würde eine Person nach dem Lesen sagen „Problem gelöst“ – oder müsste sie sofort weitergoogeln?
Warum Thin Content Rankings und Vertrauen kostet
Schwache Relevanzsignale und unklare Zielseite
Wenn viele Seiten nur Teilantworten liefern, entstehen schnell mehrere URLs, die auf ähnliche Suchanfragen zielen. Suchmaschinen müssen dann raten, welche Seite „die“ passende ist. Das kann zu schwankenden Rankings oder dazu führen, dass die falsche URL rankt.
Außerdem sinkt die Chance auf gute Snippets, Verlinkungen und wiederkehrende Besucher:innen, weil der Inhalt keinen klaren Mehrwert bietet.
Mehr URLs bedeuten mehr Pflegeaufwand
Jede indexierte Seite ist ein Versprechen: aktuell, korrekt, hilfreich. Viele dünne Seiten erhöhen den Aufwand für Aktualisierung, interne Verlinkung und Qualitätssicherung – ohne dass sie nennenswert Traffic liefern. Deshalb ist das Thema auch eng mit Indexierung und internen Prioritäten verbunden. Passend dazu hilft ein Blick auf Indexierung gezielt steuern.
Dünne Seiten finden: ein Vorgehen, das ohne Tool-Zirkus klappt
Schritt 1: Kandidaten über Datenquellen sammeln
Für eine erste Liste reichen meist drei Quellen: Suchkonsole (Performance), Analytics/Matomo (Nutzungsdaten) und ein Crawl (technische URL-Liste). Gesucht werden Seiten, die entweder kaum Klicks bekommen, auffällig hohe Absprünge haben oder in großer Zahl sehr ähnlich sind.
- Seiten mit Impressionen, aber fast keinen Klicks (oft passt das Snippet nicht – oder der Inhalt erfüllt den Intent nicht).
- Seiten mit kurzer Verweildauer, obwohl das Thema eigentlich erklärungsbedürftig ist.
- URL-Muster mit vielen Varianten (z. B. /tag/, /filter/, /page/, interne Such-URLs).
Bei vielen Filter- und Tracking-Varianten lohnt sich zusätzlich der Blick auf Parameter-URLs sauber lösen, damit nicht aus Versehen unzählige schwache Seiten entstehen.
Schritt 2: Seitenarten priorisieren statt alles auf einmal
In der Praxis entstehen Thin-Content-Probleme oft in bestimmten Seitentypen. Eine schnelle Priorisierung spart Tage:
| Seitentyp | Warum häufig betroffen | Typische Lösung |
|---|---|---|
| Kategorie-/Übersichtsseiten | Listen ohne Einordnung, wenig Kontext | Intro mit Auswahlhilfe, interne Sprungpunkte, wichtige Unterthemen |
| Tags/Schlagwörter | Automatisch erzeugt, kaum kuratiert | Nur wichtige Tags indexieren oder kuratierte Tag-Seiten aufbauen |
| Filter-/Sortierseiten | Viele Varianten, gleiche Produkte/Artikel | Indexierung begrenzen, kanonisieren oder noindex (je nach Ziel) |
| Standort-/Varianten-Seiten | Textbausteine, geringe Einzigartigkeit | Pro Standort echte Infos: Angebot, Referenzen, Anfahrt, Besonderheiten |
| Thin Blogposts | Keyword-getrieben, ohne Tiefe | Zusammenführen, erweitern, klaren Fokus setzen |
Schritt 3: Manuelle Qualitätsprüfung mit klaren Kriterien
Die schnellste Prüfung ist ein kurzer „Redaktionscheck“ pro Seite:
- Deckt die Seite die Kernfrage vollständig ab (Definition, Vorgehen, Entscheidung, nächster Schritt)?
- Gibt es ein konkretes Beispiel oder eine Mini-Anleitung?
- Ist klar, für wen die Seite gedacht ist (Einsteiger:in, Vergleich, Kauf, Problembehebung)?
- Ist der Inhalt einzigartig im eigenen Webauftritt oder könnte er 1:1 auf einer anderen URL stehen?
Was tun mit Thin Content: verbessern, zusammenführen oder aus dem Index nehmen
Option A: Inhalt vertiefen – aber zielgerichtet
Vertiefen heißt: fehlende Teile ergänzen, die Leser:innen wirklich erwarten. Häufig sind das Voraussetzungen, typische Fehler, Alternativen und konkrete Schritte. Damit der Text nicht „aufbläht“, hilft eine Struktur, die wie eine kurze Beratung funktioniert.
Besonders wirkungsvoll sind:
- Suchintention (was Nutzer:innen wirklich erreichen wollen) klar im Einstieg spiegeln.
- Konkrete Beispiele aus dem Alltag (z. B. „Shop mit 5.000 Produkten und vielen Filtern“).
- Eine klare Empfehlung, wann welche Lösung sinnvoll ist.
Wenn unklar ist, welche Erwartungen hinter einer Suchanfrage stecken, unterstützt Keyword-Intent verstehen beim sauberen Abgleich.
Option B: Ähnliche Seiten zusammenführen
Wenn mehrere URLs dasselbe Thema behandeln, ist Zusammenführen oft die beste Lösung: Eine starke Zielseite bündeln, schwächere Seiten inhaltlich integrieren und anschließend sauber weiterleiten. So entsteht eine Seite, die wirklich Tiefe bietet, statt viele halbe Antworten zu streuen.
Wichtig: Nur zusammenführen, wenn die Suchanfragen wirklich zusammengehören. Wenn es unterschiedliche Bedürfnisse sind (z. B. „Definition“ vs. „Kosten“), sind getrennte Seiten sinnvoll – aber dann mit klarer Abgrenzung.
Option C: Indexierung begrenzen (ohne „kaputt zu machen“)
Manche Seiten müssen existieren (z. B. Filterkombinationen für Nutzer:innen), sollen aber nicht in der Suche landen. Dann ist noindex (Anweisung: nicht indexieren) oft die passende Lösung. Bei echten Duplikaten kann ein Canonical Tag (Hinweis auf die Hauptseite) helfen, Signale zu bündeln. Welche Variante passt, hängt vom Zweck der URL ab: Ist sie nur ein Bedien-Feature oder eine eigenständige Landingpage?
Für Grundlagen rund um Duplikate ist Duplicate Content beheben eine sinnvolle Ergänzung.
Ein klarer Ablauf für die Überarbeitung – ohne sich zu verzetteln
Kurze Arbeitsroutine für Redaktion und SEO
Damit aus „Wir müssten mal“ ein Ergebnis wird, hilft ein wiederholbarer Ablauf. Diese Schritte lassen sich pro URL in 30–90 Minuten vorbereiten; die eigentliche Texterstellung hängt vom Thema ab.
- Primärfrage definieren: Welche Aufgabe löst die Seite?
- Nebenfragen sammeln: Welche 5–8 Anschlussfragen tauchen logisch auf?
- Gliederung anpassen: H2/H3 so setzen, dass man die Seite scannen kann.
- Mehrwert ergänzen: Beispiele, Schrittfolgen, Grenzen, Alternativen, kurze Definitionen.
- Interne Links prüfen: Von passenden Seiten auf die Zielseite verlinken, damit sie als wichtig erkennbar ist.
- Snippet-Check: Title/Description und erste 2–3 Sätze müssen zur Suchanfrage passen.
Mini-Fallbeispiel: Tag-Seiten in einem Blog
Ein Blog nutzt viele Tags, jede Tag-Seite listet automatisch Beiträge. Problem: Die Seiten haben kaum Text, kaum Klicks, aber werden indexiert. Ergebnis: Viele schwache URLs konkurrieren mit Kategorien und Artikeln.
Pragmatische Lösung:
- Nur wenige, wirklich sinnvolle Tags behalten (die echte Themen bündeln).
- Diese Tag-Seiten kuratieren: kurze Einordnung, wichtigste Artikel als Startpunkt, klare interne Links.
- Unwichtige Tags auf noindex setzen oder zusammenführen.
So bleibt die Navigation für Leser:innen erhalten, ohne die Suche mit dünnen Seiten zu fluten.
Entscheidungshilfe: Welche Maßnahme passt zu welcher Seite?
Wenn-dann-Logik für schnelle Entscheidungen
- Wenn die Seite ein eigenes Thema mit eigenem Nutzen hat:
- Dann Inhalte vertiefen und Struktur verbessern.
- Zusätzlich: klare interne Verlinkung und eindeutige Überschriften.
- Wenn mehrere Seiten denselben Intent bedienen:
- Dann Inhalte bündeln, eine Hauptseite wählen und weiterleiten.
- Wenn die Seite nur eine Variante/Filter/Sortierung ist:
- Dann Indexierung begrenzen (z. B. noindex oder Canonical, je nach Fall).
- Wenn die Seite veraltet ist und keinen Zweck mehr erfüllt:
- Dann entfernen oder sauber ersetzen (je nach Inhalt und Nachfrage).
Qualität halten: wie Thin Content nicht zurückkommt
Redaktionelle Leitplanken für neue Seiten
Viele Thin-Content-Probleme entstehen, weil neue Inhalte ohne klare Mindestanforderungen veröffentlicht werden. Ein einfacher Standard verhindert das:
- Jede neue Seite braucht einen klaren Zweck (eine Frage, ein Problem, ein Angebot).
- Mindestens ein konkretes Beispiel oder eine Schrittfolge.
- Eine kurze Passage, die Grenzen oder typische Fehler adressiert.
- Interne Links: mindestens eine passende Verknüpfung zu einem relevanten Grundlagen- oder Vertiefungsthema.
Technische Auslöser im Blick behalten
Neben Redaktion können auch Systeme Thin Content erzeugen: interne Suche, Kalenderseiten, Paginierung, Filterkombinationen, Druckansichten. Wer hier proaktiv steuert, spart später Aufräumarbeiten. Für Shops und größere Content-Bereiche ist außerdem sinnvoll, die Seitenarchitektur regelmäßig zu prüfen, damit wichtige Seiten nicht „untergehen“.
Gut umgesetzt bedeutet das: weniger, aber stärkere Seiten. Jede URL im Index sollte eine klare Aufgabe erfüllen – und diese Aufgabe sichtbar lösen.

