Manchmal ist SEO nicht die Frage von „besserem Text“, sondern von klaren Signalen. Eine Seite kann technisch perfekt sein und trotzdem nicht in den Suchergebnissen erscheinen – weil sie (aus Versehen) das falsche „Bitte nicht“-Schild trägt. Genau hier hilft der Robots Meta Tag: Er sagt Suchmaschinen, was mit einer einzelnen Seite passieren soll.
Wichtig: Der Robots Meta Tag ist kein Hebel für Rankings „nach oben“, sondern ein Steuer- und Schutzmechanismus. Richtig eingesetzt verhindert er, dass unwichtige oder sensible Seiten im Index landen. Falsch eingesetzt blockiert er wertvolle Inhalte.
Robots Meta Tag einfach erklärt: Was wird gesteuert?
Der Robots Meta Tag ist ein HTML-Meta-Element im head einer Seite. Er richtet sich an Suchmaschinen-Crawler (Programme, die Webseiten abrufen) und kann z. B. festlegen, ob eine Seite indexiert werden darf.
Typische Einsatzfälle:
- Interne Suchergebnisseiten im Shop sollen nicht in Google landen.
- Checkout-, Login- oder Warenkorbseiten sollen unsichtbar bleiben.
- Test- oder Staging-Seiten sollen nicht indexiert werden.
- Tag- oder Filterseiten sollen nicht als eigenständige Suchergebnisse konkurrieren.
Der Kern: Es geht um die Indexierung einzelner URLs und darum, ob Links auf der Seite als Hinweise genutzt werden dĂĽrfen.
So sieht ein Robots Meta Tag aus
In der Praxis steht im Kopfbereich einer Seite sinngemäß: „index/noindex“ und „follow/nofollow“. In WordPress wird das meist durch SEO-Plugins oder Theme-Funktionen gesetzt – selten manuell im Code.
Die wichtigsten Direktiven: noindex, follow und nofollow
Robots-Direktiven bestehen aus klaren Anweisungen. FĂĽr die meisten Websites reichen wenige Optionen.
noindex: Seite nicht in Suchergebnisse aufnehmen
noindex bedeutet: Diese URL soll nicht als Treffer in der Suche erscheinen. Die Seite kann weiterhin gecrawlt werden, aber sie wird nicht im Index gespeichert (bzw. bei erneuter PrĂĽfung entfernt).
Gute Kandidaten fĂĽr noindex:
- Warenkorb, Checkout, „Danke“-Seiten nach Formularen
- Interne Suche
- Login- und Kundenkonto-Bereiche
- Seiten mit sehr dĂĽnnem Inhalt, die keinen Suchnutzen haben
Vorsicht: noindex ist nicht dasselbe wie „verstecken“. Inhalte können trotzdem über direkte Links erreichbar sein. Wer Inhalte wirklich schützen muss, braucht Zugangsschutz (z. B. Passwort) statt SEO-Anweisungen.
index: Standard – muss meist nicht gesetzt werden
„index“ ist in den meisten Fällen die Voreinstellung: Suchmaschinen dürfen die Seite indexieren. Es ist selten nötig, index aktiv zu setzen, außer in Spezialfällen, wenn andere Regeln überschrieben werden sollen.
follow vs. nofollow: Was passiert mit Links?
nofollow signalisiert: Links auf dieser Seite sollen nicht als Hinweis für das Folgen/Übertragen von Signalen genutzt werden. Das ist heute deutlich weniger ein „harte Kante“-Schalter als früher, weil Suchmaschinen solche Hinweise interpretieren können. Dennoch ist nofollow als Steueroption sinnvoll, wenn eine Seite viele Links enthält, die nicht als Empfehlung verstanden werden sollen (z. B. Nutzer-generierte Bereiche).
„follow“ ist der Standard und muss meist nicht gesetzt werden.
Robots Meta Tag vs. robots.txt: Wann welches Werkzeug?
Beide Begriffe klingen ähnlich, lösen aber unterschiedliche Aufgaben. Eine klare Unterscheidung verhindert typische SEO-Fehler.
| Thema | Robots Meta Tag | robots.txt |
|---|---|---|
| Geltungsbereich | Nur fĂĽr eine konkrete Seite (URL) | FĂĽr Pfade/Verzeichnisse, oft viele URLs gleichzeitig |
| Ziel | Indexierung steuern (index/noindex) und Link-Signale (follow/nofollow) | Crawling steuern (welche URLs abgerufen werden dĂĽrfen) |
| Wichtigster Unterschied | Kann eine Seite aus dem Index halten | Verhindert nicht automatisch Indexierung, wenn URL bekannt ist |
| Typischer Einsatz | Checkout, interne Suche, Filterseiten, Tag-Seiten | Staging-Verzeichnisse, Parameter-Pfade, sehr groĂźe Bereiche |
Praxis-Merksatz: Wer verhindern möchte, dass eine URL als Suchergebnis erscheint, nutzt zuerst den Robots Meta Tag (noindex). Wer verhindern möchte, dass ein Bereich überhaupt gecrawlt wird, nutzt die robots.txt. Für das Crawling-Steuern lohnt auch ein Blick in robots.txt für SEO – Crawling steuern, Fehler vermeiden.
Typische Fehler: Warum Seiten verschwinden oder nicht ranken
Viele Indexierungsprobleme entstehen nicht durch Google-„Launen“, sondern durch widersprüchliche oder unbemerkte Einstellungen.
Noindex auf wichtigen Seiten (oft durch Templates, Kategorien, Tags)
Häufige Ursache: Ein SEO-Plugin setzt „noindex“ pauschal auf Taxonomien (Kategorien/Tags) oder auf bestimmte Seitentypen. Das kann sinnvoll sein – oder wichtige Landingpages aus dem Index werfen. Besonders kritisch ist das bei Shop-Kategorien oder Ratgeber-Kategorien, die organisch Traffic bringen sollen.
Tipp: In WordPress immer prüfen, ob für „Archivseiten“ oder „Taxonomien“ globale Regeln aktiv sind.
robots.txt blockiert das Crawling, Meta-Tag soll aber noindex setzen
Ein häufiger Widerspruch: Eine URL wird in der robots.txt gesperrt, gleichzeitig soll ein noindex wirken. Das Problem: Wenn Suchmaschinen die Seite nicht abrufen dürfen, können sie den Meta-Tag nicht sehen. Ergebnis: Die URL kann im Index bleiben, aber ohne Inhalte („leerer“ Eintrag) oder mit veralteten Infos.
Saubere Lösung: Für „aus dem Index entfernen“ erst Crawling erlauben und noindex ausspielen. Für „gar nicht erst abrufen“ robots.txt verwenden – aber dann nicht darauf verlassen, dass es automatisch aus dem Index verschwindet.
Nofollow als pauschale Lösung für interne Links
Interne Links sind ein wichtiges Navigations- und Signalnetz. Wer ganze Bereiche auf nofollow setzt, schwächt oft die interne Verteilung von Relevanz. Besser: Seiten gezielt auf noindex setzen und Links normal nutzbar lassen. Wer die interne Verlinkung strukturiert verbessern will, findet praxisnahe Ansätze in Interne Verlinkung für SEO optimieren.
Wann noindex sinnvoll ist – und wann nicht
noindex ist ein Werkzeug, um den Index „sauber“ zu halten. Das ist besonders wichtig, wenn viele Seiten entstehen, die kaum eigenständigen Suchnutzen haben.
Sinnvolle Kandidaten fĂĽr noindex
- Seiten ohne eigenständige Suchintention (z. B. „Passwort vergessen“, „AGB als reine Pflichtseite“ je nach Kontext)
- Filterkombinationen, die schnell explodieren (z. B. Farbe + Größe + Marke + Preis)
- Interne Suchergebnisse
- Druckansichten oder sehr ähnliche Varianten
Vorsicht bei Ratgeber-Ăśbersichten, Kategorien und Hub-Seiten
Gerade Übersichtsseiten können sehr wertvoll sein, wenn sie Orientierung geben und eigene Inhalte bieten (einleitender Text, klare Struktur, interne Links). Hier ist noindex oft ein Verlust, nicht ein Gewinn. Falls viele sehr ähnliche Seiten existieren, kann das Thema eher in Richtung Canonical Tag richtig nutzen oder in eine bessere URL-/Filter-Strategie gehen.
Praktische Schritte: Robots Meta Tags sauber prĂĽfen und setzen
Die meisten Probleme lassen sich mit einem einfachen Ablauf finden. Dabei geht es weniger um „Tool-Wissen“, sondern um eine verlässliche Routine.
- Wichtige Seitentypen auflisten: Startseite, Kategorien, Produktseiten, Ratgeber, Tag-Seiten, interne Suche, Checkout.
- Pro Seitentyp prĂĽfen, ob index/noindex gesetzt ist (im Seitenquelltext oder via SEO-Plugin-Einstellungen).
- Bei unerwartetem noindex zuerst globale Regeln checken (Plugin: Archive/Taxonomien/Medienseiten).
- WidersprĂĽche beseitigen: Wenn noindex wirken soll, darf die URL nicht per robots.txt blockiert sein.
- Nach Änderungen kontrollieren, ob wirklich der gewünschte Meta-Tag ausgeliefert wird (Cache/CDN nicht vergessen).
- Für große Websites zusätzlich stichprobenartig prüfen: wichtige Templates, Paginierung, Filter, Sortierungen.
Erweiterte Direktiven: noarchive, nosnippet, max-image-preview
Neben index/follow gibt es weitere Direktiven. Sie sind für Spezialfälle gedacht und sollten sparsam eingesetzt werden, weil sie die Darstellung in den Suchergebnissen einschränken können.
nosnippet und noarchive: Kontrolle ĂĽber Anzeige, nicht ĂĽber Ranking
nosnippet verhindert, dass Textausschnitte in den Suchergebnissen angezeigt werden. Das kann fĂĽr Seiten mit sensiblen Informationen sinnvoll sein, senkt aber oft die Klickrate, weil der Kontext fehlt.
„noarchive“ verhindert die Anzeige einer zwischengespeicherten Version. Das ist selten nötig und bringt in den meisten Projekten keinen echten Vorteil.
max-snippet und max-image-preview: Vorschau begrenzen
Mit diesen Anweisungen lässt sich steuern, wie viel Vorschau gezeigt wird. In der Praxis wird das meist nur genutzt, wenn Inhalte nicht vollständig in Vorschauen erscheinen sollen. Für typische Unternehmensseiten ist das selten relevant.
Kurzes Fallbeispiel: Shop verliert Sichtbarkeit nach Plugin-Update
Ein Shop stellt fest: Kategorie-Seiten verlieren Traffic, während Produktseiten stabil bleiben. In der Kontrolle zeigt sich, dass ein SEO-Plugin-Update eine neue Voreinstellung aktiviert hat: Kategorie-Archive wurden auf noindex gesetzt. Zusätzlich war eine interne Filter-Navigation weiter indexierbar, wodurch Google viele dünne Filterkombinationen sah, aber die eigentlichen Kategorien nicht mehr.
Die Lösung ist in solchen Fällen oft pragmatisch:
- Kategorie-Archive wieder auf index setzen und mit einleitendem Text aufwerten.
- Filterkombinationen begrenzen (z. B. per noindex fĂĽr bestimmte Parameter-Seiten).
- Interne Links auf Kategorien stärken, damit die Struktur klar bleibt.
Wer ähnliche Effekte nach Änderungen beobachtet, sollte zusätzlich die Snippet- und Title-Einstellungen prüfen; das Thema ist gut ergänzt durch SEO-Metadaten optimieren.
Häufige Fragen aus der Praxis
Entfernt noindex eine Seite sofort aus Google?
Nein. Suchmaschinen müssen die Seite erneut abrufen, um das noindex-Signal zu sehen und umzusetzen. Wie schnell das passiert, hängt davon ab, wie oft die URL gecrawlt wird und ob sie intern gut erreichbar ist.
Ist noindex besser als Löschen (404/410)?
Das hängt vom Ziel ab. noindex ist sinnvoll, wenn die Seite für Nutzer weiterhin gebraucht wird (z. B. Login, interne Suche). Wenn eine Seite dauerhaft weg ist, sind passende Statuscodes (404/410) meist sauberer. Für das Verständnis typischer Fehler lohnt der Artikel SEO-Fehlercodes verstehen – 404, 410 & Soft-404 richtig lösen.
Sollten Tag-Seiten in WordPress auf noindex stehen?
Oft ja, aber nicht pauschal. Tag-Seiten ohne eigenen Mehrwert (nur Listen) ziehen schnell viele dünne Seiten nach sich. Wenn Tags jedoch bewusst als Themen-Übersichten gepflegt werden (Einleitung, klare Auswahl, interne Links), können sie indexierbar sein.
Kann nofollow interne Verlinkung „reparieren“?
In der Regel nicht. Interne Verlinkung wird besser durch klare Struktur, sinnvolle Ankertexte und weniger unnötige URLs. nofollow ist eher ein Spezialwerkzeug für bestimmte Linktypen, nicht für die Informationsarchitektur.

