Wie entferne ich zusätzliche Seiten im Google-Index?

Veröffentlicht: 2023-12-06

Webseiten schweben in der Cyberspace-Landschaft.

Nehmen wir an, Sie haben eine E-Commerce-Website mit Tausenden von Produkten, jedes mit unterschiedlichen Größen und Farben. Sie verwenden den Indexabdeckungsbericht der Google Search Console, um eine Liste der indizierten Seiten in den Google-Suchergebnissen für Ihre Website anzuzeigen.

Zu Ihrer Überraschung sehen Sie viel mehr Seiten, als die Website haben sollte. Warum passiert das und wie wird man sie los?

Diese Frage beantworte ich in unserer „Ask Us Anything“-Reihe auf YouTube. Hier ist das Video. Anschließend können Sie weiter unten mehr über dieses häufige Problem und seine Lösung lesen.

  • Warum werden diese „zusätzlichen“ Webseiten im Google-Index angezeigt?
  • Wie entferne ich „zusätzliche“ Webseiten im Google-Index?
  • Zusammenfassung
  • FAQ: Wie kann ich zusätzliche Seiten aus dem Google-Index meiner Website entfernen?

Warum werden diese „zusätzlichen“ Webseiten im Google-Index angezeigt?

Dieses Problem tritt häufig bei E-Commerce-Websites auf. „Zusätzliche“ Webseiten können im Google-Index angezeigt werden, weil auf Ihrer E-Commerce-Website zusätzliche URLs generiert werden.

So geht's: Wenn Nutzer auf einer Website Suchparameter verwenden, um bestimmte Größen oder Farben eines Produkts anzugeben, wird normalerweise automatisch eine neue URL für diese Größen- oder Farbauswahl generiert.

Das führt zu einer separaten Webseite. Auch wenn es sich nicht um ein „separates“ Produkt handelt, kann diese Webseite wie die Hauptproduktseite indiziert werden, wenn sie von Google über einen Link entdeckt wird

Wenn dies passiert und Sie viele Größen- und Farbkombinationen haben, kann es sein, dass Sie viele verschiedene Webseiten für ein Produkt erhalten. Wenn Google nun die URLs dieser Webseiten erkennt, kann es sein, dass für ein und dasselbe Produkt mehrere Webseiten im Google-Index vorhanden sind.

Wie entferne ich „zusätzliche“ Webseiten im Google-Index?

Mithilfe des Canonical-Tags können Sie dafür sorgen, dass alle URLs dieser Produktvarianten auf dieselbe Originalproduktseite verweisen. Dies ist der richtige Weg, um mit nahezu doppelten Inhalten wie Farbänderungen umzugehen.

Folgendes sagt Google zur Verwendung des Canonical-Tags zur Lösung dieses Problems:

Eine kanonische URL ist die URL der Seite, die Google aus einer Reihe doppelter Seiten auf Ihrer Website für am repräsentativsten hält. Wenn Sie beispielsweise URLs für dieselbe Seite haben (example.com?dress=1234 und example.com/dresses/1234), wählt Google eine davon als kanonisch aus. Die Seiten müssen nicht absolut identisch sein; Kleinere Änderungen beim Sortieren oder Filtern von Listenseiten machen die Seite nicht eindeutig (z. B. Sortieren nach Preis oder Filtern nach Artikelfarbe) .

Google sagt weiter:

Wenn Sie eine einzelne Seite haben, auf die über mehrere URLs zugegriffen werden kann, oder verschiedene Seiten mit ähnlichem Inhalt … betrachtet Google diese als doppelte Versionen derselben Seite. Google wählt eine URL als kanonische Version aus und crawlt diese. Alle anderen URLs werden als doppelte URLs betrachtet und seltener gecrawlt.

Wenn Sie Google nicht ausdrücklich mitteilen, welche URL kanonisch ist, wird Google die Wahl für Sie treffen oder beide als gleich gewichtig betrachten, was zu unerwünschtem Verhalten führen kann …

Was aber, wenn Sie nicht möchten, dass diese „zusätzlichen“ Seiten überhaupt indiziert werden? Meiner Meinung nach ist die kanonische Lösung in dieser Situation der richtige Weg.

Aber es gibt zwei andere Lösungen, die in der Vergangenheit genutzt wurden, um die Seiten aus dem Index zu entfernen:

  1. Blockieren Sie Seiten mit robots.txt (nicht empfohlen, und ich werde gleich erklären, warum)
  2. Verwenden Sie ein Robots-Meta-Tag, um einzelne Seiten zu blockieren

Robots.txt-Option

Das Problem bei der Verwendung von robots.txt zum Blockieren von Webseiten besteht darin, dass die Verwendung nicht bedeutet, dass Google Webseiten aus dem Index löscht.

Laut Google Search Central:

Eine robots.txt-Datei teilt Suchmaschinen-Crawlern mit, auf welche URLs der Crawler auf Ihrer Website zugreifen kann. Dies wird hauptsächlich verwendet, um eine Überlastung Ihrer Website mit Anfragen zu vermeiden; Es handelt sich nicht um einen Mechanismus, um eine Webseite von Google fernzuhalten.

Außerdem garantiert eine Disallow-Anweisung in robots.txt nicht, dass der Bot die Seite nicht crawlt. Das liegt daran, dass robots.txt ein freiwilliges System ist. Es kommt jedoch selten vor, dass sich die großen Suchmaschinen-Bots nicht an Ihre Anweisungen halten.

In jedem Fall ist dies keine optimale erste Wahl. Und Google rät davon ab.

Robots-Meta-Tag-Option

Folgendes sagt Google zum Robots-Meta-Tag:

Mit dem Robots-Meta-Tag können Sie einen detaillierten, seitenspezifischen Ansatz verwenden, um zu steuern, wie eine einzelne Seite indiziert und den Nutzern in den Google-Suchergebnissen angezeigt werden soll.

Platzieren Sie das Robots-Meta-Tag im Abschnitt <head> einer beliebigen Webseite. Ermutigen Sie die Bots dann entweder über eine XML-Sitemap-Übermittlung oder auf natürliche Weise zum Crawlen dieser Seite (was bis zu 90 Tage dauern kann).

Wenn die Bots zurückkommen, um die Seite zu crawlen, stoßen sie auf das Robots-Meta-Tag und verstehen die Anweisung, die Seite nicht in den Suchergebnissen anzuzeigen.

Zusammenfassung

Um es noch einmal zusammenzufassen:

  • Die Verwendung des Canonical-Tags ist die beste und häufigste Lösung für das Problem der Indexierung „zusätzlicher“ Seiten in Google – ein häufiges Problem bei E-Commerce-Websites.
  • Wenn Sie nicht möchten, dass Seiten überhaupt indiziert werden, sollten Sie die Verwendung des Robots-Meta-Tags in Betracht ziehen, um den Suchmaschinen-Bots mitzuteilen, wie mit diesen Seiten umgegangen werden soll.

Sind Sie immer noch verwirrt oder möchten Sie, dass sich jemand für Sie um dieses Problem kümmert? Wir können Ihnen bei Ihren zusätzlichen Seiten helfen und diese für Sie aus dem Google-Index entfernen. Vereinbaren Sie hier eine kostenlose Beratung.

FAQ: Wie kann ich zusätzliche Seiten aus dem Google-Index meiner Website entfernen?

Das Problem zusätzlicher Seiten im Google-Index Ihrer Website kann ein erhebliches Hindernis darstellen. Diese überschüssigen Seiten sind häufig auf die dynamische Generierung von Inhalten zurückzuführen, z. B. Produktvariationen auf E-Commerce-Websites, wodurch ein überfüllter Index entsteht, der sich auf die Leistung Ihrer Website auswirkt.

Es ist entscheidend, die Grundursache zu verstehen. Insbesondere E-Commerce-Websites stehen vor Herausforderungen, wenn verschiedene Produktattribute die Generierung mehrerer URLs für ein einzelnes Produkt auslösen. Dies kann zu vielen indizierten Seiten führen und sich auf die SEO und das Benutzererlebnis Ihrer Website auswirken.

Die Verwendung des Canonical-Tags ist die zuverlässigste Lösung, um dieses Problem anzugehen. Das kanonische Tag signalisiert Google die bevorzugte Version einer Seite und konsolidiert die Indexierungsleistung auf einer einzigen, repräsentativen URL. Google selbst empfiehlt diese Methode und betont ihre Wirksamkeit beim Umgang mit nahezu doppelten Inhalten.

Auch wenn einige die Verwendung von robots.txt zum Blockieren von Webseiten in Betracht ziehen, ist dies nicht optimal. Google interpretiert robots.txt als Anweisung zur Kontrolle des Crawler-Zugriffs und nicht als Tool zum Entfernen aus dem Index. Im Gegensatz dazu bietet das Robots-Meta-Tag einen gezielteren Ansatz und ermöglicht eine präzise Kontrolle über die Indizierung einzelner Seiten.

Das Canonical-Tag bleibt die Lösung der Wahl. Wenn jedoch eine starke Präferenz für eine vollständige Entfernung aus dem Index besteht, kann das Robot-Meta-Tag ein strategischer Verbündeter sein. Der Schlüssel zur effektiven Optimierung Ihrer Online-Präsenz liegt darin, den Wunsch nach einem optimierten Index mit SEO-Best Practices in Einklang zu bringen.

Um die Entfernung zusätzlicher Seiten aus dem Google-Index Ihrer Website zu meistern, ist eine strategische Kombination aus Verständnis des Problems, Implementierung von Best Practices wie dem Canonical-Tag und der Prüfung von Alternativen für bestimmte Szenarien erforderlich. Durch die Übernahme dieser Strategien können Webmaster die SEO ihrer Website verbessern, das Benutzererlebnis verbessern und eine saubere und effiziente Online-Präsenz aufrechterhalten.

Schritt-für-Schritt-Anleitung:

  1. Identifizieren Sie zusätzliche Seiten : Führen Sie eine gründliche Prüfung durch, um alle überzähligen Seiten im Google-Index Ihrer Website zu ermitteln.
  2. Bestimmen Sie die Grundursache : Verstehen Sie, warum diese Seiten generiert werden, und konzentrieren Sie sich dabei auf dynamische Inhaltselemente.
  3. Canonical Tag priorisieren : Betonen Sie die Verwendung des Canonical Tags als primäre Lösung für nahezu doppelte Inhalte.
  4. Kanonische Tags implementieren : Wenden Sie kanonische Tags auf alle relevanten Seiten an und geben Sie die bevorzugte Version für die Konsolidierung an.
  5. Überprüfen Sie die Google-Empfehlungen : Richten Sie Ihre Strategien an den Richtlinien von Google aus und stellen Sie so Kompatibilität und Einhaltung sicher.
  6. Bewerten Sie die Robots.txt-Option : Machen Sie sich mit den Einschränkungen und möglichen Nachteilen vertraut, bevor Sie robots.txt in Betracht ziehen.
  7. Setzen Sie Robots-Meta-Tags ein : Setzen Sie Robots-Meta-Tags strategisch ein, um bei Bedarf die Indizierung auf bestimmten Seiten zu steuern.
  8. SEO-Auswirkungen ausgleichen : Berücksichtigen Sie die Auswirkungen jeder Lösung auf SEO und Benutzererfahrung, um eine fundierte Entscheidungsfindung zu ermöglichen.
  9. Regelmäßige Überwachung : Richten Sie eine Routine ein, um Indexänderungen zu überwachen und die Wirksamkeit implementierter Strategien zu bewerten.
  10. Iterative Optimierung : Kontinuierliche Verfeinerung und Optimierung von Strategien basierend auf der sich entwickelnden Website-Dynamik und Google-Algorithmen.

Verfeinern und passen Sie diese Schritte weiter an, basierend auf den einzigartigen Merkmalen Ihrer Website und den sich ändernden SEO-Landschaften.