Paginierung & Kanonisierung für Profis – SMX Advanced 2012

Veröffentlicht: 2012-06-07

Worum geht es in dieser Tech-Session? Hier ist die Beschreibung auf der Tagesordnung:

Verwenden des Paginierungs-Tags mit optionalen Parametern, Sortierreihenfolgen und Filtern. Gibt es noch Gründe, robots.txt oder noindex zu verwenden? Kann ein Canonical Tag wirklich einen 301 ersetzen? Wie halten Sie Ihre IIS=basierte Site vor endlosen Umleitungsschleifen, wenn Sie Standardseitennamen kanonisieren? Und was ist mit rel=alternate href=lang? Wir gehen die Probleme Schritt für Schritt durch, damit Sie das Durcheinander auf Ihrer Website beseitigen, Crawling und Indizierung maximieren und Risiken durch doppelte Inhalte beseitigen können.

Moderatorin: Vanessa Fox, Contributing Editor, Search Engine Land (@vanessafox)
Q&A-Moderator: Eric Enge, CEO, Stone Temple Consulting (@stonetemple)
Sprecher:
Adam Audette, Präsident, RKG (@audette)
Jeff Carpenter, SEO-Manager, PETCO (@SanDiegoSEO)
Maile Ohye, Senior Developer Programs Engineer, Google Inc. (@maileohye)

Vanessa begrüßt das Publikum und sagt, dass es viele Fragestunden geben wird. Adam Audette beginnt mit den Präsentationen. Er ist wirklich aufgeregt, aus dem Geek herauszukommen. Es ist niedlich.

Seitenumbruch Dos and Dont's

Die beste Art, darüber nachzudenken: „Alles sollte so einfach wie möglich gemacht werden, aber nicht einfacher.“ – Einstein

Beispiel: Zales, eine große E-Commerce-Website. Sie haben verschiedene Arten und Seiten von Produkten. Basierend auf Sortierung, Seitenaufruf und Seite gibt es jede Menge Möglichkeiten für Verwirrung beim Crawlen. Über 100 doppelte Ergebnisse, ganz einfach.

Ist das eine große Sache? Ja, besonders nach Panda – keine wahrscheinliche Duplizierung.

Wie geht man damit um?

Noindex-Paginierungsmethode: Seiten noindex, folgen. Das Problem besteht darin, dass sie gecrawlt werden
Anmerkungen:
Seiten 2-N mit noindex kommentiert, folgen
Seiten 2-N selbstreferenzierend rel kanonisch
Seiten 2-N enthalten eindeutige Titel, URLs und Metadaten

Rel zurück/nächste Paginierungstechnik: etwas schwieriger zu implementieren. Wo noindex Equity an Seite 1 weitergegeben hat, um ein Ranking-Kandidat zu werden, rollt rel next/prev Seiten zu einer Serie zusammen.

Tiefere Seiten befinden sich noch im Index, sie können mit einer Site:-Suche herausgezogen werden und sie werden angezeigt, wenn Google es für ein relevantes Ergebnis hält. Wenn rel canonical selbstreferenzierend ist, ist das angemessen, aber wenn es verwendet wird, um auf Seite 1 zu verweisen, gibt es ein widersprüchliches Signal.

Alle Paginierungsanforderungen anzeigen
Anmerkungen:
Seiten 2-N geben View All als relatives kanonisches Ziel an
Eine elegante Lösung
Alle anzeigen neigen dazu, besser zu konvertieren

Vanessa erklärt, dass ein AJAX-Infinite-Scroll zur Anzeige der Produkte auch eine gute Benutzererfahrung ist.

Quora und Twitter führen beide diese Methode zum kontinuierlichen Laden und Aktualisieren durch. Der Googlebot bekommt die ersten 500 Wörter. Das ist ein potenzieller Fallstrick, wenn Sie möchten, dass Inhalte gecrawlt werden.

Empfehlungen:
Wenn Sie einen großartigen BLICK haben, ist das alles der elegante Weg
Wenn View All keine Option ist, verwenden Sie rel next/prev
Zwei weitere Optionen: Anhängen von Parametern an die RL mit einem #hash und progressives Rendern, wenn Benutzer scrollen

SEO für facettierte Navigationen

Wenn eine Facette ausgewählt ist, kategorisieren Sie sie als wichtig für Benutzer, aber nicht SEO oder wichtig für SEO. Behandle jede Situation anders. Gleichen kanonischen Pfad für URLs erzwingen, unabhängig davon, wie sie ausgewählt sind.

Nachteile:
löst nichts, um den Crawl-Overhead zu verringern
arbeitsintensiv und fehleranfällig

Common rel canonical gotcha: Duplizieren von nicht-kanonischen Verweisen auf kanonisch auf sich selbst, wenn es eine tatsächliche kanonische Version gibt. Dies ist das häufigste Problem, auf das sie stoßen.

Imbiss:
Verwenden Sie rel canonical, um die bevorzugte URL zu signalisieren, nicht als Abkürzung
Interne Link-Signale sollten konsistent sein
Seien Sie vorsichtig mit der Selbstreferenzierung von rel canonical

Jeff Carpenter ist der nächste. Er hat eine Fallstudie in Petco.com. Große Menge an Duplizierung basierend auf der Kategorisierung. Jede Unterkategorie hatte viele Verfeinerungsoptionen. Bei der Neugestaltung der Website wurden Kategorien neu kategorisiert und die Navigations- und URL-Struktur geändert.

Lösung:
Reduzieren Sie die Verfeinerungsoptionen. Überprüfte Analysen, um die verwendeten und nicht verwendeten Verfeinerungen anzuzeigen. Sie gingen von 50 Verfeinerungen auf 12.
Abteilungsübergreifende Ausbildung. Abteilungsübergreifende Schulungen führten dazu, dass einheitliche URL-Formate beworben wurden
Implementieren Sie kanonische Tags, um der dynamisch generierten Navigation auf der Website zu entsprechen. Es erstellte einheitliche URL-Formate und verbesserte Analysedaten.
Verwenden Sie noindex, folgen Sie auf allen Paginierungsseiten und reduzieren Sie so das Potenzial für Probleme mit doppelten Inhalten auf der Website.

Ergebnisse:
13+ % Steigerung der Conversion-Rate aus der natürlichen Suche in 6 Monaten
Reduzierte Anzahl von Seiten mit geringem Wert in SERPs
Gesamtrankings verbessert – ca. 20 % Verbesserung bei den überwachten Sätzen in 2 Monaten
Leiten Sie SERP-Traffic auf Produktlistenseiten

Maile wird eine Gruppenumarmung geben und erklären, wie die Konferenz ihr und ihrem Team hilfreiches Feedback gegeben hat. Hier zu sprechen war für sie bei Google von Vorteil. 2009 hatte sie eine Session zum Thema Vervielfältigung und arbeitete sich mit Fragen der PageRank-Skulptur durch – Spaß. Im Jahr 2012 brachte ein Panel facettierte Navigationsprobleme zur Sprache. Im Jahr 2011 haben sie ein verbessertes URL-Parameter-Tool eingeführt.

Im Jahr 2011 brachte ein Panel mit REI Paginierungsprobleme zur Sprache und versuchte, rel canonical für nicht duplizierte Inhalte zu verwenden, was nicht das war, wofür sie es beabsichtigt hatten. Google rel next/prev Support wurde 5 Monate später veröffentlicht. Es hilft Google, mehr Sequenzen zu identifizieren, als es selbst erkennen kann.

URL-Parameter in Webmaster-Tools

Sie entschuldigt sich dafür, dass der Blogbeitrag und der Hilfeartikel nicht so gründlich sind, wie er hätte sein können.

Unterstützen Sie das Verständnis von Parametern, um die Website effizienter zu crawlen
Crawlen Sie Ihre Website effizienter
Spart Bandbreite
Hilft, mehr einzigartige, frische Inhalte zu indizieren
Informationen zum Entfernen finden Sie unter URL-Entfernungen in WMT

Markup auf Seitenebene, das separat angewendet wird, nachdem die Seite gecrawlt wurde, und dennoch berücksichtigt wird
URL-Parameter können ein hilfreicher Hinweis sein und sind keine Anweisungen

Es ist eine erweiterte Funktion. Manchmal haben Websites bereits eine hohe Crawl-Abdeckung, wie von Google festgestellt. Unsachgemäße Aktionen können dazu führen, dass Seiten nicht in den Suchergebnissen erscheinen.

Problem: ineffizientes Crawling
Geeignete URLs: Schlüssel=Wert&Schlüssel2=Wert 2

Schritt 1: Geben Sie Parameter an, die den Inhalt nicht ändern
1. Habe ich Parameter, die den Seiteninhalt nicht beeinflussen (SessionID, AffiliateID, TrackingID)?
Wahrscheinlich als „Ändert den Inhalt nicht“ markieren.

Schritt 2a: Geben Sie Parameter an, die den Inhalt ändern
Schritt 2b: Geben Sie das bevorzugte Verhalten des Googlebots an

Sortierparameter ändern den Inhalt der Bestellung dargestellt.
1. Ist der Sortierparameter auf der gesamten Seite optional?
2. Kann der Googlebot alles Nützliche entdecken, wenn der Sortierparameter nicht angezeigt wird?

Wenn ja, können Sie wahrscheinlich mit Ihrem Parameter „Keine URLs durchsuchen“ angeben.

Stellen Sie sicher, dass die angezeigten Beispiele nicht kanonisch sind und dass die kanonischen Beispiele über die Navigation erreicht werden können.

Oder dieselben Sortierwerte auf der ganzen Website?
1. Werden für alle Kategorien einheitlich dieselben Sortierwerte verwendet?
2. Wenn ein Benutzer den Sortierwert ändert, bleibt die Gesamtzahl der Elemente unverändert?

Wenn ja, können Sie wahrscheinlich mit Ihrem Sortierparameter „nur URLs mit dem Wert x“ angeben, wobei x einer der Sortierwerte ist, die auf der gesamten Website verwendet werden.

Narrows filtert den Inhalt auf der Seite, indem eine Teilmenge der gesamten Elemente angezeigt wird.

Wenn der Narrows-Parameter weniger nützliche Inhalte anzeigt, die eine Teilmenge des Inhalts der URL ohne Narrows-Parameter sind, können Sie möglicherweise „Keine URLs durchsuchen“ angeben.

Überprüfen Sie noch einmal, ob die im Beispiel gezeigten URLs redundante Inhalte bereitstellen.

Der angegebene Parameter bestimmt den auf einer Seite angezeigten Inhalt.

Translates-Parameter, wenn Sie nicht möchten, dass bestimmte Sprachen gecrawlt/in den Suchergebnissen verfügbar sind, geben Sie „Jede URL crawlen“ an. Es hat sich bewährt, Sprachen in Unterverzeichnissen oder Unterordnern statt in Parametern zu platzieren, um Suchmaschinen dabei zu helfen, die Websitestruktur leichter zu verstehen.

Seitenumbrüche zeigen eine Komponentenseite einer mehrseitigen Sequenz an. Verwenden Sie Crawl every URL.

Was ist mit mehreren Parametern in einer URL? Stellen Sie sich vor, alle URLs beginnen als zum Crawlen geeignet und wenden dann jede Einstellung als einen Prozess der Eliminierung an, nicht der Einbeziehung.
Wenn irgendein Parameter in der URL mit einer URL-Parametereinstellung übereinstimmt, wenn die übereinstimmende Einstellung Crawl No URLs angibt, wird nicht gecrawlt. Wenn die URL vollständig durchkommt, wird sie gecrawlt.

Empfohlene Vorgehensweise:
Interne Links sollten nur kanonische URLs enthalten
Canonicals in Sitemaps auflisten
Hilft bei der kanonischen Promotion
Bietet genauere Indexzählungen
Indexierungsmarkup auf der Seite ist immer noch hilfreich. rel canonical, rel next/prev können zusammen verwendet werden.
Verwenden Sie URL-Parameter für ein effizienteres Crawling