Fallstudie zur Analyse von Protokolldateien

Veröffentlicht: 2020-04-07

Die Analyse von Protokolldateien braucht Zeit, weniger Zeit mit OnCrawl, aber trotzdem Zeit. SEOs haben eine lange Wäscheliste mit Optimierungen und Audits, und da Protokolldateien einer der schwereren Punkte auf der Liste sind, haben sie die unangenehme Angewohnheit, sich an das Ende dieser Liste zu schleichen.

Es liegt in der Natur des Menschen, aufzuschieben, aber es ist einfacher anzufangen, wenn man weiß, was auf einen wartet.

Eine kürzlich bei 97th Floor durchgeführte Logdatei-Analyse brachte ihrem Kunden innerhalb von nur 30 Tagen nach Abschluss der Analyse eine Steigerung der organischen Einnahmen um 25 % .

Was Sie wissen müssen, bevor Sie eine Protokolldateianalyse durchführen

Wenn Sie mit Protokolldateien noch nicht vertraut sind, ist dieser Artikel nicht hier, um die Grundlagen vollständig abzudecken. Lesen Sie stattdessen diesen Artikel.

Um es kurz zu machen, wissen Sie, dass die Analyse von Protokolldateien im Wesentlichen eine Überprüfung der Webserverprotokolle ist, die auf Ihrer Website abgelegt wurden. Protokolle zeichnen Instanzen von Bots (wie Google) auf, die mit Ihrer Website interagieren.

Viele fragen: „Wann sollte ich eine Logdatei-Analyse durchführen?“ Und die richtige Antwort ist einfach „Ja“.

Hier ist der Grund: Crawlability ist die Grundlage jeder technischen SEO-Einführung. Ohne Crawlbarkeit werden Websites nicht indexiert. Ohne indiziert zu werden, werden sie nicht ranken. Und ohne Ranking … Sie verstehen es.

Es gibt einige Möglichkeiten, die Crawlbarkeit von Websites zu verbessern, aber vielleicht ist keine effektiver und umfassender als eine Protokolldateianalyse. Aus diesem Grund sollte es als Rückgrat jeder technischen SEO-Einführung dienen. Egal, ob Sie am Anfang eines technischen Rollouts stehen oder ob Sie seit Jahren eine ausgereifte Kampagne betreiben (aber Ihre Protokolldateien in letzter Zeit nicht mehr angeschaut haben), es ist Zeit für eine Protokolldateianalyse.

Und für alle, die noch in der Leitung sind, um eine Protokolldateianalyse durchzuführen, werde ich diesen Ratschlag hinzufügen. An alle SEOs, die glauben, alles getan zu haben, was das Buch zu bieten hat, aber immer noch Schwierigkeiten haben, dieses hartnäckige Keyword auf Seite 1 zu bekommen: Führen Sie diese Protokolldateianalyse durch.

Oncrawl Log Analyzer

Logfile-Analyse zur Bot-Überwachung und Crawl-Budget-Optimierung. Erkennen Sie Website-Gesundheitsprobleme und verbessern Sie Ihre Crawling-Frequenz.
Mehr erfahren

Logfile-Analyse in Aktion: Befunde beobachten

Die Überprüfung Ihrer Protokolldateien kann zu einer Vielzahl von Ergebnissen führen, darunter:

  • Bot-Crawling-Volumen
  • Verschwendung von Crawl-Budget
  • 302-Weiterleitungen
  • Antwortcodefehler
  • Crawl-Priorität
  • Doppeltes URL-Crawling
  • Letztes Crawl-Datum

Aber diese Erkenntnisse allein helfen nicht. Es braucht einen SEO, der über die Probleme hinwegsehen kann, um Lösungen zu entwickeln, die das Beste aus einer Protokolldateianalyse machen.

Bei 97th Floor haben wir einen E-Commerce-Kunden, der einzigartige Produkte mit hohen Preisschildern verkauft. Praktisch alle Produkte sind einzigartig, und als das Produkt verkauft wurde, entfernte unser Kunde die Seite von der Website. Dies erschwerte das Erreichen jeglicher Art von Wachstum auf Seitenebene. Es verursachte auch eine Menge Crawlability-Verwirrung mit dem Googlebot.

Unnötig zu sagen, dass sie einen harten Kampf mit Google führten, bevor wir uns einmischten. Beim Onboarding beim Kunden haben wir sofort eine Logfile-Analyse durchgeführt.

Unsere Protokolldateianalyse hat (wie üblich) viele Erkenntnisse erbracht, aber diese drei stachen heraus:

  1. Eine große Anzahl redundanter Unterordner wurde häufig von Google gecrawlt
  2. Viele Seiten, die einen 404-Fehler zurückgaben, wurden noch immer vom Googlebot gecrawlt. Da sie von der Website entfernt wurden, konnten sie bei unserem anfänglichen Website-Crawling nicht gefunden werden
  3. Unwichtige Unterordner wurden mehr gecrawlt als wichtige Zielseiten

Wie bereits erwähnt, endet die Protokolldateianalyse nicht, wenn die Analyse beendet ist. Es geht weiter durch die Aktionspunkte und in die Implementierung und Ausführung. In der Situation unseres Kunden verschwendeten sie Crawl-Budget von Google auf Seiten, die einfach nicht die Nadel bewegten.

Unsere neuen Seiten waren gut optimiert, bekamen aber nicht die Traktion, die wir brauchten, um zu aussagekräftigen Rankings zu führen.

Als wir diese drei Probleme bei unserer Logdatei-Analyse entdeckten, war es verständlich, warum unsere Rankings nicht höher waren. Google verwendete unser Crawling-Budget, um Seiten zu untersuchen, die nicht gut oder überhaupt nicht optimiert waren.

Um die Rankings zu erhalten, die den Traffic bringen würden, den wir für den Erfolg benötigten, mussten wir zunächst die Elemente aus der Protokolldateianalyse auflösen.

In diesem Fall war es offensichtlich, dass das Crawl-Budget für unwichtige Seiten verschwendet wurde, eine häufige Feststellung bei einer Logdatei-Analyse.

Lösungen aus der Logfile-Analyse

Behebung von Crawling-Verschwendung in redundanten Unterordnern

Da es sich bei unserem Kunden um eine E-Commerce-Website handelte, sahen wir eine große Anzahl von Unterordnern, die auf der gesamten Website dupliziert wurden. Bei diesen Unterordnern handelte es sich hauptsächlich um Kategorieseiten, die so alt waren, dass die darin enthaltenen Informationen völlig veraltet und fast unmöglich organisch zu entdecken waren.

Aber der Googlebot hatte sie nicht nur entdeckt. Es kam immer wieder zurück, um sie erneut zu crawlen, was unser Crawl-Budget belastete.

Unsere Lösung bestand darin, diese redundanten Unterordner zu löschen und in geeignetere und relevantere Unterordner umzuleiten. Wir hatten gerade eine komplett überarbeitete Kategoriestruktur eingeführt, die uns helfen sollte, für einige größere Keywords zu ranken. Können Sie erraten, wohin wir diese redundanten Unterseiten umgeleitet haben?

Das Umleiten dieser alten und vergessenen Seiten zu ihren neueren, optimierteren Gegenstücken verschaffte uns einen Vorsprung in den SERPs.

[Fallstudie] Optimieren Sie den organischen Suchverkehr mithilfe der Analyse von Protokolldateien

Das National Business Research Institute hatte seine Website neu gestaltet und einen Rückgang des organischen Suchverkehrs festgestellt. Diese Fallstudie konzentriert sich darauf, wie NBRI OnCrawl verwendet hat, um seine SEO-Leistung nach der Neugestaltung zu optimieren.
Lesen Sie die Fallstudie

Korrigieren von Crawl-Verschwendung in unwichtigen Unterordnern

Dieser Punkt scheint dem letzten Punkt in Bezug auf redundante Unterordner ähnlich zu sein. Redundante Unterordner wurden vergessen und verlorene Duplikate unserer aktuellen Versionen. Die Unterscheidung zwischen redundanten und unwichtigen Unterordnern besteht darin, dass wir jetzt über Unterordner sprechen, die noch relevant waren, aber eben keine Grundpfeilerseiten für die Suche.

Die Lösung war hier alles andere als einfach. Da wir die Grundursache der Situation nicht kennen, mussten wir eine umfassende Lösung vorschreiben, die ein bisschen von allem umfasste, einschließlich:

  • Einfügen strategischer interner Links von unseren Seiten mit niedriger Priorität (aber stark gecrawlt) zu unseren SEO-optimierten Seiten mit hoher Priorität
  • Neuanordnung der Sitemap, um wichtigere Seiten weiter oben in der .xml-Datei einzuschließen
  • Überarbeitung der rel="canonical"- und Meta-Roboter-Informationen auf unseren Seiten mit höherer Priorität
  • Überprüfen Sie die robots.txt-Datei erneut, um sicherzustellen, dass nichts blockiert wurde, was nicht sein sollte (besonders große E-Commerce-Websites müssen dies überprüfen.)
  • Löschen und Entfernen unnötiger Seiten

Löschen toter Seiten

Wir hatten bereits ein Site-Audit durchgeführt, bei dem wir die Site gecrawlt und alle 404-Fehler gefunden haben, die ein internes Site-Crawling identifizieren konnte.

Aber das ist das Schöne an einer Protokolldateianalyse, Sie ziehen keine begrenzten Daten aus Ihrem eigenen internen Crawl. Sie sehen genau das, was Google sieht. Im Wesentlichen ist es ein Standort-Audit aus der Perspektive eines Außenstehenden – des wichtigsten Außenstehenden: Google.

Die Lösung hier war einfach, was dazu beitrug, die ganze Zeit, die für den vorherigen Punkt aufgewendet wurde, auszugleichen. Wir haben diese alten verwaisten Seiten 301 auf ihre optimierten Gegenstücke auf der Website umgeleitet. Erledigt.

Die Ergebnisse einer Protokolldateianalyse

Das Beste an unserer Protokolldateianalyse für diesen Kunden waren die schnellen Ergebnisse, die sie erzielten.

Wie bereits erwähnt, brachte es dem Kunden innerhalb von nur 30 Tagen nach der Umsetzung der oben genannten Maßnahmen eine 25 %ige Steigerung des organischen Umsatzes ein.

Während dieser Zeit haben wir auch einen leichten Anstieg der Conversion-Raten für den organischen Traffic festgestellt. Da dieser Anstieg während einer langsamen Saison stattfand, gibt es hier keine Saisonabhängigkeit. Und die Tatsache, dass die Konversionsraten gestiegen sind, bedeutet, dass der Verkehr nicht nur in größerer Zahl kam, sondern auch qualifizierter Verkehr war.

Der Traffic war wahrscheinlich qualifizierter, da wir nach einer effektiven Umverteilung des Crawl-Budgets, das die Website unseres Kunden bei Google hatte, die Aufmerksamkeit auf stärker absichtsbasierte Seiten lenkten und so bessere Platzierungen bei Keywords mit höherer Absicht erzielten. Das bedeutete, dass wir Benutzer weiter unten im Trichter auf die richtigen Seiten gezogen haben, um sie auf ihrer Reise zu unterstützen.

Es mag kitschig klingen, aber unser Credo bei 97th Floor ist, dass wir das Internet zu einem besseren Ort machen. Logfile-Analysen tun dies, weil sie die Mängel des ungenauen Crawls von Google ausgleichen. Dies bringt qualitativ hochwertigere Seiten an die Spitze der SERPs, wodurch die Internetsuche für alle viel besser wird.

Wenn Sie das nächste Mal mit einem Crawlability-Problem konfrontiert werden, denken Sie hoffentlich nicht zweimal darüber nach, eine Logdatei-Analyse durchzuführen, Lösungen vorzustellen und sie durchzuziehen. Sie werden sehen, dass Ihre Website mehr Traffic und Conversions erzielt.

Starten Sie Ihre kostenlose Testversion