Étude de cas sur l'analyse des fichiers journaux

Publié: 2020-04-07

L'analyse des fichiers de log prend du temps, moins de temps avec OnCrawl, mais du temps quand même. Les référenceurs ont une longue liste d'optimisations et d'audits, et les fichiers journaux étant l'un des éléments les plus lourds de la liste, ils ont la mauvaise habitude de se glisser au bas de ladite liste.

C'est dans la nature humaine de tergiverser, mais il est plus facile de commencer quand vous savez ce qui vous attend.

Une analyse récente du fichier journal au 97e étage a permis à son client d' augmenter de 25 % ses revenus organiques en seulement 30 jours après la fin de l'analyse .

Ce que vous devez savoir avant d'exécuter une analyse de fichier journal

Si vous débutez avec les fichiers journaux, cet article n'est pas là pour couvrir les bases dans leur intégralité. Lisez plutôt cet article.

Pour faire court, sachez que l'analyse des fichiers journaux est essentiellement un examen des journaux du serveur Web qui ont été classés sur votre site. Les journaux enregistrent les instances de bots (comme Google) interagissant avec votre site.

Beaucoup demandent, "quand dois-je exécuter une analyse de fichier journal?" Et la bonne réponse est simplement "Oui".

Voici pourquoi : la capacité d'exploration est la base de tout déploiement technique de référencement. Sans crawlability, les sites ne seront pas indexés. Sans être indexés, ils ne seront pas classés. Et sans classement… Vous obtenez le point.

Il existe plusieurs façons d'améliorer l'exploration du site, mais peut-être aucune n'est plus efficace et globale qu'une analyse de fichier journal. C'est pourquoi il devrait servir de colonne vertébrale à tout déploiement technique de référencement. Ainsi, que ce soit au début d'un déploiement technique ou que vous ayez des années dans une campagne mature (mais que vous n'ayez pas consulté vos fichiers journaux récemment), il est temps d'analyser les fichiers journaux.

Et pour tous ceux qui sont encore en ligne pour exécuter une analyse de fichier journal, j'ajouterai ce conseil. Pour tout référenceur qui pense avoir tout fait dans le livre mais qui a encore du mal à obtenir ce mot-clé têtu à la page 1 : exécutez cette analyse du fichier journal.

Analyseur de journaux Oncrawl

Analyse des fichiers journaux pour la surveillance des bots et l'optimisation du budget de crawl. Détectez les problèmes de santé du site et améliorez votre fréquence de crawl.
Apprendre encore plus

L'analyse des fichiers journaux en action : observer les résultats

L'examen de vos fichiers journaux peut produire une myriade de résultats, notamment :

  • Volume d'exploration du bot
  • Budget de crawl gaspillé
  • 302 redirections
  • Erreurs de code de réponse
  • Priorité d'exploration
  • Exploration d'URL en double
  • Date du dernier crawl

Mais ces découvertes en elles-mêmes n'aident pas. Il faut un référencement qui peut voir au-delà des problèmes pour créer des solutions qui tireront le meilleur parti d'une analyse de fichier journal.

Au 97e étage, nous avons un client de commerce électronique qui vend des produits uniques à des prix élevés. Pratiquement tous les produits sont uniques, et lorsque le produit est vendu, notre client supprimait la page du site. Cela a rendu difficile l'obtention de tout type de croissance au niveau de la page. Cela a également causé beaucoup de confusion en matière d'exploration avec Googlebot.

Inutile de dire qu'ils menaient une bataille difficile avec Google avant que nous nous engagions. Lors de l'intégration avec le client, nous avons immédiatement exécuté une analyse du fichier journal.

Notre analyse du fichier journal a produit de nombreux résultats (comme ils le font habituellement), mais ces trois se sont démarqués :

  1. Un grand nombre de sous-dossiers redondants étaient fréquemment explorés par Google
  2. De nombreuses pages renvoyant une erreur 404 étaient toujours explorées par Googlebot. Parce qu'ils avaient été supprimés du site, ils n'ont pas pu être trouvés lors de notre exploration initiale du site
  3. Les sous-dossiers sans importance étaient explorés plus que les pages de destination clés

Comme mentionné précédemment, l'analyse du fichier journal ne s'arrête pas lorsque l'analyse est terminée. Il se poursuit à travers les éléments d'action et dans la mise en œuvre et l'exécution. Dans la situation de notre client, ils gaspillaient le budget de crawl de Google sur des pages qui ne bougeaient tout simplement pas l'aiguille.

Nos nouvelles pages étaient bien optimisées, mais n'obtenaient pas la traction dont nous avions besoin pour aboutir à des classements significatifs.

Lorsque nous avons découvert ces trois problèmes à partir de notre analyse des fichiers journaux, il était logique que nos classements n'étaient pas plus élevés. Google utilisait notre budget de crawl pour regarder les pages qui n'étaient pas bien optimisées, ou qui n'étaient pas optimisées du tout.

Afin d'obtenir les classements qui apporteraient le trafic dont nous avions besoin pour réussir, nous devions d'abord résoudre les éléments de l'analyse du fichier journal.

Dans ce cas, il était évident que le budget de crawl était gaspillé sur des pages sans importance, une constatation courante avec une analyse de fichier journal.

Solutions issues de l'analyse des fichiers journaux

Traitement des déchets d'exploration dans les sous-dossiers redondants

Parce que notre client était un site de commerce électronique, nous avons vu un grand nombre de sous-dossiers qui étaient dupliqués sur le site. Ces sous-dossiers étaient principalement des pages de catégorie qui étaient si anciennes que les informations qu'elles contenaient étaient largement obsolètes et presque impossibles à découvrir de manière organique.

Mais Googlebot ne s'est pas contenté de les découvrir. Il revenait fréquemment pour les réexplorer, grignotant notre budget d'exploration.

Notre solution consistait à supprimer et à rediriger ces sous-dossiers redondants vers des sous-dossiers plus appropriés et pertinents. Nous venions de lancer une structure de catégories entièrement révisée qui était censée nous aider à nous classer pour certains mots-clés plus importants. Pouvez-vous deviner où nous avons redirigé ces sous-pages redondantes ?

La redirection de ces pages anciennes et oubliées vers leurs homologues plus récents et plus optimisés nous a donné une longueur d'avance dans les SERP.

[Étude de cas] Optimisez le trafic de recherche organique à l'aide de l'analyse des fichiers journaux

Le National Business Research Institute a repensé son site Web et a constaté une baisse du trafic de recherche organique. Cette étude de cas se concentre sur la façon dont NBRI a utilisé OnCrawl pour optimiser ses performances SEO suite à sa refonte.
Lire l'étude de cas

Correction des déchets de crawl dans les sous-dossiers sans importance

Ce point semble similaire au dernier point concernant les sous-dossiers redondants. Les sous-dossiers redondants ont été oubliés et les doublons perdus de nos versions actuelles. La distinction entre les sous-dossiers redondants et sans importance est que nous parlons maintenant de sous-dossiers qui étaient toujours pertinents, mais pas de pages fondamentales pour la recherche.

La solution ici était tout sauf simple. Comme nous ne connaissons pas la cause profonde de la situation, nous devions prescrire une solution globale qui impliquait un peu de tout, notamment :

  • Insertion de liens internes stratégiques de nos pages de faible priorité (mais très explorées) vers nos pages de haute priorité optimisées pour le référencement
  • Réorganiser le plan du site pour inclure des pages plus importantes plus haut dans le fichier .xml
  • Réviser les informations rel="canonical" et meta robots sur nos pages de priorité supérieure
  • Revisiter le fichier robots.txt pour s'assurer que rien n'était bloqué qui ne devrait pas l'être (les grands sites de commerce électronique doivent particulièrement vérifier cela.)
  • Suppression et suppression des pages inutiles

Effacer les pages mortes

Nous avions déjà effectué un audit de site où nous avons exploré le site et trouvé les 404 erreurs qu'une analyse de site interne pouvait identifier.

Mais c'est la beauté d'une analyse de fichier journal, vous ne tirez pas de données limitées de votre propre analyse interne. Vous voyez exactement ce que Google voit. Il s'agit essentiellement d'un audit de site du point de vue d'un étranger, l'étranger le plus important : Google.

La solution ici était simple, ce qui a permis de rattraper tout le temps passé sur le point précédent. Nous avons 301 redirigé ces anciennes pages orphelines vers leurs homologues optimisés sur le site. Fait.

Les résultats d'une analyse de fichier journal

La meilleure partie de notre analyse des fichiers journaux pour ce client a été les résultats rapides qu'elle leur a valus.

Comme mentionné précédemment, cela a valu au client une augmentation de 25 % de ses revenus organiques en seulement 30 jours après la mise en œuvre des actions ci-dessus.

Pendant cette période, nous avons également constaté une légère augmentation des taux de conversion du trafic organique. Parce que cette hausse s'est produite pendant une saison lente, il n'y a pas de saisonnalité en jeu ici. Et le fait que les taux de conversion aient augmenté signifie que le trafic n'est pas seulement venu en plus grand nombre, c'était aussi du trafic qualifié.

Le trafic était probablement plus qualifié car après avoir redistribué efficacement le budget de crawl du site de notre client avec Google, nous avons attiré l'attention sur des pages plus basées sur l'intention, obtenant ainsi de meilleurs classements sur des mots clés à intention plus élevée. Cela signifiait que nous attirions les utilisateurs plus bas dans l'entonnoir vers les bonnes pages pour les aider dans leur parcours.

Cela peut sembler stupide, mais au 97e étage, notre credo est de faire d'Internet un meilleur endroit. Les analyses de fichiers journaux le font car elles compensent les lacunes des crawls inexacts de Google. Cela amène des pages de meilleure qualité au sommet des SERP, ce qui rend l'expérience de recherche sur Internet bien meilleure pour tout le monde.

La prochaine fois que vous serez confronté à un problème d'exploration, j'espère que vous n'hésiterez pas à exécuter une analyse de fichier journal, à présenter des solutions et à les mener à bien. Vous verrez votre site gagner plus de trafic et de conversions.

Commencer votre essai gratuit