Considérations SEO lors de la migration vers un framework JavaScript
Publié: 2022-04-19Toute mise à jour ou modification majeure de votre site Web doit toujours être effectuée en gardant à l'esprit les considérations de référencement. Des erreurs robots.txt aux redirections de page mal implémentées, il est trop facile de voir votre classement de recherche disparaître - littéralement - du jour au lendemain.
Cela est également vrai lors de la migration de votre site Web vers un framework JavaScript. Avec une planification minutieuse, vous pouvez vous assurer que votre site reste visible pour les robots des moteurs de recherche, éviter les risques et les pièges courants qui entraînent une perte de trafic et préparer votre site pour une croissance future continue.
Il s'agit d'un problème vaste et complexe avec de nombreux détails techniques à garder à l'esprit tout au long de la migration de votre site Web. Cependant, il existe certaines erreurs courantes à éviter ainsi que certains principes généraux qui peuvent vous aider à vous guider dans la bonne direction.
Voici quelques-unes des principales préoccupations en matière de référencement lors de la migration vers un framework JavaScript.
Conserver les URL importantes
Googlebot et les autres robots d'exploration des moteurs de recherche associent le contenu du site Web aux URL - c'est ainsi qu'ils vous renvoient à partir de leurs résultats de recherche - mais les frameworks JavaScript peuvent rompre le lien entre les URL statiques et le contenu en mettant à jour les pages de manière dynamique.
Cela est particulièrement vrai pour les applications à page unique (SPA) qui nécessitent un traitement spécial pour garantir que toutes les URL importantes de l'ancien site Web sont conservées et restent visibles pour Googlebot, afin de protéger votre présence existante dans les SERP.
Ne vous y trompez pas si votre page d'accueil apparaît toujours dans son classement légitime - cela pourrait être un signe que Google explore avec succès la page d'accueil de votre SPA mais ne parvient pas à trouver le contenu servi dynamiquement côté client.
Activer l'accès au robot d'exploration
Il ne s'agit pas seulement de débloquer les robots des moteurs de recherche dans votre fichier robots.txt. Vous en avez besoin pour pouvoir explorer votre site et voir votre contenu – et pour cela, vous aurez probablement besoin d'une forme de rendu côté serveur.
En implémentant le rendu côté serveur ou le pré-rendu, vous donnez aux robots de recherche une version de votre contenu tel qu'il apparaît après l'exécution de tous les JavaScripts, supprimant ainsi la charge de ressources consistant à demander aux robots de restituer eux-mêmes le contenu de la page.
Cela rend non seulement chaque page visible pour les robots d'exploration, mais cela peut également augmenter le nombre de pages et les niveaux de la hiérarchie de votre site Web qui sont indexés, en plaçant moins de demandes sur le budget d'exploration des robots par page.
Améliorez l'exploration
Vous pouvez donner encore plus d'aide aux robots en présentant les informations d'une manière facile à digérer. Pensez-y lorsque vous implémentez des fonctionnalités JavaScript telles que les événements onclick et la pagination à défilement infini.
En gardant à l'esprit ce que les robots peuvent réellement faire, vous pouvez vous assurer que votre contenu leur est visible dans le cadre de ces capacités. En récompense, une plus grande partie de votre contenu est susceptible d'être explorée, indexée et classée.
Un avantage supplémentaire est qu'en créant une version conviviale pour les robots d'exploration de votre site Web, vous pouvez également améliorer l'accessibilité pour certains visiteurs humains, qui peuvent ne pas avoir JavaScript fonctionnant sur leur appareil lorsqu'ils visitent votre site.
[Étude de cas] Augmentez la visibilité en améliorant l'exploration du site Web pour Googlebot
Rediriger les anciennes URL
Si vous ne prévoyez pas de conserver les anciennes URL exactement telles qu'elles sont, mais que vous avez une forte présence dans les recherches, envisagez de mettre en place des redirections permanentes pour diriger les robots vers l'équivalent le plus proche dans votre nouveau sitemap.
Cela préserve l'autorité du domaine et peut protéger votre classement, au moins jusqu'à ce que tout contenu nouvellement publié soit entièrement exploré et indexé, auquel cas vous pouvez ou non décider de supprimer les anciennes redirections, si ces anciennes pages n'apportent plus de trafic important.
Utilisez des liens internes cohérents
Encore une fois, il s'agit du chargement dynamique du contenu. Les frameworks JavaScript peuvent libérer certaines fonctionnalités intéressantes, telles que la possibilité d'extraire des données d'une ressource externe et de les utiliser pour mettre à jour la page actuelle, plutôt que de naviguer vers une URL différente.
Pour le référencement, il est préférable de garder le contenu relativement statique et de charger une URL différente lors d'un changement substantiel de la page. Les robots d'exploration comprennent mieux cette approche, peuvent mieux cartographier votre site Web dans son ensemble et sont plus susceptibles de visiter et d'interpréter correctement la nouvelle page.
Une mauvaise discipline sur les liens internes est un écueil majeur de nombreuses migrations. Cela peut rendre certaines pages beaucoup plus difficiles à explorer pour les robots et envoyer des signaux déroutants sur l'importance relative de certaines pages par rapport à d'autres.
L'importance de la cohérence
Au-delà des liens internes, essayez d'être cohérent sur tous les signaux que vous envoyez aux moteurs de recherche. Cela est particulièrement vrai si votre site Web ne charge qu'une partie de son contenu via le framework JavaScript, car vous devez vous assurer que les pages JavaScript se chargent et fonctionnent de la même manière que toutes les pages HTML ou PHP de votre site.
Des exemples de cela peuvent inclure la résolution d'URL avec et sans barre oblique finale (si cela résout ou redirige doit être cohérent dans toutes les zones de votre site Web), ainsi que les meilleures pratiques de référencement telles que la mise en œuvre de balises canoniques (qui, à nouveau, doivent être cohérentes en termes de le contenu est réputé canonique).
Mieux vaut prévenir que guérir, en particulier en ce qui concerne les classements de recherche. Essayez donc de comprendre non seulement comment le contenu s'affiche sur votre site Web, mais comment il s'affiche, que ce soit par rendu côté client ou côté serveur - et si votre migration vers JavaScript affectera la visibilité du contenu sur votre site Web, la prochaine fois qu'il est exploré.
[Étude de cas] Empêchez votre refonte de pénaliser votre référencement
Cela changera-t-il un jour ?
Le rendu dynamique n'est pas un ami du SEO en raison de la nature relativement simple des robots de recherche. À l'avenir, nous verrons peut-être un Googlebot plus complexe et capable de résoudre certains de ces problèmes, mais pour l'instant, il incombe aux webmasters de diffuser le contenu de la manière la plus comestible possible.
Cela est vrai tout au long de la planification, de la mise en œuvre et de la gestion de tout site Web qui repose sur une présence de recherche. Mais c'est d'une importance primordiale lors des mises à jour, des mises à niveau et des migrations majeures, y compris la migration vers un framework JavaScript.
En gardant à l'esprit certains des pièges et des meilleures pratiques décrits ci-dessus, vous pouvez garder vos ambitions de référencement au premier plan de la migration de votre site Web et éviter le scénario cauchemardesque d'avoir un grand site Web rentable disparaître des SERP du jour au lendemain.