Mises à jour Google Core : effets, problèmes et solutions pour les sites YMYL
Publié: 2019-12-04Dans cette étude de cas, j'examinerai Hangikredi.com qui est l'un des plus grands actifs financiers et numériques de la Turquie. Nous verrons des sous-titres SEO techniques et quelques graphiques.
Cette étude de cas est présentée en deux articles. Cet article traite de la mise à jour Google Core du 12 mars, qui a eu un fort effet négatif sur le site Web, et de ce que nous avons fait pour le contrer. Nous examinerons 13 problèmes et solutions techniques, ainsi que des problèmes holistiques.
Lisez le deuxième épisode pour voir comment j'ai appliqué l'apprentissage de cette mise à jour pour devenir un gagnant de chaque mise à jour Google Core.
Problèmes et solutions : correction des effets de la mise à jour Google Core du 12 mars
Jusqu'à la mise à jour de l'algorithme de base du 12 mars, tout s'est bien passé pour le site Web, sur la base des données d'analyse. En une journée, après la publication de la nouvelle de la mise à jour de l'algorithme de base, il y a eu une énorme baisse des classements et une grande frustration au bureau. Personnellement, je n'ai pas vu ce jour-là car je ne suis arrivé que lorsqu'ils m'ont embauché pour démarrer un nouveau projet et processus de référencement 14 jours plus tard.
[Étude de cas] Améliorer les classements, les visites organiques et les ventes grâce à l'analyse des fichiers journaux
Le rapport de dommages pour le site Web de l'entreprise après la mise à jour de l'algorithme de base du 12 mars est ci-dessous :
- 36 % de perte de session organique
- 65 % de clics perdus
- 30 % de perte de CTR
- 33 % de perte organique d'utilisateurs
- 100 000 impressions perdues par jour.
- 9,72 % de perte d'impressions
- 8 000 mots clés perdus
Maintenant, comme nous l'avons indiqué au début de l'article sur l'étude de cas, nous devrions poser une question. Nous ne pouvions pas demander "Quand aura lieu la prochaine mise à jour de l'algorithme de base ?" car c'est déjà arrivé. Une seule question restait.
« Quels critères différents Google a-t-il pris en compte entre moi et mon concurrent ? »
Comme vous pouvez le voir sur le tableau ci-dessus et sur le rapport de dommages, nous avions perdu notre trafic principal et nos mots-clés.
1. Problème : Liaison interne
J'ai remarqué que lorsque j'ai vérifié pour la première fois le nombre de liens internes, le texte d'ancrage et le flux de liens, mon concurrent était devant moi.
Rapport de flux de liens pour les catégories de Hangikredi.com d'OnCrawl
Mon principal concurrent a plus de 340 000 liens internes avec des milliers de textes d'ancrage. De nos jours, notre site Web n'avait que 70 000 liens internes sans textes d'ancrage de valeur. De plus, le manque de liens internes avait affecté le budget d'exploration et la productivité du site Web. Même si 80 % de notre trafic a été collecté sur seulement 20 pages de produits, 90 % de notre site était constitué de pages de guide contenant des informations utiles pour les utilisateurs. Et la plupart de nos mots clés et de notre score de pertinence pour les requêtes financières proviennent de ces pages. De plus, il y avait un nombre incalculable de pages orphelines.
En raison de l'absence de structure de liens internes, lorsque j'ai effectué l'analyse des journaux avec Kibana, j'ai remarqué que les pages les plus explorées étaient celles qui recevaient le moins de trafic. De plus, lorsque j'ai associé cela au réseau de liens internes, j'ai découvert que les pages d'entreprise à faible trafic (Confidentialité, Cookies, Sécurité, À propos de nous) ont le nombre maximum de liens internes.
Comme je l'expliquerai dans la section suivante, cela a amené Googlebot à supprimer le facteur de lien interne de Pagerank lorsqu'il a exploré le site, réalisant que les liens internes n'étaient pas construits comme prévu.
2. Problème : architecture du site, Pagerank interne, trafic et efficacité du crawl
Selon la déclaration de Google, les liens internes et les textes d'ancrage aident Googlebot à comprendre l'importance et le contexte d'une page Web. Pagerank interne ou Inrank est calculé sur la base de plusieurs facteurs. Selon Bill Slawski, les liens internes ou externes ne sont pas tous égaux. La valeur d'un lien pour le flux Pagerank change en fonction de sa position, de son type, de son style et de son épaisseur de police.
Si Googlebot comprend quelles pages sont importantes pour votre site Web, il les explorera davantage et les indexera plus rapidement. Les liens internes et la conception correcte de l'arborescence du site sont des facteurs importants pour cela. D'autres experts ont également commenté cette corrélation au fil des ans :
"La plupart des liens fournissent un peu de contexte supplémentaire grâce à leur texte d'ancrage. Au moins, ils devraient, non ? »
–John Mueller, Google 2017"Si vous avez des pages que vous pensez importantes sur votre site , ne les enterrez pas 15 liens profondément dans votre site et je ne parle pas de la longueur du répertoire, je parle de la réalité, vous devez cliquer sur 15 liens pour trouver cette page s'il y a une page qui est importante ou qui a de grandes marges bénéficiaires ou qui convertit vraiment - eh bien - escaladez qui met un lien vers cette page à partir de votre page racine, c'est le genre de chose où cela peut avoir beaucoup de sens.
–Matt Cutts, Google 2011"Si une page est liée à une autre avec le mot" contact "ou le mot" à propos de "et que la page à laquelle le lien est lié inclut une adresse, cet emplacement d'adresse peut être considéré comme pertinent pour la page faisant ce lien."
12 méthodes d'analyse des liens Google qui auraient pu changer - Bill Slawski
Corrélation taux de crawl/demande et nombre de liens internes. Source : OnCrawl.
Jusqu'à présent, nous pouvons faire ces déductions :
- Google se soucie de la profondeur des clics. Si une page Web est plus proche de la page d'accueil, elle devrait être plus importante. Cela a également été confirmé par John Mueller le 1er juillet 2018 en anglais Google Webmaster Hangout.
- Si une page Web contient de nombreux liens internes qui la dirigent, cela devrait être important.
- Les textes d'ancrage peuvent donner un pouvoir contextuel à une page Web.
- Un lien interne peut transmettre différents montants de Pagerank en fonction de sa position, de son type, de son poids de police ou de son style.
- Une arborescence de site conviviale pour l'UX qui donne des messages clairs sur l'autorité de la page interne aux robots des moteurs de recherche est un meilleur choix pour la distribution Inrank et l'efficacité de l'exploration.
Pourcentage de pages explorées par profondeur de clic. Source : OnCrawl.
Mais cela ne suffit pas pour comprendre la nature des liens internes et leurs effets sur l'efficacité du crawl.
Robot d'exploration SEO Oncrawl
Si vos pages les plus liées en interne ne créent pas de trafic ou ne sont pas cliquées, cela donne des signaux qui indiquent que votre arborescence de site et votre structure de liens internes ne sont pas construites selon l'intention de l'utilisateur. Et Google essaie toujours de trouver vos pages les plus pertinentes avec l'intention de l'utilisateur ou les entités de recherche. Nous avons une autre citation de Bill Slawski qui rend ce sujet plus clair :
"Si une ressource est liée à un nombre de ressources disproportionné par rapport au trafic reçu par l'utilisation de ces liens, cette ressource peut être rétrogradée dans le processus de classement."
La mise à jour de la marmotte vient-elle d'avoir lieu chez Google ? —Bill Slawski"Le score de qualité de la sélection peut être plus élevé pour une sélection qui se traduit par un temps de séjour long (par exemple, supérieur à une période de temps seuil) que le score de qualité de la sélection pour une sélection qui se traduit par un temps de séjour court."
La mise à jour de la marmotte vient-elle d'avoir lieu chez Google ? —Bill Slawski
Nous avons donc deux facteurs supplémentaires :
- Dwell Time dans la page liée.
- Trafic utilisateur généré par le lien.
Le nombre de liens internes et le style/position ne sont pas les seuls facteurs. Le nombre d'utilisateurs qui suivent ces liens et leurs mesures de comportement sont également importants. De plus, nous savons que les liens et les pages qui sont cliqués/visités sont beaucoup plus explorés par Google que les liens et les pages qui ne sont pas cliqués ou visités.
"Nous nous sommes de plus en plus tournés vers la compréhension des sections d'un site pour comprendre la qualité de ces sections."
John Mueller, 2 mai 2017, Hangout des webmasters Google en anglais.
À la lumière de tous ces facteurs, je partagerai deux résultats différents et différents du Pagerank Simulator :
Ces calculs de Pagerank sont effectués en supposant que toutes les pages sont égales, y compris la page d'accueil. La vraie différence est déterminée par la hiérarchie des liens.
L'exemple présenté ici est plus proche de la structure des liens internes avant le 12 mars. PR de la page d'accueil : 0,024, PR de la page de catégorie : 0,027, PR de la page de produit : 0,06, PR des pages Web sans trafic : 0,252.
Comme vous pouvez le constater, Googlebot ne peut pas faire confiance à cette structure de liens internes pour calculer le pagerank interne et l'importance des pages internes. Les pages sans trafic et sans produit ont 12 fois plus d'autorité que la page d'accueil. Il a plus que des pages de produits.
Cet exemple est plus proche de notre situation avant la mise à jour de l'algorithme principal du 5 juin.
Comme vous pouvez le remarquer, la structure des liens internes n'est toujours pas correcte, mais au moins les pages Web sans trafic n'ont pas plus de relations publiques que les pages de catégories et les pages de produits.
Quelle est la preuve supplémentaire que Google a retiré le lien interne et la structure du site du champ Pagerank en fonction du flux d'utilisateurs, des demandes et des intentions ? Bien sûr, le comportement de Googlebot et les corrélations Inlink Pagerank et Ranking :
Cela ne signifie pas que le réseau de liens internes, en particulier, est plus important que d'autres facteurs. La perspective SEO qui se concentre sur un seul point ne peut jamais réussir. Dans une comparaison entre outils tiers, il montre que la valeur interne du Pagerank progresse par rapport aux autres critères.
Selon la recherche Inlink Rank and rank correlation d'Aleh Barysevich, les pages avec le plus de liens internes ont un classement plus élevé que les autres pages du site Web. Selon l'enquête menée du 4 au 6 mars 2019, 1 000 000 de pages ont été analysées selon la métrique interne Pagerank pour 33 500 mots-clés. Les résultats de cette recherche menée par SEO PowerSuite ont été comparés aux différentes métriques de Moz, Majestic et Ahrefs et ont donné des résultats plus précis.
Voici quelques-uns des numéros de liens internes de notre site avant la mise à jour de l'algorithme de base du 12 mars :
Comme vous pouvez le voir, notre schéma de connexion interne ne reflétait pas l'intention et le flux de l'utilisateur. Les pages qui reçoivent le moins de trafic (pages produits mineures) ou qui ne reçoivent jamais de trafic (en rouge) étaient directement dans la profondeur du 1er clic et reçoivent des PR depuis la page d'accueil. Et certains avaient encore plus de liens internes que la page d'accueil.
À la lumière de tout cela, il n'y a que les deux derniers points que nous pouvons montrer à ce sujet.
- Taux de crawl / demande pour les pages les plus liées en interne
- Sculpture de lien et PageRank
Entre le 1er février et le 31 mars, voici les pages les plus explorées par Googlebot :
Comme vous pouvez le constater, les pages crawlées et les pages qui ont le plus de liens internes sont complètement différentes les unes des autres. Les pages avec le plus de liens internes n'étaient pas pratiques pour l'intention de l'utilisateur ; ils n'ont pas de mots-clés organiques ni aucune sorte de valeur SEO directe. (
Les URL dans les cases rouges sont nos catégories de pages de produits les plus visitées et les plus importantes. Les autres pages de cette liste sont les deuxième ou troisième catégories les plus visitées et les plus importantes.)
Notre Inrank actuel par profondeur de page. Source : Oncrawl.
Qu'est-ce que le Link Sculpting et que faire des liens non suivis en interne ?
Contrairement à ce que pensent la plupart des référenceurs, les liens marqués d'une balise "nofollow" transmettent toujours la valeur interne du Pagerank. Pour moi, après toutes ces années, personne n'a mieux raconté cet élément SEO que Matt Cutts dans son article Pagerank Sculpting du 15 juin 2009.
Une partie utile pour Link Sculpting, qui montre le véritable objectif de Pagerank Sculpting.
"Je recommanderais de ne pas utiliser le nofollow pour le type de sculpture PageRank dans un site Web , car il ne fait probablement pas ce que vous pensez qu'il fait."
–John Mueller, Google 2017
Si vous avez des pages Web sans valeur en termes de Google et d'utilisateurs, vous ne devriez pas les taguer avec "nofollow". Cela n'arrêtera pas le flux PageRank. Vous devez les interdire à partir du fichier robots.txt. De cette façon, Googlebot ne les explorera pas, mais il ne leur transmettra pas non plus le Pagerank interne. Mais vous ne devriez l'utiliser que pour des pages vraiment sans valeur, comme l'a dit Matt Cutts il y a dix ans. Les pages qui effectuent des redirections automatiques pour le marketing d'affiliation ou les pages sans contenu sont des exemples pratiques ici.
Solution : une structure de liens internes meilleure et plus naturelle
Notre concurrent avait un désavantage. Leur site Web avait plus de texte d'ancrage, plus de liens internes, mais leur structure n'était ni naturelle ni utile. Le même texte d'ancrage a été utilisé avec la même phrase sur chaque page de leur site. Le paragraphe d'entrée de chaque page était recouvert de ce contenu répétitif. Chaque utilisateur et moteur de recherche peut facilement reconnaître qu'il ne s'agit pas d'une structure naturelle qui prend en compte le bénéfice de l'utilisateur.
J'ai donc décidé de trois choses à faire pour corriger la structure du lien interne :
- L'architecture des informations du site ou l'arborescence du site doit suivre un chemin différent des liens placés dans le contenu. Il devrait suivre de plus près l'esprit de l'utilisateur et un réseau de neurones de mots clés.
- Dans chaque élément de contenu, les mots-clés secondaires doivent être utilisés avec les mots-clés principaux de la page ciblée.
- Les textes d'ancrage doivent être naturels, adaptés au contenu et doivent être utilisés à un endroit différent sur chaque page en tenant compte de la perception de l'utilisateur
Notre site-tree et une partie de la structure inlink pour l'instant.
Dans le diagramme ci-dessus, vous pouvez voir notre lien interne actuel et l'arborescence du site.
Certaines des choses que nous avons faites pour résoudre ce problème sont ci-dessous :
- Nous avons créé 30 000 liens internes supplémentaires avec des ancres utiles.
- Nous avons utilisé des spots naturels et des mots-clés pour l'utilisateur.
- Nous n'avons pas utilisé les phrases et les modèles répétitifs pour les liens internes.
- Nous avons donné les bons signaux au Googlebot concernant l'Inrank d'une page Web.
- Nous avons examiné les effets d'une structure de liens internes correcte sur l'efficacité de l'exploration via l'analyse des journaux et nous avons constaté que nos principales pages de produits étaient davantage explorées par rapport aux statistiques précédentes.
- Création de plus de 50 000 liens internes pour des pages orphelines.
- Utiliser les liens internes de la page d'accueil pour alimenter les sous-pages et créer davantage de sources de liens internes sur la page d'accueil.
- Pour protéger Pagerank Power, nous avons également utilisé une balise nofollow pour certains liens externes inutiles. (Il ne s'agissait pas de liens internes, mais cela sert le même objectif.)
3. Problème : Structure du contenu
Google affirme que pour les sites Web YMYL, la fiabilité et l'autorité sont bien plus importantes que pour les autres types de sites.
Autrefois, les mots-clés n'étaient que des mots-clés. Mais maintenant, ce sont aussi des entités bien définies, singulières, signifiantes et distinguables. Dans notre contenu, il y avait quatre problèmes principaux :
- Notre contenu était court. (Normalement, la longueur du contenu n'est pas importante. Mais dans ce cas, ils ne contenaient pas suffisamment d'informations sur les sujets.)
- Les noms de nos écrivains n'étaient pas singuliers, significatifs ou distinguables en tant qu'entité.
- Notre contenu n'était pas convivial. En d'autres termes, il ne s'agissait pas de contenu « fast-food ». C'était un contenu sans sous-titres.
- Nous avons utilisé un langage marketing. En l'espace d'un paragraphe, nous pourrions identifier le nom de la marque et sa publicité pour l'utilisateur.
- Il y avait beaucoup de boutons qui envoyaient les utilisateurs vers les pages de produits à partir de pages d'information.
- Dans le contenu de nos pages de produits, il n'y avait pas suffisamment d'informations ou de directives complètes.
- La conception n'était pas conviviale. Nous utilisions essentiellement la même couleur pour la police et l'arrière-plan. (C'est surtout encore le cas en raison de problèmes d'infrastructure.)
- Les images et les vidéos n'étaient pas considérées comme faisant partie du contenu.
- L'intention de l'utilisateur et l'intention de recherche d'un mot clé spécifique n'étaient pas considérées comme importantes auparavant.
- Il y avait beaucoup de contenu en double, inutile et répétitif pour le même sujet.
Audit de contenu dupliqué Oncrawl à partir d'aujourd'hui.
Solution : une meilleure structure de contenu pour la confiance des utilisateurs
Lors de la vérification d'un problème à l'échelle du site, l'utilisation d'un programme d'audit à l'échelle du site en tant qu'assistant est une meilleure façon d'organiser le temps passé sur les projets de référencement. Comme dans la section des liens internes, j'ai utilisé Oncrawl Site Audit ainsi que d'autres outils et inspections Xpath.
Premièrement, résoudre tous les problèmes de la section de contenu aurait pris trop de temps. En ces jours de crise qui s'effondrent, le temps était un luxe. J'ai donc décidé de résoudre les problèmes à gain rapide tels que:
- Suppression du contenu en double, inutile et répétitif
- Unifier les contenus courts et légers manquant d'informations complètes
- Republier du contenu qui manquait de sous-titres et de structure traçable à l'œil nu
- Correction du ton marketing intensif dans le contenu
- Suppression de nombreux boutons d'appel à l'action du contenu
- Une meilleure communication visuelle avec des images et des vidéos
- Rendre le contenu et les mots clés cibles compatibles avec l'utilisateur et l'intention de recherche
- Utiliser et montrer des entités financières et éducatives dans le contenu pour la confiance
- Utilisation de la communauté sociale pour créer une preuve sociale d'approbation
Nous nous sommes concentrés sur la fixation du contenu des pages de produits et des pages de guide les plus proches.
Au début de ce processus, la plupart de nos pages de destination/directives de produits et de transactions comportaient moins de 500 mots sans informations complètes.
En 25 jours, les actions que nous avons menées sont ci-dessous :
- Suppression de 228 pages avec du contenu en double, inutile et répétitif. (Les profils de backlink de Ccontent ont été vérifiés avant le processus de suppression. Et nous avons utilisé les codes de statut 301 ou 410 pour une meilleure communication avec Googlebot.)
- Combiné plus de 123 pages manquant d'informations complètes.
- Sous-titres utilisés en fonction de leur importance et de la demande des utilisateurs dans le contenu.
- Suppression du nom de la marque et des boutons CTA avec un langage de style marketing.
- Inclure du texte dans les images pour renforcer le sujet principal.
Ceci est une capture d'écran de Google Vision AI. Google peut lire le texte dans les images et détecter les sentiments et les identités au sein des entités.
- Activé notre réseau social pour attirer plus d'utilisateurs.
- Examen de l'écart de contenu entre nos concurrents et nous et création de plus de 80 nouveaux éléments de contenu.
- Utilisation de Google Analytics, Search Console et Google Data Studio pour déterminer les pages sous-performantes avec un taux de rebond élevé et un faible trafic.
- A fait des recherches sur les extraits de code et leurs mots-clés et leur structure de contenu. Nous avons ajouté les mêmes en-têtes et la même structure de contenu dans nos contenus connexes, ce qui a augmenté nos extraits en vedette.
Au début de ce processus, nos contenus comportaient principalement entre 150 et 300 mots. La longueur moyenne de notre contenu a augmenté de 350 mots pour l'ensemble du site.
4. Problème : pollution de l'index, ballonnement et balises canoniques
Google n'a jamais fait de déclaration sur Index Pollution et, en fait, je ne sais pas si quelqu'un l'a déjà utilisé comme terme SEO ou non. Toutes les pages qui n'ont pas de sens pour Google pour un score d'index plus efficace doivent être supprimées des pages d'index de Google. Les pages qui polluent l'index sont des pages qui n'ont pas généré de trafic depuis des mois. Ils ont zéro CTR et zéro mots-clés organiques. Dans les cas où ils ont quelques mots-clés organiques, ils devraient devenir un concurrent des autres pages de votre site pour les mêmes mots-clés.
De plus, nous avions effectué des recherches sur le gonflement de l'index et trouvé encore plus de pages indexées inutiles. Ces pages existaient à cause d'une structure d'informations de site erronée ou à cause d'une mauvaise structure d'URL.
Une autre raison de ce problème était l'utilisation incorrecte des balises canoniques. Depuis plus de deux ans, les balises canoniques sont traitées comme de simples indices pour Googlebot. S'ils sont mal utilisés, Googlebot ne les calculera pas ou n'y prêtera pas attention lors de l'évaluation du site. Et aussi, pour ce calcul, vous consommerez probablement votre budget de crawl de manière inefficace. En raison d'une utilisation incorrecte des balises canoniques, plus de 300 pages de commentaires avec du contenu en double ont été indexées.
L'objectif de ma théorie est de montrer à Google uniquement les pages de qualité et nécessaires avec le potentiel de générer des clics et de créer de la valeur pour les utilisateurs.
Solution : réparer l'indice de pollution et les ballonnements
Tout d'abord, j'ai suivi les conseils de John Mueller de Google. Je lui ai demandé si j'utilisais la balise noindex pour ces pages tout en laissant Googlebot les suivre, "Est-ce que je perdrais l'équité des liens et l'efficacité de l'exploration ?"
Comme vous pouvez le deviner, il a d'abord dit oui, mais il a ensuite suggéré que l'utilisation de liens internes pouvait surmonter cet obstacle.
J'ai également constaté que l'utilisation de balises noindex en même temps que dofollow diminuait le taux de crawl de Googlebot sur ces pages. Ces stratégies m'ont permis de faire en sorte que Googlebot explore plus souvent mes produits et les pages de directives importantes. J'ai également modifié ma structure de liens internes comme l'a conseillé John Mueller.
Dans un court laps de temps:
- Des pages indexées inutiles ont été découvertes.
- Plus de 300 pages ont été supprimées de l'index.
- La balise Noindex a été implémentée.
- La structure des liens internes a été modifiée pour les pages qui recevaient des liens provenant de pages supprimées de l'index.
- L'efficacité et la qualité du crawl ont été examinées au fil du temps.
5. Problème : Codes d'état erronés
Au début, j'ai remarqué que Googlebot visite de nombreux contenus supprimés du passé. Même les pages d'il y a huit ans étaient encore explorées. Cela était dû à l'utilisation de codes d'état incorrects, en particulier pour le contenu supprimé.
Il y a une énorme différence entre les fonctions 404 et 410. L'un d'eux est pour une page d'erreur où aucun contenu n'existe et l'autre est pour le contenu supprimé. De plus, les pages valides faisaient également référence à de nombreuses URL de source et de contenu supprimées. Certaines images et éléments CSS ou JS supprimés ont également été utilisés sur les pages publiées valides en tant que ressources. Enfin, il y avait beaucoup de pages 404 logicielles, de multiples chaînes de redirection et des redirections temporaires 302-307 pour les pages redirigées en permanence.
Codes de statut pour les actifs redirigés aujourd'hui.
Solution : Corriger les codes d'état erronés
- Chaque code d'état 404 a été converti en code d'état 410. (Plus de 30000)
- Chaque ressource avec le code d'état 404 a été remplacée par une nouvelle ressource valide. (Plus de 500)
- Chaque redirection 302-307 a été convertie en redirection permanente 301. (Plus de 1500)
- Les chaînes de redirection ont été supprimées des actifs en cours d'utilisation.
- Chaque mois, nous avions reçu plus de 25 000 visites sur des pages et des ressources avec un code de statut 404 dans notre analyse de journal. Maintenant, c'est moins de 50 pour 404 codes de statut par mois et zéro résultat pour 410 codes de statut…
Codes de statut dans toute la profondeur de la page aujourd'hui.
6. Problème : HTML sémantique
La sémantique fait référence à ce que signifie quelque chose. Le HTML sémantique inclut des balises qui donnent la signification du composant de la page dans une hiérarchie. Avec cette structure de code hiérarchique, vous pouvez dire à Google quel est le but d'une partie du contenu. De plus, dans le cas où Googlebot ne peut pas explorer toutes les ressources nécessaires pour afficher entièrement votre page, vous pouvez au moins spécifier la mise en page de votre page Web et les fonctions de vos parties de contenu à Googlebot.
Sur Hangikredi.com, après la mise à jour de l'algorithme Google Core du 12 mars, je savais qu'il n'y avait pas assez de budget de crawl en raison d'une structure de site Web non optimisée. Ainsi, afin que Googlebot comprenne plus facilement le but, la fonction, le contenu et l'utilité de la page Web, j'ai décidé d'utiliser le HTML sémantique.
Solution : Utilisation du HTML sémantique
Selon les directives d'évaluation de la qualité de Google, chaque chercheur a une intention et chaque page Web a une fonction en fonction de cette intention. Pour prouver ces fonctions à Googlebot, nous avons apporté quelques améliorations à notre structure HTML pour certaines des pages qui sont moins explorées par Googlebot.
- Balise <main> utilisée pour afficher le contenu principal et la fonction de la page.
- Utilisé <nav> pour la partie navigation.
- Utilisé <footer> pour le pied de page du site.
- Utilisé <article> pour l'article.
- Balises <section> utilisées pour chaque balise de titre.
- Utilisation des balises <picture>, <table>, <citation> pour les images, les tableaux et les citations dans le contenu.
- Balise <aside> utilisée pour le contenu supplémentaire.
- Correction des problèmes de hiérarchie H1-H6 (malgré la dernière déclaration de Google "utiliser deux H1 n'est pas un problème", utiliser la bonne structure, aide le Googlebot.)
- Comme dans la section Structure du contenu, nous avons également utilisé le HTML sémantique pour les extraits en vedette, nous avons utilisé des tableaux et des listes pour plus de résultats d'extraits en vedette.
Pour nous, ce n'était pas un développement réalisable de manière réaliste pour l'ensemble du site. Néanmoins, à chaque mise à jour de la conception, nous continuons à implémenter des balises HTML sémantiques pour des pages Web supplémentaires.
7. Problème : Utilisation des données structurées
Comme l'utilisation du HTML sémantique, les données structurées peuvent être utilisées pour montrer les fonctions et les définitions des parties de page Web à Googlebot. De plus, les données structurées sont obligatoires pour des résultats riches. Sur notre site Web, les données structurées n'ont pas été utilisées ou, plus communément, ont été utilisées de manière incorrecte jusqu'à la fin du mois de mars. Afin de créer de meilleures relations avec les entités sur notre site Web et nos comptes hors page, nous avons commencé à mettre en place des données structurées.
Solution : Utilisation correcte et testée des données structurées
Pour les institutions financières et les sites Web YMYL, les données structurées peuvent résoudre de nombreux problèmes. Par exemple, ils peuvent montrer l'identité de la marque, le type de contenu et créer une meilleure vue d'extrait. Nous avons utilisé les types de données structurées suivants pour l'ensemble du site et les pages individuelles :
- FAQ Données structurées pour les principales pages de produits
- Données structurées de la page Web
- Données structurées de l'organisation
- Fil d'Ariane Données structurées
8. Plan du site et optimisation Robots.txt
Sur Hangikredi.com, il n'y a pas de sitemap dynamique. Le plan du site existant à l'époque n'incluait pas toutes les pages nécessaires et incluait également du contenu supprimé. De plus, dans le fichier Robots.txt, certaines des pages de référence d'affiliation avec des milliers de liens externes n'étaient pas interdites. Cela incluait également certains fichiers JS tiers sans rapport avec le contenu et d'autres ressources supplémentaires qui n'étaient pas nécessaires pour Googlebot.
Les étapes suivantes ont été appliquées :
- Création d'un sitemap_index.xml pour plusieurs sitemaps qui sont créés en fonction des catégories de sites pour de meilleurs signaux d'exploration et un meilleur examen de la couverture.
- Certains des fichiers JS tiers et certains fichiers JS inutiles ont été interdits dans le fichier robots.txt.
- Les pages affiliées avec des liens externes et aucune valeur de page de destination ont été interdites, comme nous l'avons mentionné dans la section Pagerank ou Internal Link Sculpting.
- Correction de plus de 500 problèmes de couverture. (La plupart d'entre eux étaient des pages indexées malgré leur interdiction par Robots.txt.)
Vous pouvez voir notre taux de crawl, la charge et l'augmentation de la demande dans le tableau ci-dessous :
Nombre de pages explorées par jour par Googlebot. Il y a eu une augmentation constante du nombre de pages crawlées par jour jusqu'au 1er août. Après qu'une attaque ait provoqué une panne de serveur début août, il a retrouvé sa stabilité en un peu plus d'un mois.
Le Crawled Load per day de Googlebot a évolué en parallèle avec le nombre de pages crawlées par jour.
9. Résoudre les problèmes AMP
Sur le site Web de l'entreprise, chaque page de blog a une version AMP. En raison d'une implémentation de code incorrecte et de canoniques AMP manquants, toutes les pages AMP ont été supprimées à plusieurs reprises de l'index. Cela a créé un score d'index instable et un manque de confiance pour le site Web. De plus, les pages AMP avaient des termes et des mots anglais par défaut sur le contenu turc.
- Les balises canoniques ont été corrigées pour plus de 400 pages AMP.
- Des implémentations de code incorrectes ont été trouvées et corrigées. (Cela était principalement dû à une mise en œuvre incorrecte des balises AMP-Analytics et AMP-Canonical.)
- Les termes anglais par défaut étaient traduits en turc.
- La stabilité de l'index et du classement a été créée pour le côté blog du site Web de l'entreprise.
Un exemple de message dans GSC concernant les améliorations AMP
10. Problèmes et solutions des balises méta
En raison des problèmes de budget d'exploration, parfois dans les requêtes de recherche critiques pour les principales pages de produits importantes, Google n'a pas indexé ni affiché le contenu dans les balises META. Au lieu du méta-titre, la liste SERP ne montrait que le nom de l'entreprise construit à partir de deux mots. Aucun extrait de description n'a été affiché. Cela réduisait notre CTR et nuisait à l'identité de notre marque. Nous avons résolu ce problème en déplaçant les balises META en haut de notre code source, comme indiqué ci-dessous.
Outre le budget de crawl, nous avons également optimisé plus de 600 balises méta pour les pages transactionnelles et informatives :
- Longueur de caractères optimisée pour les appareils mobiles.
- Utilisé plus de mots-clés dans les titres
- Utilisation de différents styles de balises méta et examen du CTR, de l'écart des mots clés et des changements de classement
- Création de plus de pages avec une arborescence de site correcte pour mieux cibler les mots-clés secondaires grâce à ces processus d'optimisation.
- Sur notre site, nous avons toujours différents méta-titres, descriptions et en-têtes pour tester l'algorithme de Google et le CTR des utilisateurs de recherche.
11. Problèmes de performances d'image et solutions
Les problèmes d'image peuvent être divisés en deux types. Pour la commodité du contenu et pour la vitesse de la page. Pour les deux, le site Web de l'entreprise a encore beaucoup à faire.
En mars et avril, suite à la mise à jour négative de l'algorithme de base du 12 mars :
- Les images n'avaient pas de balises alt ou elles avaient de mauvaises balises alt.
- Ils n'avaient pas de titres.
- Ils n'avaient pas la structure d'URL correcte.
- Ils n'avaient pas d'extensions de nouvelle génération.
- Ils n'ont pas été compressés.
- Ils n'avaient pas la bonne résolution pour chaque taille d'écran d'appareil.
- Ils n'avaient pas de sous-titres.
Pour vous préparer à la prochaine mise à jour de l'algorithme Google Core :
- Les images ont été compressées.
- Leurs extensions ont été partiellement modifiées.
- Des balises Alt ont été écrites pour la plupart d'entre eux.
- Les titres et les légendes ont été corrigés pour l'utilisateur.
- Les structures d'URL ont été partiellement corrigées pour l'utilisateur.
- Nous avons trouvé des images inutilisées qui sont toujours chargées par le navigateur et les avons supprimées du système.
En raison de l'infrastructure du site, nous avons partiellement mis en œuvre des corrections de référencement d'image.
Vous pouvez observer notre temps de chargement de page par profondeur de page ci-dessus. Comme vous pouvez le constater, la plupart des pages produits sont encore lourdes.
12. Problèmes et solutions de cache, de prélecture et de préchargement
Avant la mise à jour de l'algorithme de base du 12 mars, il y avait un système de cache lâche sur le site Web de l'entreprise. Certaines parties du contenu étaient dans le cache, mais d'autres non. C'était particulièrement un problème pour les pages de produits car elles étaient 2x plus lentes que les pages de produits de nos concurrents. La plupart des composants de nos pages Web sont en fait des sources statiques, mais ils n'avaient toujours pas d'Etags pour indiquer la plage de cache.
Pour vous préparer à la prochaine mise à jour de l'algorithme Google Core :
- Nous avons mis en cache certains composants pour chaque page Web et les avons rendus statiques.
- Ces pages étaient des pages produit importantes.
- Nous n'utilisons toujours pas les E-Tags à cause de l'infrastructure du site.
- En particulier, les images, les ressources statiques et certaines parties de contenu importantes sont désormais entièrement mises en cache sur tout le site.
- Nous avons commencé à utiliser le code dns-prefetch pour certaines ressources externalisées oubliées.
- Nous n'utilisons toujours pas le code de préchargement mais nous travaillons sur le parcours utilisateur sur le site afin de l'implémenter à l'avenir.
13. Optimisation et minification HTML, CSS et JS
En raison des problèmes d'infrastructure du site, il n'y avait pas tellement de choses à faire pour la vitesse du site. J'ai essayé de combler l'écart avec toutes les méthodes possibles, y compris la suppression de certains composants de la page. Pour les pages produit importantes, nous avons nettoyé la structure du code HTML, l'avons minifiée et compressée.
Une capture d'écran du code source de l'un de nos produits saisonniers mais importants. L'utilisation des données structurées de la FAQ, de la réduction HTML, de l'optimisation des images, de l'actualisation du contenu et des liens internes nous a donné le premier rang au bon moment. (Le mot-clé est "Bayram Kredisi" en turc, ce qui signifie "Crédit vacances")
Nous avons également implémenté CSS Factoring, Refactoring et JS Compression partiellement par petites étapes. Lorsque le classement a chuté, nous avons examiné l'écart de vitesse du site entre les pages de nos concurrents et les nôtres. Nous avions choisi des pages urgentes que nous pouvions accélérer. Nous avons également partiellement purifié et compressé les fichiers CSS critiques de ces pages. Nous avons lancé le processus de suppression de certains des fichiers JS tiers utilisés par différents départements de l'entreprise, mais ils n'ont pas encore été supprimés. Pour certaines pages produits, nous avons également pu modifier l'ordre de chargement des ressources.
Examen des concurrents
En plus de chaque amélioration technique du référencement, l'inspection des concurrents était mon meilleur guide pour comprendre la nature et les objectifs d'une mise à jour de l'algorithme de base. J'ai utilisé des programmes utiles et utiles pour suivre les changements de conception, de contenu, de classement et de technologie de mon concurrent.
- Pour les changements de classement des mots clés, j'ai utilisé Wincher, Semrush et Ahrefs.
- Pour les Brand Mentions, j'ai utilisé Google Alerts, BuzzSumo, Talkwalker.
- Pour les rapports de nouveaux liens et de nouveaux mots clés, j'ai utilisé Ahrefs Alert.
- Pour les modifications de contenu et de design, j'ai utilisé Visualping.
- Pour les changements de technologie, j'ai utilisé SimilarTech.
- Pour Google Update News and Inspection, j'ai principalement utilisé les signaux Semrush Sensor, Algoroo et CognitiveSEO.
- Pour inspecter l'historique des URL des concurrents, j'ai utilisé la Wayback Machine.
- Pour la vitesse du serveur des concurrents, j'ai utilisé Chrome DevTools et ByteCheck.
- Pour les coûts de crawl et de rendu, j'ai utilisé "What Does My Site Cost". (Since last month, I have started using Onely's new JS Tools like WWJD or TL:DR..)
A screenshot from SimilarTech for my main competitor.
A screenshot from Visualping which shows the layout changes for my secondary competitor.
Testing the value of the changes
With all of these problems identified and solutions in place, I was ready to see whether the website would hold up to the next Google core algorithm updates.
In the next article, I'll look at the major core algorithm updates over the next several months, and how the site performed.