Google est-il sur le point de débrancher son pingouin ?
Publié: 2022-06-12NDLR, 6 octobre 2016 : le porte-parole de Google, Gary Illyes, l'a officialisé. La prédiction posée dans ce post par Robert Ramirez s'est réalisée avec la mise à jour Penguin 4.0 de septembre 2016.
Les liens inorganiques ne sont pas un signal de classement négatif, mais sont plutôt ignorés dans le calcul du classement de Google. Par conséquent, la théorie de cet article est actuellement considérée comme un fait.
Regardez la conversation où Illyes clarifie « rétrograder » par rapport à « dévaluer ».
TL; DR – Une théorie : la prochaine mise à jour de Google Penguin tuera carrément le spam de liens en éliminant les signaux associés aux backlinks inorganiques. Google passera sélectivement l'équité des liens en fonction de la pertinence thématique des sites liés, rendue possible par l'analyse sémantique. Google récompensera les liens organiques et peut-être même les mentions de sites faisant autorité dans n'importe quel créneau. En tant qu'effet secondaire, le référencement négatif basé sur les liens et la "pénalisation" des pingouins seront éliminés.
La fin du spam de lien est-elle sur nous ?
Gary Illyes de Google a récemment rendu compte de la prochaine mise à jour Penguin de Google. Ce qu'il dit en fait prendre note à de nombreux acteurs de l'industrie du référencement :
- La mise à jour Penguin sera lancée avant la fin de 2015. Comme cela fait plus d'un an depuis la dernière mise à jour, ce serait une version bienvenue. (Note de l'éditeur du 7 décembre 2015 : depuis la publication, un porte-parole de Google a déclaré : "Avec les vacances, il semble que les pingouins ne marcheront pas avant l'année prochaine.")
- Le prochain Penguin sera une version "temps réel" de l'algorithme.
Beaucoup prévoient qu'une fois que Penguin sera intégré à l'algorithme de classement standard, le classement diminuera et augmentera en temps quasi réel, car Google considère les signaux de backlink négatifs et positifs. Vraisemblablement, cela inclurait un impact plus immédiat des soumissions de fichiers de désaveu - un outil qui a fait l'objet de nombreux débats dans l'industrie du référencement.
Mais que se passe-t-il si le plan de Google est de changer complètement le fonctionnement de Penguin ? Et si nous vivions dans un monde où les backlinks inorganiques ne pénalisaient pas un site, mais étaient simplement ignorés par l'algorithme de Google et n'offraient aucune valeur ? Et si la prochaine itération de Penguin, celle qui doit s'exécuter dans le cadre de l'algorithme, était en fait l'opportunité pour Google de tuer complètement l'algorithme Penguin et de changer la façon dont ils considèrent les liens en tirant parti de leur connaissance de l'autorité et des relations sémantiques sur le web ?
Chez Bruce Clay, Inc., nous sommes arrivés à cette théorie après de nombreuses discussions, suppositions et, comme toute bonne société de référencement, rétro-ingénierie. Commençons par les principaux problèmes que la pénalité Penguin a été conçue pour résoudre, menant à notre hypothèse sur la façon dont un algorithme nouvellement conçu les traiterait plus efficacement.
Travailler à rebours : les problèmes avec Penguin
De tous les changements algorithmiques visant à lutter contre le spam Web, la pénalité Penguin a été la plus problématique pour les webmasters et Google.
Cela a été problématique pour les webmasters en raison de la difficulté de sortir de dessous. Si certains webmasters savaient à quel point il serait difficile de se remettre des pénalités de Penguin à partir d'avril 2012, ils auraient peut-être décidé de supprimer leurs sites et de repartir de zéro. Contrairement aux pénalités manuelles pour spam Web, où (nous dit-on) un employé de Google examine l'élagage des liens et désavoue le travail des fichiers, les actions algorithmiques dépendent de l'actualisation de l'algorithme par Google afin de voir la récupération. Les rafraîchissements ne se sont produits que quatre fois depuis la sortie de la pénalité originale de Penguin, ce qui rend les occasions de contrition rares et espacées.
Penguin a été problématique pour Google car, en fin de compte, les pénalisations de Penguin et les effets qu'elles ont sur les entreprises, grandes et petites, ont été un cauchemar de relations publiques pour le moteur de recherche. Beaucoup diront que Google se fiche des sentiments négatifs au sein de la communauté du marketing numérique (en particulier du référencement), mais la colère envers Google ne s'arrête pas là ; de nombreuses grandes publications grand public comme le Wall Street Journal, Forbes et CNBC ont publié des articles qui mettent en évidence la pénalisation des pingouins et son effet négatif sur les petites entreprises.
Gérer les liens indésirables et les problèmes de référencement négatif
En raison de l'efficacité de la création de liens avant 2012 (et dans une certaine mesure depuis), Google a été confronté à un énorme problème de spam de liens. Soyons clairs à ce sujet; Google a créé ce monstre lorsqu'il a récompensé les liens inorganiques en premier lieu. Pendant un certain temps, la création de liens a fonctionné comme un charme. Si je peux emprunter une citation de mon patron, Bruce Clay : "L'ancienne façon de penser était que celui qui meurt avec le plus de liens gagne."
Cette tactique était si efficace qu'elle a littéralement changé le visage d'Internet. Spam de blog, spam de commentaires, sites de grattage - aucun d'entre eux n'existerait si l'algorithme de Google ne récompensait pas, pendant un certain temps, l'acquisition de liens (quelle qu'en soit la source) avec des classements plus élevés.
Et puis il y a le référencement négatif - le problème que Google a déclaré n'est pas un problème, alors qu'il y a eu de nombreux exemples documentés qui indiquent le contraire. Google a même publié l'outil de désaveu, conçu en partie pour résoudre le problème de référencement négatif dont ils nient l'existence.
L'algorithme Penguin, destiné à résoudre les problèmes de spam de lien d'origine de Google, est bien loin de résoudre le problème du spam de lien ; lorsque vous ajoutez le casse-tête des relations publiques qu'est devenu Penguin, vous pouvez affirmer que Penguin a été un échec lamentable, causant finalement plus de problèmes qu'il n'en a résolus. Tout bien considéré, Google est très motivé pour repenser la façon dont il traite les signaux de lien. En termes simples, ils doivent construire une meilleure souricière - et le lancement d'un "nouveau pingouin" est l'occasion de le faire.
Une solution : le pingouin réinventé
Compte tenu de ces problèmes, que doit faire la collection de docteurs à Mountain View, CA ? Et si, plutôt que de surveiller les spammeurs, ils pouvaient changer les règles et disqualifier complètement les spammeurs du jeu ?
En changeant leur algorithme pour ne plus pénaliser ni récompenser les liens inorganiques, Google peut, d'un seul coup, résoudre leur problème de lien une fois pour toutes. La motivation pour la création de liens spammés serait supprimée car cela ne fonctionnerait tout simplement plus. Le référencement négatif basé sur la création de backlinks spammés vers des concurrents ne fonctionnerait plus si les liens inorganiques cessent de transmettre des signaux de confiance négatifs.
Définition des technologies des moteurs de rechercheKnowledge Graph, Hummingbird et RankBrain — Oh mon dieu ! Qu'est-ce que le Knowledge Graph ? Qu'est-ce que Google Colibri ? Qu'est-ce que RankBrain ? |
Ce qui empêche Google d'accomplir cela, c'est qu'il exige la capacité de juger avec précision quels liens sont pertinents pour n'importe quel site ou, selon le cas, sujet. Développer cette capacité à juger de la pertinence des liens est plus facile à dire qu'à faire, dites-vous - et je suis d'accord. Mais, en regardant les modifications les plus récentes que Google a apportées à son algorithme, nous constatons que les bases de ce type de cadre algorithmique sont peut-être déjà en place. En fait, on pourrait en déduire que Google travaille à cette solution depuis un certain temps déjà.
Web sémantique, colibri et apprentissage automatique
Au cas où vous ne l'auriez pas remarqué, Google a fait des investissements substantiels pour améliorer sa compréhension des relations sémantiques entre les entités sur le Web.
Avec l'introduction du Knowledge Graph en mai 2012, le lancement de Hummingbird en septembre 2013 et la récente confirmation de l'algorithme d'apprentissage automatique RankBrain, Google a récemment fait des pas de géant dans sa capacité à reconnaître les relations entre les objets et leurs attributs. .
Google comprend les relations sémantiques en examinant et en extrayant les données des pages Web existantes et en tirant parti des informations issues des requêtes que les internautes utilisent sur leur moteur de recherche.
L'algorithme de recherche de Google est devenu "plus intelligent" depuis un certain temps déjà, mais pour autant que nous le sachions, ces avancées ne sont pas appliquées à l'un des principaux signaux de classement de Google : les liens externes. Nous n'avons aucune raison de soupçonner que les principaux principes du PageRank ont changé depuis leur introduction par Sergey Brin et Larry Page en 1998.
Pourquoi pas maintenant?
Et si Google pouvait tirer parti de sa compréhension sémantique du Web pour identifier non seulement les relations entre les mots clés, les sujets et les thèmes, mais également les relations entre les sites Web qui en traitent ? Maintenant, allez un peu plus loin ; est-il possible que Google puisse identifier si un lien doit transmettre l'équité (jus de lien) à sa cible en fonction de la pertinence et de l'autorité du sujet ?
Bill Slawski, le principal analyseur de brevets Google de l'industrie du référencement, a écrit d'innombrables articles sur le Web sémantique, détaillant le processus de Google pour extraire et associer des faits et des entités à partir de pages Web. C'est une analyse fascinante (et compliquée) avec des implications majeures pour le référencement.
Pour nos besoins, nous allons simplifier un peu les choses. Nous savons que Google a développé une méthode pour comprendre les entités et la relation qu'elles entretiennent avec des pages Web spécifiques. Une entité, dans ce cas, est "une personne, un lieu ou une chose spécifiquement nommé (y compris des idées et des objets) qui pourrait être connecté à d'autres entités en fonction des relations entre elles". Cela ressemble énormément au type de travail lourd algorithmique qui devrait être fait si Google avait l'intention de tirer parti de sa connaissance de l'autorité des sites Web pour analyser la valeur des backlinks en fonction de leur pertinence et de leur autorité sur un sujet.
Aller au-delà des liens
Les référenceurs sont hyper concentrés sur les backlinks, et pour cause ; les études de corrélation qui analysent les facteurs de classement continuent de classer les backlinks de qualité comme l'une des principales influences de classement de Google. C'est cette corrélation qui a déclenché l'afflux de liaisons inorganiques qui nous a fait atterrir dans notre situation actuelle.
Mais que se passerait-il si Google pouvait aller au-delà de la création ou de l'obtention de liens vers un modèle qui récompensait également les mentions de sites faisant autorité dans n'importe quel créneau ? Diminuer les liens tout en récompensant les références provenant de sources pertinentes élargirait les signaux sur lesquels Google s'appuyait pour évaluer la pertinence et l'autorité et les aiderait à s'éloigner de leur dépendance aux liens en tant que facteur de classement. Il serait également, vraisemblablement, plus difficile de « jouer » car les véritables autorités sur n'importe quel sujet seraient peu susceptibles de référencer des marques ou des sites qui ne méritaient pas d'être mentionnés.
C'est un point important. Dans l'environnement actuel, les sites Web ont très peu de motivation pour créer des liens vers des sources extérieures. Cela a été un problème que Google n'a jamais été en mesure de résoudre. Les autorités n'ont jamais été motivées à établir des liens avec des concurrents potentiels, et le manque de liens organiques dans des niches a conduit à un climat où l'achat et la vente de liens peuvent sembler être la seule option d'acquisition de liens viable pour certains sites Web. Pourquoi limiter le passage de l'équité du lien à un hyperlien ? Une mention d'une véritable autorité n'est-elle pas un signal tout aussi fort ?
Il existe certainement un précédent pour ce concept. "Co-occurrence" et "co-citation" sont des termes utilisés par les référenceurs depuis des années, mais Google n'a jamais confirmé qu'il s'agissait de facteurs de classement. Cependant, Google a récemment commencé à répertorier les mentions non liées dans le rapport "derniers liens" de la Search Console. John Mueller a indiqué dans une série de tweets que Google récupère en fait les mentions d'URL à partir du texte, mais que ces mentions ne passent pas PageRank.
Ce qui est remarquable ici, c'est non seulement que Google surveille les mentions de domaine en texte seul, mais aussi qu'il associe ces mentions au domaine auquel elles font référence. Si Google peut relier les points de cette manière, peut-il également s'étendre au-delà des URL qui apparaissent sous forme de texte sur une page vers des références d'entité ? Les mêmes références qui déclenchent le Knowledge Graph de Google, peut-être ?
En résumé
Nous avons construit un dossier basé sur de nombreuses suppositions et conjectures, mais nous espérons certainement que c'est la direction dans laquelle Google prend son algorithme. Que Google le reconnaisse ou non, le problème du lien spam n'a pas encore été résolu. Les sanctions contre les pingouins sont de nature punitive et il est extrêmement difficile d'y échapper, et le fait est que pénaliser les malfaiteurs ne résout pas le problème à sa source. La motivation pour créer des backlinks inorganiques existera tant que la tactique sera perçue comme efficace. Avec l'algorithme actuel, nous pouvons nous attendre à voir des SEO louches vendre de l'huile de serpent et des entreprises sans méfiance se retrouver pénalisées.
La meilleure option de Google consiste à supprimer les signaux négatifs attachés aux liens inorganiques et à ne récompenser que les liens qu'ils identifient comme pertinents. Ce faisant, ils éviscèrent immédiatement les constructeurs de liens de spam, dont la seule option rapide et évolutive pour créer des liens est de les placer sur des sites Web qui n'ont que peu ou pas de valeur réelle.
En ajustant son algorithme pour ne récompenser que les liens qui ont de l'expertise, de l'autorité et de la confiance dans le créneau concerné, Google peut se rapprocher plus que jamais de la résolution de son problème de spam de liens.
Note de l'éditeur, 7 décembre 2015 : Le 3 décembre, nous avons appris que, malgré les précédents commentaires de Google suggérant le contraire, la prochaine mise à jour de Penguin n'aura pas lieu avant la fin de l'année. Nous avons mis à jour cet article pour refléter cela.