101191
•
20 minutes de lecture
•
L'algorithme PageRank (ou PR en abrégé) est un système de classement des pages Web développé par Larry Page et Sergey Brin de l'Université de Stanford à la fin des années 90. Le PageRank était en fait la base sur laquelle Page et Brin ont créé le moteur de recherche Google.
De nombreuses années se sont écoulées depuis et, bien entendu, les algorithmes de classement de Google sont devenus beaucoup plus compliqués. Sont-ils toujours basés sur le PageRank? Comment exactement le PageRank influence-t-il le classement, pourrait-il être l'une des raisons pour lesquelles votre classement a chuté, et à quoi les SEO devraient-ils se préparer à l'avenir? Nous allons maintenant trouver et résumer tous les faits et mystères autour du PageRank pour clarifier le tableau. Eh bien, autant que nous le pouvons.
Comme mentionné ci-dessus, dans leur projet de recherche universitaire, Brin et Page ont tenté d'inventer un système pour estimer l'autorité des pages Web. Ils ont décidé de construire ce système sur des liens, qui servaient de votes de confiance accordés à une page. Selon la logique de ce mécanisme, plus il y a de ressources externes liées à une page, plus elle contient d’informations précieuses pour les utilisateurs. Et le PageRank (un score de 0 à 10 calculé en fonction de la quantité et de la qualité des liens entrants) montrait l'autorité relative d'une page sur Internet.
Jetons un coup d'œil au fonctionnement du PageRank. Chaque lien d'une page (A) à une autre (B) génère un soi-disant vote, dont le poids dépend du poids collectif de toutes les pages qui renvoient vers la page A. Et nous ne pouvons pas connaître leur poids tant que nous n'avons pas calculé cela, donc le processus se déroule par cycles.
La formule mathématique du PageRank original est la suivante:
Où A, B, C et D représentent quelques pages, L est le nombre de liens sortant de chacune d'elles et N est le nombre total de pages de la collection (c'est-à-dire sur Internet).
Quant à d, d est ce qu'on appelle le facteur d'amortissement. Considérant que le PageRank est calculé en simulant le comportement d'un utilisateur qui accède au hasard à une page et clique sur des liens, nous appliquons ce facteur d'amortissement d comme la probabilité que l'utilisateur s'ennuie et quitte une page.
Comme vous pouvez le voir d'après la formule, s'il n'y a pas de pages pointant vers la page, son PR ne sera pas nul mais
Comme il est probable que l'utilisateur puisse accéder à cette page non pas à partir d'autres pages, mais, par exemple, à partir de signets.
Au début, le score PageRank était visible publiquement dans la barre d'outils Google, et chaque page avait son score de 0 à 10, très probablement sur une échelle logarithmique.
Les algorithmes de classement de Google à cette époque étaient très simples : des relations publiques élevées et une densité de mots clés étaient les deux seules choses dont une page avait besoin pour être bien classée dans un SERP. En conséquence, les pages Web étaient remplies de mots-clés et les propriétaires de sites Web ont commencé à manipuler le PageRank en développant artificiellement des backlinks contenant du spam. C'était facile à faire : les fermes de liens et la vente de liens étaient là pour donner un « coup de main » aux propriétaires de sites Web.
Google a décidé de lutter contre le spam de liens. En 2003, Google a pénalisé le site Internet de la société de réseau publicitaire SearchKing pour manipulation de liens. SearchKing a poursuivi Google, mais Google a gagné. C'était une façon pour Google d'empêcher tout le monde de manipuler des liens, mais cela n'a abouti à rien. Les fermes Link sont simplement devenues souterraines et leur quantité s'est considérablement multipliée.
En outre, les commentaires spammés sur les blogs se sont également multipliés. Les robots ont attaqué les commentaires de n’importe quel blog WordPress, par exemple, et ont laissé un nombre énorme de commentaires « cliquez ici pour acheter des pilules magiques ». Pour empêcher le spam et la manipulation des relations publiques dans les commentaires, Google a introduit la balise nofollow en 2005. Et une fois de plus, ce que Google entendait devenir une étape réussie dans la guerre de manipulation des liens a été mis en œuvre de manière tordue. Les gens ont commencé à utiliser des balises nofollow pour canaliser artificiellement le PageRank vers les pages dont ils avaient besoin. Cette tactique est devenue connue sous le nom de sculpture du PageRank.
Pour éviter la sculpture des relations publiques, Google a modifié la façon dont le PageRank circule. Auparavant, si une page contenait à la fois des liens nofollow et dofollow, tout le volume de relations publiques de la page était transmis à d'autres pages liées par les liens dofollow. En 2009, Google a commencé à diviser les PR d'une page de manière égale entre tous les liens de la page, mais en transmettant uniquement les partages attribués aux liens dofollow.
Après avoir sculpté le PageRank, Google n'a pas arrêté la guerre des liens anti-spam et a par conséquent commencé à retirer le score du PageRank des yeux du public. Tout d'abord, Google a lancé le nouveau navigateur Chrome sans la barre d'outils Google, où le score PR était affiché. Ensuite, ils ont cessé de communiquer le score PR dans Google Search Console. Ensuite, le navigateur Firefox a cessé de prendre en charge la barre d'outils Google. En 2013, le PageRank a été mis à jour pour Internet Explorer pour la dernière fois et, en 2016, Google a officiellement fermé la barre d'outils au public.
Un autre moyen utilisé par Google pour lutter contre les systèmes de liens était la mise à jour Penguin, qui déclassait les sites Web avec des profils de backlinks louches. Lancé en 2012, Penguin n'est pas devenu une partie de l'algorithme en temps réel de Google mais était plutôt un « filtre » mis à jour et réappliqué de temps en temps aux résultats de recherche. Si un site Web était pénalisé par Penguin, les référenceurs devaient examiner attentivement leurs profils de liens et supprimer les liens toxiques, ou les ajouter à une liste de désaveu (une fonctionnalité introduite à l'époque pour indiquer à Google quels liens entrants ignorer lors du calcul du PageRank). Après avoir audité les profils de liens de cette manière, les référenceurs ont dû attendre environ six mois jusqu'à ce que l'algorithme Penguin recalcule les données.
En 2016, Google a intégré Penguin à son algorithme de classement de base. Depuis lors, il fonctionne en temps réel, traitant le spam de manière algorithmique avec beaucoup plus de succès.
Dans le même temps, Google s'est efforcé de faciliter la qualité plutôt que la quantité des liens, en le précisant dans ses directives de qualité contre les systèmes de liens.
Eh bien, nous en avons fini avec le passé du PageRank. Qu'est ce qui se passe maintenant?
En 2019, un ancien employé de Google a déclaré que l'algorithme PageRank d'origine n'était plus utilisé depuis 2006 et avait été remplacé par un autre algorithme moins gourmand en ressources à mesure qu'Internet se développait. Ce qui pourrait bien être vrai, puisqu'en 2006, Google a déposé le nouveau brevet Produire un classement des pages en utilisant les distances dans un graphe de liens Web.
Oui c'est le cas. Ce n'est pas le même PageRank qu'au début des années 2000, mais Google continue de s'appuyer fortement sur l'autorité des liens. Par exemple, Andrey Lipattsev, ancien employé de Google, l'a mentionné en 2016. Dans un hangout Google Q&A, un utilisateur lui a demandé quels étaient les principaux signaux de classement utilisés par Google. La réponse d'Andrey était assez simple.
Je peux vous dire ce qu'ils sont. Il s'agit de contenu et de liens pointant vers votre site.
En 2020, John Mueller a confirmé une fois de plus:
Oui, nous utilisons le PageRank en interne, parmi de nombreux autres signaux. Ce n'est pas tout à fait la même chose que l'article original, il y a beaucoup de bizarreries (par exemple, des liens désavoués, des liens ignorés, etc.) et, encore une fois, nous utilisons beaucoup d'autres signaux qui peuvent être beaucoup plus forts.
Comme vous pouvez le constater, le PageRank est toujours vivant et activement utilisé par Google lors du classement des pages sur le Web.
Ce qui est intéressant, c'est que les employés de Google ne cessent de nous rappeler qu'il existe de très nombreux autres facteurs de classement Google. Mais nous regardons cela avec un grain de sel. Compte tenu des efforts déployés par Google pour lutter contre le spam de liens, il pourrait être intéressant pour Google de détourner l'attention des référenceurs des facteurs vulnérables à la manipulation (comme le sont les backlinks) et de diriger cette attention vers quelque chose d'innocent et de gentil. Mais comme les référenceurs savent lire entre les lignes, ils continuent de considérer le PageRank comme un signal de classement fort et développent les backlinks de toutes les manières possibles. Ils utilisent toujours des PBN, pratiquent la création de liens à plusieurs niveaux, achètent des liens, etc., comme c'était le cas il y a longtemps. Au fur et à mesure que le PageRank vivra, le spam de liens vivra également. Nous ne recommandons rien de tout cela, mais c’est la réalité du référencement, et nous devons le comprendre.
Eh bien, vous avez l’idée que le PageRank d’aujourd’hui n’est plus le PageRank d’il y a 20 ans.
L'une des principales modernisations des relations publiques a été le passage du modèle Random Surfer brièvement mentionné ci-dessus au modèle Reasonable Surfer en 2012. Reasonable Surfer suppose que les utilisateurs ne se comportent pas de manière chaotique sur une page et cliquent uniquement sur les liens qui les intéressent. moment. Supposons qu'en lisant un article de blog, vous êtes plus susceptible de cliquer sur un lien dans le contenu de l'article plutôt que sur un lien vers les conditions d'utilisation dans le pied de page.
De plus, Reasonable Surfer peut potentiellement utiliser une grande variété d'autres facteurs pour évaluer l'attractivité d'un lien. Tous ces facteurs ont été soigneusement examinés par Bill Slawski dans son article, mais j'aimerais me concentrer sur les deux facteurs dont les référenceurs discutent plus souvent. Il s’agit de la position du lien et du trafic de la page. Que pouvons-nous dire de ces facteurs?
Un lien peut être situé n'importe où sur la page: dans son contenu, son menu de navigation, la biographie de l'auteur, son pied de page et, en fait, tout élément structurel que contient la page. Et différents emplacements de lien affectent la valeur du lien. John Mueller l'a confirmé, affirmant que les liens placés dans le contenu principal pèsent plus que tous les autres:
Il s'agit de la zone de la page où se trouve votre contenu principal, le contenu dont parle réellement cette page, pas le menu, la barre latérale, le pied de page, l'en-tête… Ensuite, c'est quelque chose que nous prenons en compte et nous essayons pour utiliser ces liens.
Ainsi, on dit que les liens de pied de page et les liens de navigation ont moins de poids. Et ce fait est de temps en temps confirmé non seulement par les porte-parole de Google, mais aussi par des cas réels.
Dans un cas récent présenté par Martin Hayman chez BrightonSEO, Martin a ajouté le lien qu'il avait déjà dans son menu de navigation vers le contenu principal des pages. En conséquence, ces pages de catégories et les pages auxquelles elles étaient liées ont connu une augmentation du trafic de 25%.
Cette expérience prouve que les liens de contenu ont plus de poids que les autres.
En ce qui concerne les liens dans la biographie de l'auteur, les référenceurs supposent que les liens bio pèsent quelque chose, mais ont moins de valeur que, par exemple, les liens de contenu. Bien que nous n'ayons pas beaucoup de preuves ici, mais ce que Matt Cutts a dit lorsque Google luttait activement contre les blogs invités excessifs pour les backlinks.
John Mueller a clarifié la façon dont Google traite le trafic et le comportement des utilisateurs en termes de transmission de jus de liens dans l'un des hangouts de Search Console Central. Un utilisateur a demandé à Mueller si Google prenait en compte la probabilité de clic et le nombre de clics sur un lien lors de l'évaluation de la qualité d'un lien. Les principaux points à retenir de la réponse de Mueller étaient les suivants:
Google ne prend pas en compte les clics sur les liens ni la probabilité de clic lors de l'évaluation de la qualité du lien.
Google comprend que des liens sont souvent ajoutés au contenu, comme des références, et que les utilisateurs ne sont pas censés cliquer sur tous les liens qu'ils rencontrent.
Pourtant, comme toujours, les référenceurs doutent que cela vaut la peine de croire aveuglément tout ce que dit Google et continuent d'expérimenter. Ainsi, les gars d'Ahrefs ont réalisé une étude pour vérifier si la position d'une page sur un SERP est liée au nombre de backlinks qu'elle possède à partir de pages à fort trafic. L'étude a révélé qu'il n'y a pratiquement aucune corrélation. De plus, certaines pages les mieux classées se sont avérées n’avoir aucun backlink provenant de pages riches en trafic.
Cette étude nous oriente dans une direction similaire aux mots de John Mueller: vous n'avez pas besoin de créer des backlinks générant du trafic vers votre page pour obtenir des positions élevées sur un SERP. D’un autre côté, le trafic supplémentaire n’a jamais nui à aucun site Web. Le seul message ici est que les backlinks riches en trafic ne semblent pas influencer les classements Google.
Comme vous vous en souvenez, Google a introduit la balise nofollow en 2005 comme moyen de lutter contre le spam de liens. Quelque chose a-t-il changé aujourd'hui? En fait, oui.
Premièrement, Google a récemment introduit deux autres types d'attribut nofollow. Avant cela, Google suggérait de marquer tous les backlinks auxquels vous ne souhaitez pas participer au calcul du PageRank comme nofollow, qu'il s'agisse de commentaires de blog ou de publicités payantes. Aujourd'hui, Google recommande d'utiliser rel="sponsored" pour les liens payants et affiliés et rel="ugc" pour le contenu généré par les utilisateurs.
Il est intéressant de noter que ces nouvelles balises ne sont pas obligatoires (du moins pas encore), et Google souligne que vous n'avez pas besoin de modifier manuellement tous les rel=”nofollow” en rel="sponsored" et rel=”ugc”. Ces deux nouveaux attributs fonctionnent désormais de la même manière qu’une balise nofollow ordinaire.
Deuxièmement, Google affirme désormais que les balises nofollow, ainsi que les nouvelles, sponsorisées et ugc, sont traitées comme des indices plutôt que comme des directives lors de l'indexation des pages.
En plus des liens entrants, il existe également des liens sortants, c'est-à-dire des liens qui pointent vers d'autres pages de la vôtre.
De nombreux référenceurs pensent que les liens sortants peuvent avoir un impact sur les classements, mais cette hypothèse a été traitée comme un mythe SEO. Mais il existe une étude intéressante à examiner à cet égard.
Reboot Online a mené une expérience en 2015 et l'a réexécutée en 2020. Ils voulaient savoir si la présence de liens sortants vers des pages de haute autorité influençait la position de la page sur un SERP. Ils ont créé 10 sites Web avec des articles de 300 mots, tous optimisés pour un mot-clé inexistant: Phylandocic. 5 sites Web se sont retrouvés sans aucun lien sortant, et 5 sites Web contenaient des liens sortants vers des ressources de haute autorité. En conséquence, les sites Web dotés de liens sortants faisant autorité ont commencé à se classer en tête, et ceux n’ayant aucun lien ont pris les positions les plus basses.
D'une part, les résultats de cette recherche peuvent nous indiquer que les liens sortants influencent effectivement la position des pages. D’un autre côté, le terme de recherche dans la recherche est tout nouveau et le contenu des sites Web a pour thème la médecine et les médicaments. Il y a donc de fortes chances que la requête ait été classée comme YMYL. Et Google a souligné à plusieurs reprises l’ importance d’EAT pour les sites Web YMYL. Ainsi, les liens sortants auraient pu être traités comme un signal EAT, prouvant que les pages ont un contenu factuellement exact.
En ce qui concerne les requêtes ordinaires (et non YMYL), John Mueller a déclaré à plusieurs reprises que vous ne deviez pas avoir peur de créer des liens vers des sources externes à partir de votre contenu, car les liens sortants sont bons pour vos utilisateurs.
En outre, les liens sortants peuvent également être bénéfiques pour le référencement, car ils peuvent être pris en compte par l'IA de Google lors du filtrage du spam sur le Web. Parce que les pages spammées ont tendance à avoir peu de liens sortants, voire aucun. Soit ils renvoient vers les pages du même domaine (s’ils pensent au référencement), soit ils contiennent uniquement des liens payants. Ainsi, si vous créez un lien vers des ressources crédibles, vous montrez en quelque sorte à Google que votre page n’est pas du spam.
Il y avait autrefois une opinion selon laquelle Google pourrait vous infliger une pénalité manuelle pour avoir trop de liens sortants, mais John Mueller a déclaré que cela n'est possible que lorsque les liens sortants font évidemment partie d'un système d'échange de liens, et que le site Web est en général de mauvaise qualité. Ce que Google entend par évidence est en fait un mystère, alors gardez à l'esprit le bon sens, un contenu de haute qualité et un référencement de base.
Tant que le PageRank existera, les référenceurs chercheront de nouvelles façons de le manipuler.
En 2012, Google était plus susceptible de publier des actions manuelles en cas de manipulation de liens et de spam. Mais désormais, grâce à ses algorithmes anti-spam bien entraînés, Google est capable d'ignorer simplement certains liens spammés lors du calcul du PageRank plutôt que de déclasser l'ensemble du site Web en général. Comme l'a dit John Mueller,
Les liens aléatoires collectés au fil des années ne sont pas nécessairement nuisibles, nous les voyons également depuis longtemps et pouvons ignorer tous ces étranges graffitis Web d'il y a longtemps.
Cela est également vrai pour le référencement négatif lorsque votre profil de backlink est compromis par vos concurrents:
En général, nous en prenons automatiquement en compte et nous essayons de… les ignorer automatiquement lorsque nous les voyons se produire. Pour l’essentiel, je pense que cela fonctionne assez bien. Je vois très peu de personnes ayant de réels problèmes à ce sujet. Je pense donc que cela fonctionne généralement bien. En ce qui concerne le désaveu de ces liens, je suppose que s'il ne s'agit que de liens de spam normaux qui apparaissent simplement pour votre site Web, je ne m'en inquiéterais pas trop. Nous l’avons probablement compris par nous-mêmes.
Cependant, cela ne signifie pas que vous n’avez rien à craindre. Si les backlinks de votre site Web sont trop et trop souvent ignorés, vous avez toujours de fortes chances d'obtenir une action manuelle. Comme le dit Marie Haynes dans ses conseils sur la gestion des liens en 2021:
Les actions manuelles sont réservées aux cas où un site par ailleurs décent contient des liens artificiels pointant vers lui à une échelle si grande que les algorithmes de Google ne sont pas à l'aise de les ignorer.
Pour essayer de comprendre quels liens déclenchent le problème, lisez ce guide sur la façon de vérifier la qualité des backlinks. Bref, vous pouvez utiliser un vérificateur de backlinks comme SEO SpyGlass. Dans l'outil, accédez à la section Profil de backlink > Risque de pénalité. Faites attention aux backlinks à risque élevé et moyen.
Télécharger SEO SpyGlassPour rechercher plus en détail pourquoi tel ou tel lien est signalé comme dangereux, cliquez sur je me connecte dans la colonne Risque de pénalité. Ici, vous verrez pourquoi l'outil a considéré le lien comme mauvais et déciderez si vous désavouerez un lien ou non.
Télécharger SEO SpyGlassSi vous décidez de désavouer un lien d'un groupe de liens, cliquez dessus avec le bouton droit et choisissez l'option Désavouer le(s) backlink(s) :
Une fois que vous avez constitué une liste de liens à exclure, vous pouvez exporter le fichier de désaveu depuis SEO SpyGlass et le soumettre à Google via GSC.
En parlant de PageRank, nous ne pouvons que mentionner les liens internes. Le PageRank entrant est une chose que nous ne pouvons pas contrôler, mais nous pouvons totalement contrôler la façon dont les relations publiques sont réparties sur les pages de notre site Web.
Google a également souligné à plusieurs reprises l’importance des liens internes. John Mueller l'a souligné une fois de plus dans l'un des derniers hangouts de Search Console Central. Un utilisateur a demandé comment rendre certaines pages Web plus puissantes. Et John Mueller a dit ce qui suit:
...Vous pouvez aider avec les liens internes. Ainsi, au sein de votre site Web, vous pouvez vraiment mettre en évidence les pages que vous souhaitez mettre davantage en valeur et vous assurer qu’elles sont vraiment bien liées en interne. Et peut-être que les pages que vous ne trouvez pas si importantes, assurez-vous qu'elles sont un peu moins liées en interne.
Les liens internes signifient beaucoup. Il vous aide à partager le PageRank entrant entre différentes pages de votre site Web, renforçant ainsi vos pages sous-performantes et rendant votre site Web globalement plus fort.
Quant aux approches des liens internes, les référenceurs ont de nombreuses théories différentes. Une approche populaire est liée à la profondeur des clics sur le site Web. Cette idée dit que toutes les pages de votre site Web doivent être à une distance maximale de 3 clics de la page d'accueil. Bien que Google ait souligné à plusieurs reprises l’ importance d’une structure de site Web superficielle, celle-ci semble en réalité inaccessible pour tous les sites Web plus grands que petits.
Une autre approche est basée sur le concept de maillage interne centralisé et décentralisé. Comme le décrit Kevin Indig:
Les sites centralisés ont un flux d'utilisateur unique et un entonnoir qui pointe vers une page clé. Les sites dotés de liens internes décentralisés ont plusieurs points de contact de conversion ou différents formats d'inscription.
Dans le cas d'un maillage interne centralisé, nous avons un petit groupe de pages de conversion ou une page, que nous voulons puissante. Si nous appliquons des liens internes décentralisés, nous voulons que toutes les pages du site Web soient tout aussi puissantes et aient un PageRank égal pour qu'elles soient toutes classées pour vos requêtes.
Quelle option est la meilleure? Tout dépend de votre site Web et des particularités de votre niche commerciale, ainsi que des mots-clés que vous allez cibler. Par exemple, les liens internes centralisés conviennent mieux aux mots-clés avec des volumes de recherche élevés et moyens, car ils aboutissent à un ensemble restreint de pages super puissantes.
Au contraire, les mots-clés à longue traîne avec un faible volume de recherche sont meilleurs pour les liens internes décentralisés, car ils répartissent les relations publiques de manière égale entre de nombreuses pages de sites Web.
Un autre aspect d’un maillage interne réussi est l’ équilibre des liens entrants et sortants sur la page. À cet égard, de nombreux référenceurs utilisent le CheiRank (CR), qui est en fait un PageRank inversé. Mais alors que le PageRank est le pouvoir reçu, le CheiRank est le pouvoir de lien donné. Une fois que vous avez calculé PR et CR pour vos pages, vous pouvez voir quelles pages présentent des anomalies de liens, c'est à dire les cas où une page reçoit beaucoup de PageRank mais va un peu plus loin, et vice versa.
Une expérience intéressante ici est l'aplatissement des anomalies de lien par Kevin Indig. Le simple fait de s'assurer que le PageRank entrant et sortant est équilibré sur chaque page du site Web a donné des résultats très impressionnants. La flèche rouge indique ici le moment où les anomalies ont été corrigées:
Les anomalies de liens ne sont pas la seule chose qui peut nuire au flux du PageRank. Assurez-vous de ne pas être confronté à des problèmes techniques qui pourraient détruire vos relations publiques durement gagnées :
Pages orphelines. Les pages orphelines ne sont liées à aucune autre page de votre site Web, elles restent donc inactives et ne reçoivent aucun jus de lien. Google ne peut pas les voir et ne sait pas qu'ils existent réellement.
Rediriger les chaînes. Bien que Google affirme que les redirections passent désormais 100% des PR, il est toujours recommandé d'éviter les longues chaînes de redirection. Premièrement, ils consomment de toute façon votre budget d’exploration. Deuxièmement, nous savons que nous ne pouvons pas croire aveuglément tout ce que dit Google.
Liens en JavaScript non analysable. Comme Google ne peut pas les lire, ils ne passeront pas le PageRank.
404 liens. Les liens 404 ne mènent nulle part, donc le PageRank ne mène nulle part non plus.
Liens vers des pages sans importance. Bien sûr, vous ne pouvez laisser aucune de vos pages sans aucun lien, mais les pages ne sont pas créées égales. Si une page est moins importante, il n’est pas rationnel de consacrer trop d’efforts à optimiser le profil des liens de cette page.
Pages trop éloignées. Si une page est située trop profondément sur votre site Web, elle recevra probablement peu ou pas de relations publiques du tout. Comme Google ne parviendra peut-être pas à le trouver et à l'indexer.
Pour vous assurer que votre site Web est exempt de ces risques de PageRank, vous pouvez l'auditer avec WebSite Auditor. Cet outil dispose d'un ensemble complet de modules dans la section Structure du site > Audit du site, qui vous permettent de vérifier l'optimisation globale de votre site Web et, bien sûr, de trouver et de résoudre tous les problèmes liés aux liens, tels que les redirections longues:
Télécharger Website Auditoret liens brisés:
Télécharger Website AuditorPour vérifier votre site pour les pages orphelines ou trop éloignées, passez à Structure du site > Visualisation:
Télécharger Website AuditorCette année, le PageRank a fêté ses 23 ans. Et je suppose qu'il est plus âgé que certains de nos lecteurs d'aujourd'hui:) Mais qu'est-ce qui attend le PageRank à l'avenir? Est-ce que ça va disparaître complètement un jour?
Lorsque j'essaie de penser à un moteur de recherche populaire n'utilisant pas de backlinks dans son algorithme, la seule idée que je peux avoir est l' expérience Yandex en 2014. Le moteur de recherche a annoncé que la suppression des backlinks de son algorithme pourrait enfin empêcher les spammeurs de liens de manipuler et les aider à orienter leurs efforts vers la création de sites Web de qualité.
Il aurait pu s'agir d'un véritable effort pour évoluer vers des facteurs de classement alternatifs, ou simplement d'une tentative de persuader les masses d'abandonner le spam de liens. Quoi qu’il en soit, un an seulement après l’annonce, Yandex a confirmé que les facteurs de backlink étaient de retour dans leur système.
Mais pourquoi les backlinks sont-ils si indispensables pour les moteurs de recherche?
Tout en disposant d'innombrables autres points de données pour réorganiser les résultats de recherche après avoir commencé à les afficher (comme le comportement des utilisateurs et les ajustements BERT), les backlinks restent l'un des critères d'autorité les plus fiables nécessaires pour former le SERP initial. Leur seul concurrent ici est probablement les entités.
Comme le dit Bill Slawski lorsqu'on l'interroge sur l'avenir du PageRank:
Google explore l'apprentissage automatique et l'extraction de faits et comprend les paires clé-valeur pour les entités commerciales, ce qui signifie un mouvement vers la recherche sémantique et une meilleure utilisation des données structurées et de la qualité des données.
Pourtant, Google n’est pas du tout disposé à abandonner quelque chose dans lequel il a investi des dizaines d’années de développement.
Google est très doué en analyse de liens, qui est désormais une technologie Web très mature. Pour cette raison, il est fort possible que le PageRank continue à être utilisé pour classer les SERP organiques.
Une autre tendance soulignée par Bill Slawski concerne les actualités et autres types de résultats de recherche de courte durée:
Google nous a dit qu'il s'appuyait moins sur le PageRank pour les pages où l'actualité est plus importante, comme les résultats en temps réel (comme ceux de Twitter), ou pour les résultats d'actualités, où l'actualité est très importante.
En effet, une actualité vit bien trop peu dans les résultats de recherche pour accumuler suffisamment de backlinks. Google a donc travaillé et pourrait continuer à travailler pour remplacer les backlinks par d'autres facteurs de classement lorsqu'il s'agit d'actualités.
Cependant, pour l'instant, les classements des actualités sont fortement déterminés par l'autorité de niche de l'éditeur, et nous lisons toujours l'autorité sous forme de backlinks:
"Les signaux d'autorité aident à prioriser les informations de haute qualité provenant des sources les plus fiables disponibles. Pour ce faire, nos systèmes sont conçus pour identifier les signaux qui peuvent aider à déterminer quelles pages démontrent une expertise, une autorité et une fiabilité sur un sujet donné, sur la base des commentaires des évaluateurs de recherche. Ces signaux peuvent notamment indiquer si d'autres personnes apprécient la source pour des requêtes similaires ou si d'autres sites Web importants sur le sujet renvoient à l'histoire.
Enfin et surtout, j'ai été assez surpris par les efforts déployés par Google pour pouvoir identifier les backlinks sponsorisés et générés par les utilisateurs et les distinguer des autres liens non suivis.
Si tous ces backlinks doivent être ignorés, pourquoi se soucier de les distinguer les uns des autres? Surtout avec John Muller suggérant que plus tard, Google pourrait essayer de traiter ces types de liens différemment.
Mon hypothèse la plus folle était que Google vérifiait peut-être si la publicité et les liens générés par les utilisateurs pouvaient devenir un signal de classement positif.
Après tout, la publicité sur les plateformes populaires nécessite des budgets énormes, et des budgets énormes sont un attribut d'une marque grande et populaire.
Le contenu généré par les utilisateurs, lorsqu'il est considéré en dehors du paradigme du spam de commentaires, concerne de vrais clients donnant leur approbation réelle.
Cependant, les experts que j'ai contactés ne croyaient pas que cela était possible:
Je doute que Google considère un jour les liens sponsorisés comme un signal positif.
L’idée ici, semble-t-il, est qu’en distinguant différents types de liens, Google essaierait de déterminer lesquels des liens nofollow doivent être suivis à des fins de création d’entité:
Google n'a aucun problème avec le contenu généré par les utilisateurs ou le contenu sponsorisé sur un site Web, mais les deux ont été historiquement utilisés comme méthodes de manipulation du pagerank. En tant que tels, les webmasters sont encouragés à placer un attribut nofollow sur ces liens (entre autres raisons d'utiliser nofollow). Cependant, les liens nofollow peuvent toujours être utiles à Google pour certaines choses (comme la reconnaissance d'entités par exemple), ils ont donc noté précédemment qu'ils peut traiter cela plutôt comme une suggestion, et non comme une directive comme une règle d'interdiction de robots.txt le serait sur votre propre site. La déclaration de John Mueller était "Je pourrais imaginer dans nos systèmes que nous pourrions apprendre au fil du temps à les traiter légèrement différemment"..» Cela pourrait faire référence aux cas où Google traite un nofollow comme une suggestion. Hypothétiquement, il est possible que les systèmes de Google apprennent quels liens non suivis suivre en fonction des informations recueillies à partir des types de liens marqués comme UGC et sponsorisés. Encore une fois, cela ne devrait pas avoir beaucoup d’impact sur le classement d’un site – mais cela pourrait théoriquement également avoir un impact sur le site lié.
J'espère avoir réussi à clarifier le rôle des backlinks dans les algorithmes de recherche actuels de Google. Certaines des données que j'ai rencontrées lors de mes recherches sur l'article ont été une surprise, même pour moi. J'ai donc hâte de rejoindre votre discussion dans les commentaires.
Des questions que vous avez encore sans réponse? Avez-vous des idées sur l’avenir du PageRank?