pagerank-google

Sommaire

Pagerank de Google : Guide du classement des pages Web

L’algorithme PageRank (ou PR en abrégé) est un système de classement des pages Web développé par Larry Page et Sergey Brin à l’université de Stanford à la fin des années 90. PageRank était en fait la base sur laquelle Page et Brin ont créé le moteur de recherche Google.

De nombreuses années ont passé depuis lors et, bien entendu, les algorithmes de classement de Google sont devenus beaucoup plus complexes. Sont-ils toujours basés sur le PageRank ? Comment exactement le PageRank influence-t-il le classement, et à quoi les référenceurs doivent-ils se préparer à l’avenir ? Nous allons maintenant trouver et résumer tous les faits et mystères autour du PageRank pour rendre l’image claire. Enfin, autant que nous le pouvons.

formation-seo-programme-seoarmy
Vous voulez inonder votre site de visiteurs gratuitement et automatiquement ? Pas de problème ! Rejoignez notre programme SEOARMY +400 Membres (voir toutes nos formations)

L’histoire du PageRank

Comme mentionné ci-dessus, dans leur projet de recherche universitaire, Brin et Page ont essayé d’inventer un système permettant d’estimer l’autorité des pages Web. Ils ont décidé de construire ce système sur les liens, qui servent de votes de confiance accordés à une page. Selon la logique de ce mécanisme, plus il y a de ressources externes liées à une page, plus elle contient d’informations précieuses pour les utilisateurs. Et le PageRank (un score de 0 à 10 calculé sur la base de la quantité et de la qualité des liens entrants) indiquait l’autorité relative d’une page sur l’internet.

Formule originale du PageRank

Voyons comment fonctionne le PageRank. Chaque lien d’une page (A) vers une autre (B) donne un vote, dont le poids dépend du poids collectif de toutes les pages qui ont un lien vers la page A. Et nous ne pouvons pas connaître leur poids avant de le calculer, donc le processus se déroule par cycles.

La formule mathématique du PageRank original est la suivante :

Où A, B, C et D sont des pages, L est le nombre de liens sortant de chacune d’elles, et N est le nombre total de pages de la collection (c’est-à-dire sur Internet).

Quant à d, il s’agit du facteur d’amortissement. Étant donné que le PageRank est calculé en simulant le comportement d’un utilisateur qui arrive par hasard sur une page et clique sur des liens, nous appliquons ce facteur d’amortissement d comme la probabilité que l’utilisateur se lasse et quitte une page.

Comme vous pouvez le voir dans la formule, s’il n’y a pas de pages qui pointent vers la page, son PR ne sera pas zéro mais

En effet, il est probable que l’utilisateur puisse arriver sur cette page non pas à partir d’autres pages mais, par exemple, à partir de ses signets.


La vulnérabilité de la manipulation du PageRank et la guerre de Google contre le spam de liens

Au début, le score PageRank était visible publiquement dans la barre d’outils Google, et chaque page avait son score de 0 à 10, très probablement sur une échelle logarithmique.

À l’époque, les algorithmes de classement de Google étaient très simples : un RP élevé et la densité des mots clés étaient les deux seules choses dont une page avait besoin pour être bien classée dans une SERP. Par conséquent, les pages Web étaient remplies de mots clés et les propriétaires de sites Web ont commencé à manipuler le PageRank en développant artificiellement des liens retour frauduleux. C’était facile à faire – les fermes de liens et la vente de liens étaient là pour donner un « coup de pouce » aux propriétaires de sites Web.

Google a décidé de lutter contre le spam de liens en retour. En 2003, Google a pénalisé le site Web de la société de réseau d’annonces SearchKing pour manipulation de liens. SearchKing a poursuivi Google en justice, mais ce dernier a gagné. C’était une façon pour Google d’essayer de limiter les manipulations de liens, mais cela n’a rien donné. Les fermes de liens sont simplement devenues clandestines, et leur nombre s’est considérablement accru.

Par ailleurs, les commentaires spammy sur les blogs se sont également multipliés. Des robots ont attaqué les commentaires de n’importe quel blog WordPress, par exemple, et ont laissé un nombre énorme de commentaires du type « cliquez ici pour acheter des pilules magiques ». Pour empêcher le spam et la manipulation des RP dans les commentaires, Google a introduit la balise nofollow en 2005. Et une fois de plus, ce que Google voulait être une étape réussie dans la guerre de la manipulation des liens a été mis en œuvre de manière tordue. Les gens ont commencé à utiliser les balises nofollow pour diriger artificiellement le PageRank vers les pages dont ils avaient besoin. Cette tactique est devenue connue sous le nom de PageRank sculpting.

Pour empêcher la sculpture du PR, Google a modifié la manière dont le PageRank circule. Auparavant, si une page comportait à la fois des liens nofollow et dofollow, tout le volume de PR de la page était transmis aux autres pages liées par les liens dofollow. En 2009, Google a commencé à diviser le PR d’une page de manière égale entre tous les liens de la page, en ne transmettant que les parts attribuées aux liens dofollow.

Après avoir sculpté le PageRank, Google n’a pas arrêté la guerre du spam de liens et a commencé à soustraire le score PageRank aux yeux du public. Tout d’abord, Google a lancé le nouveau navigateur Chrome sans la barre d’outils Google où le score PR était affiché. Ensuite, ils ont cessé de rapporter le score PR dans Google Search Console. Puis le navigateur Firefox a cessé de prendre en charge la barre d’outils Google. En 2013, le PageRank a été mis à jour pour Internet Explorer pour la dernière fois, et en 2016, Google a officiellement fermé la barre d’outils pour le public.

Un autre moyen utilisé par Google pour lutter contre les systèmes de liens est la mise à jour Penguin, qui déclasse les sites Web présentant des profils de liens retour douteux. Déployée en 2012, la mise à jour Penguin ne fait pas partie de l’algorithme en temps réel de Google, mais constitue plutôt un « filtre » mis à jour et réappliqué aux résultats de recherche de temps à autre. Si un site Web était pénalisé par Penguin, les référenceurs devaient examiner attentivement leurs profils de liens et supprimer les liens toxiques, ou les ajouter à une liste de désaveu (une fonction introduite à l’époque pour indiquer à Google les liens entrants à ignorer lors du calcul du PageRank). Après avoir audité les profils de liens de cette manière, les SEO devaient attendre une demi-année environ, le temps que l’algorithme Penguin recalcule les données.

En 2016, Google a fait de Pingouin une partie de son algorithme de classement principal. Depuis lors, il travaille en temps réel, traitant algorithmiquement le spam avec beaucoup plus de succès.

Dans le même temps, Google s’est efforcé de favoriser la qualité plutôt que la quantité des liens, en l’inscrivant dans ses directives de qualité contre les systèmes de liens.


Le Pagerank de Google en 2022

Bien, nous en avons fini avec le passé du PageRank. Que se passe-t-il maintenant ?

En 2019, un ancien employé de Google a déclaré que l’algorithme PageRank original n’était plus utilisé depuis 2006 et qu’il avait été remplacé par un autre algorithme moins gourmand en ressources au fur et à mesure que l’Internet prenait de l’ampleur. Ce qui pourrait bien être vrai, car en 2006, Google a déposé le nouveau brevet Producing a ranking for pages using distances in a web-link graph.


L’algorithme PageRank est-il appliqué aujourd’hui ?

Oui, c’est le cas. Ce n’est pas le même PageRank qu’au début des années 2000, mais Google continue de s’appuyer fortement sur l’autorité des liens. Par exemple, un ancien employé de Google, Andrey Lipattsev, l’a mentionné en 2016. Lors d’un hangout de Google Q&A, un utilisateur lui a demandé quels étaient les principaux signaux de classement utilisés par Google. La réponse d’Andrey a été assez directe.

Je peux vous dire ce qu’ils sont. Il s’agit de contenu et de liens pointant vers votre site.

Andrey Lipattsev

En 2020, John Mueller l’a confirmé une fois de plus :

Oui, nous utilisons PageRank en interne, parmi de très nombreux autres signaux. Ce n’est pas tout à fait la même chose que l’article original, il y a beaucoup de bizarreries (par exemple, les liens désavoués, les liens ignorés, etc.), et, encore une fois, nous utilisons beaucoup d’autres signaux qui peuvent être beaucoup plus forts.

John Mueller

Comme vous pouvez le constater, le PageRank est toujours vivant et activement utilisé par Google pour classer les pages sur le Web.

Ce qui est intéressant, c’est que les employés de Google ne cessent de nous rappeler qu’il existe beaucoup, beaucoup, BEAUCOUP d’autres signaux de classement. Mais nous prenons cela avec un grain de sel. Compte tenu des efforts déployés par Google pour lutter contre le spam de liens, il pourrait être dans l’intérêt de Google de détourner l’attention des référenceurs des facteurs vulnérables à la manipulation (comme le sont les liens retour) et de diriger cette attention vers quelque chose d’innocent et d’agréable. Mais comme les SEO savent lire entre les lignes, ils continuent à considérer le PageRank comme un signal de classement fort et à développer les backlinks de toutes les manières possibles. Ils utilisent toujours les PBN, pratiquent un peu de link building à plusieurs niveaux, achètent des liens, et ainsi de suite, comme c’était le cas il y a longtemps. Comme le PageRank vit, le spam de liens vivra aussi. Nous ne recommandons rien de tout cela, mais c’est la réalité du référencement, et nous devons le comprendre.


Modèles de PageRank « Random Surfer » et « Surfer raisonnable ».

Vous avez compris que le PageRank actuel n’est plus le PageRank d’il y a 20 ans.

L’une des principales modernisations des RP a consisté à passer du modèle Random Surfer, brièvement mentionné ci-dessus, au modèle Reasonable Surfer en 2012. Le modèle Reasonable Surfer part du principe que les utilisateurs ne se comportent pas de manière chaotique sur une page et qu’ils ne cliquent que sur les liens qui les intéressent sur le moment. Disons que, en lisant un article de blog, vous êtes plus susceptible de cliquer sur un lien dans le contenu de l’article plutôt que sur un lien de conditions d’utilisation dans le pied de page.

En outre, Reasonable Surfer peut potentiellement utiliser une grande variété d’autres facteurs pour évaluer l’attrait d’un lien. Tous ces facteurs ont été soigneusement examinés par Bill Slawski dans son article, mais j’aimerais me concentrer sur les deux facteurs dont les SEOs discutent le plus souvent. Il s’agit de la position du lien et du trafic de la page. Que pouvons-nous dire de ces facteurs ?

Corrélation entre la position des liens et l’autorité des liens

Un lien peut être situé n’importe où sur la page – dans son contenu, dans le menu de navigation, dans la biographie de l’auteur, dans le pied de page, et en fait dans tout élément structurel de la page. Et les différents emplacements des liens influent sur leur valeur. John Mueller l’a confirmé, en affirmant que les liens placés dans le contenu principal ont plus de poids que tous les autres :

Il s’agit de la zone de la page où se trouve le contenu principal, le contenu sur lequel porte la page, et non le menu, la barre latérale, le pied de page, l’en-tête… Nous en tenons donc compte et nous essayons d’utiliser ces liens.

John Mueller

On dit donc que les liens de pied de page et les liens de navigation ont moins de poids. Et ce fait est confirmé de temps en temps non seulement par les porte-parole de Google mais aussi par des cas concrets.

Dans un cas récent présenté par Martin Hayman à BrightonSEO, Martin a ajouté le lien qu’il avait déjà dans son menu de navigation au contenu principal des pages. En conséquence, ces pages de catégorie et les pages auxquelles elles sont liées ont connu une augmentation de trafic de 25%.

Cette expérience prouve que les liens de contenu ont plus de poids que les autres.

Quant aux liens dans la bio de l’auteur, les référenceurs supposent que les liens bio pèsent quelque chose, mais ont moins de valeur que, disons, les liens de contenu. Bien que nous n’ayons pas beaucoup de preuves ici, si ce n’est ce qu’a dit Matt Cutts lorsque Google luttait activement contre l’excès de guest blogging pour les backlinks.


Corrélation entre le trafic, le comportement des utilisateurs et l’autorité des liens

John Mueller a clarifié la façon dont Google traite le trafic et le comportement des utilisateurs en termes de transmission de jus de lien dans l’un des hangouts de Search Console Central. Un utilisateur a demandé à Mueller si Google prenait en compte la probabilité de clic et le nombre de clics sur le lien lorsqu’il évaluait la qualité d’un lien. Voici les principaux éléments de la réponse de M. Mueller :

  • Google ne tient pas compte des clics sur le lien et de la probabilité de clics lorsqu’il évalue la qualité du lien.
  • Google comprend que les liens sont souvent ajoutés au contenu comme des références, et que les utilisateurs ne sont pas censés cliquer sur tous les liens qu’ils rencontrent.

Pourtant, comme toujours, les référenceurs doutent de l’utilité de croire aveuglément tout ce que dit Google et continuent d’expérimenter. Ainsi, les gars d’Ahrefs ont mené une étude pour vérifier si la position d’une page sur une SERP est liée au nombre de backlinks qu’elle possède depuis des pages à fort trafic. L’étude a révélé qu’il n’y a pratiquement aucune corrélation. De plus, il s’est avéré que certaines pages les mieux classées n’avaient aucun backlink provenant de pages à fort trafic.

Cette étude va dans le même sens que les propos de John Mueller : il n’est pas nécessaire de créer des liens retour générateurs de trafic vers votre page pour obtenir des positions élevées sur une SERP. D’autre part, le trafic supplémentaire n’a jamais fait de mal à aucun site web. Le seul message ici est que les backlinks riches en trafic ne semblent pas influencer les classements de Google.


Balises Nofollow, sponsorisées et UGC

Comme vous vous en souvenez, Google a introduit la balise nofollow en 2005 afin de lutter contre le spam de liens. Est-ce que quelque chose a changé aujourd’hui ? En fait, oui.

Tout d’abord, Google a récemment introduit deux types supplémentaires de l’attribut nofollow. Auparavant, Google suggérait de marquer comme nofollow tous les liens retour que vous ne souhaitiez pas voir participer au calcul du PageRank, qu’il s’agisse de commentaires de blog ou d’annonces payantes. Aujourd’hui, Google recommande d’utiliser rel= »sponsored » pour les liens payants et affiliés et rel= »ugc » pour le contenu généré par l’utilisateur.

Il est intéressant de noter que ces nouvelles balises ne sont pas obligatoires (du moins pas encore), et Google précise qu’il n’est pas nécessaire de changer manuellement tous les rel= »nofollow » en rel= »sponsorisé » et rel= »ugc ». Ces deux nouveaux attributs fonctionnent désormais de la même manière qu’une balise nofollow ordinaire.

Deuxièmement, Google indique désormais que les balises nofollow, ainsi que les nouvelles, sponsorisées et ugc, sont traitées comme des indications, plutôt que comme des directives, lors de l’indexation des pages.


Les liens sortants et leur influence sur les classements

Outre les liens entrants, il existe également des liens sortants, c’est-à-dire des liens qui pointent vers d’autres pages à partir de la vôtre.

De nombreux référenceurs pensent que les liens sortants peuvent avoir un impact sur les classements, mais cette hypothèse a été traitée comme un mythe du référencement. Mais il y a une étude intéressante à examiner à cet égard.

Reboot Online a mené une expérience en 2015 et l’a réitérée en 2020. Ils voulaient savoir si la présence de liens sortants vers des pages de haute autorité influençait la position de la page sur une SERP. Ils ont créé 10 sites web avec des articles de 300 mots, tous optimisés pour un mot-clé non existant – Phylandocic. Cinq sites n’avaient aucun lien sortant et cinq sites contenaient des liens sortants vers des ressources de haute qualité. En conséquence, les sites Web avec des liens sortants faisant autorité ont commencé à être les mieux classés, et ceux qui n’avaient pas de liens du tout ont pris les positions les plus basses.

D’une part, les résultats de cette recherche peuvent nous indiquer que les liens sortants influencent effectivement la position des pages. D’autre part, le terme recherché dans cette étude est tout nouveau et le contenu des sites Web est axé sur la médecine et les médicaments. Il y a donc de fortes chances que la requête ait été classée comme YMYL. Et Google a maintes fois souligné l’importance de l’E-A-T pour les sites YMYL. Les liens sortants ont donc pu être traités comme un signal E-A-T, prouvant que les pages ont un contenu factuellement exact.

En ce qui concerne les requêtes ordinaires (non YMYL), John Mueller a déclaré à plusieurs reprises qu’il ne faut pas avoir peur de créer des liens vers des sources extérieures à partir de votre contenu, car les liens sortants sont bénéfiques pour vos utilisateurs.

En outre, les liens sortants peuvent également être bénéfiques pour le référencement, car ils peuvent être pris en compte par l’IA de Google lors du filtrage du spam sur le Web. En effet, les pages spammy ont tendance à avoir peu de liens sortants, voire aucun. Elles sont soit liées aux pages du même domaine (si jamais elles pensent au référencement), soit ne contiennent que des liens payants. Ainsi, si vous créez des liens vers des ressources crédibles, vous montrez en quelque sorte à Google que votre page n’est pas un site de spam.

Il y a eu une opinion selon laquelle Google pourrait vous donner une pénalité manuelle pour avoir trop de liens sortants, mais John Mueller a déclaré que cela n’est possible que lorsque les liens sortants font manifestement partie d’un système d’échange de liens et que le site Web est en général de mauvaise qualité. Ce que Google entend par « évident » est en fait un mystère. Gardez donc à l’esprit le bon sens, un contenu de qualité et les principes de base du référencement.


La lutte de Google contre le spam de liens/backlins

Tant que le PageRank existera, les référenceurs chercheront de nouvelles façons de le manipuler.

En 2012, Google était plus susceptible de publier des actions manuelles pour la manipulation de liens et le spam. Mais aujourd’hui, grâce à ses algorithmes anti-spam bien rodés, Google est en mesure d’ignorer certains liens spammy lors du calcul du PageRank plutôt que de déclasser l’ensemble du site Web en général. Comme l’a dit John Mueller,

Les liens aléatoires collectés au fil des ans ne sont pas nécessairement nuisibles, nous les voyons depuis longtemps aussi, et pouvons ignorer tous ces morceaux bizarres de graffiti web d’il y a longtemps.

John Mueller

Il en va de même pour le référencement négatif lorsque votre profil de liens retour est compromis par vos concurrents :

En général, nous les prenons automatiquement en compte et nous essayons de… les ignorer automatiquement lorsque nous les voyons se produire. Dans la plupart des cas, je pense que cela fonctionne assez bien. Je vois très peu de gens qui ont des problèmes à ce sujet. Je pense donc que cela fonctionne plutôt bien. En ce qui concerne le désaveu de ces liens, je pense que s’il s’agit simplement de liens spammy normaux qui apparaissent sur votre site, je ne m’en préoccuperais pas trop. C’est probablement ce que nous avons découvert par nous-mêmes.

John Mueller

Toutefois, cela ne signifie pas que vous n’avez rien à craindre. Si les backlinks de votre site web sont ignorés trop souvent, vous avez toujours de fortes chances d’obtenir une action manuelle. Comme le dit Marie Haynes dans ses conseils sur la gestion des liens en 2021 :

Les actions manuelles sont réservées aux cas où un site décent a des liens non naturels pointant vers lui à une échelle telle que les algorithmes de Google ne peuvent pas les ignorer.

Marie Haynes

Pour essayer de déterminer quels liens déclenchent le problème, vous pouvez utiliser un outil de vérification des liens retour comme SEO SpyGlass. Dans l’outil, allez à Backlink Profile > Penalty Risk section. Faites attention aux backlinks à haut et moyen risque.

Pour approfondir les raisons pour lesquelles tel ou tel lien est signalé comme nuisible, cliquez sur le signe i dans la colonne Risque de pénalité. Vous verrez alors pourquoi l’outil a considéré le lien comme mauvais et vous pourrez décider de le désavouer ou non.

Si vous décidez de désavouer un lien ou un groupe de liens, faites un clic droit dessus et choisissez l’option Désavouer le(s) lien(s) retour :

Une fois que vous avez établi une liste de liens à exclure, vous pouvez exporter le fichier de désaveu depuis SEO SpyGlass et le soumettre à Google via GSC.


Maillage interne

En parlant de PageRank, nous ne pouvons pas ne pas mentionner les liens internes. Le PageRank entrant est une chose que nous ne pouvons pas contrôler, mais nous pouvons totalement contrôler la façon dont le PR est réparti sur les pages de notre site Web.

Google a également souligné l’importance des liens internes à de nombreuses reprises. John Mueller l’a souligné une fois de plus dans l’un des derniers hangouts de Search Console Central. Un utilisateur a demandé comment rendre certaines pages Web plus performantes. Et John Mueller a répondu ce qui suit :

…Vous pouvez aider avec les liens internes. Ainsi, au sein de votre site Web, vous pouvez vraiment mettre en évidence les pages que vous souhaitez voir davantage mises en évidence et vous assurer qu’elles sont vraiment bien reliées en interne. Et peut-être que les pages que vous ne trouvez pas si importantes, faites en sorte qu’elles soient un peu moins liées en interne.

John Mueller

Les liens internes sont très importants. Ils vous aident à partager le PageRank entrant entre les différentes pages de votre site Web, renforçant ainsi vos pages peu performantes et rendant votre site Web plus solide dans son ensemble.

En ce qui concerne les approches des liens internes, les SEO ont de nombreuses théories différentes. Une approche populaire est liée à la profondeur de clic du site Web. Selon cette idée, toutes les pages de votre site Web doivent se trouver à une distance maximale de 3 clics de la page d’accueil. Bien que Google ait souligné à de nombreuses reprises l’importance d’une structure de site Web peu profonde, dans la réalité, cet objectif semble inaccessible pour tous les sites Web plus grands que petits.

Une autre approche est basée sur le concept de liens internes centralisés et décentralisés. Comme le décrit Kevin Indig :

Les sites centralisés ont un flux d’utilisateurs et un entonnoir uniques qui pointent vers une page clé. Les sites avec des liens internes décentralisés ont de multiples points de contact pour la conversion ou différents formats pour l’inscription.

Kevin Indig

Dans le cas d’un lien interne centralisé, nous avons un petit groupe de pages de conversion ou une seule page, que nous voulons puissante. Si nous appliquons des liens internes décentralisés, nous voulons que toutes les pages du site Web soient aussi puissantes et aient le même PageRank afin qu’elles soient toutes classées pour vos requêtes.

Quelle option est la meilleure ? Tout dépend des particularités de votre site Web et de votre niche commerciale, ainsi que des mots clés que vous allez cibler. Par exemple, les liens internes centralisés conviennent mieux aux mots clés ayant des volumes de recherche élevés ou moyens, car ils permettent d’obtenir un ensemble restreint de pages super puissantes.

Les mots-clés de longue traîne et à faible volume de recherche, au contraire, conviennent mieux aux liens internes décentralisés, car ils répartissent le RP de manière égale entre de nombreuses pages du site.

Un autre aspect du succès des liens internes est l’équilibre entre les liens entrants et sortants sur la page. À cet égard, de nombreux référenceurs utilisent le CheiRank (CR), qui est en fait un PageRank inverse. Mais alors que le PageRank est le pouvoir reçu, le CheiRank est le pouvoir des liens donnés. Une fois que vous avez calculé le PR et le CR de vos pages, vous pouvez voir quelles pages présentent des anomalies de liens, c’est-à-dire les cas où une page reçoit beaucoup de PageRank mais en transmet peu, et vice versa.

Une expérience intéressante ici est l’aplatissement des anomalies de liens de Kevin Indig. En s’assurant simplement que le PageRank entrant et sortant est équilibré sur chaque page du site, il a obtenu des résultats très impressionnants. La flèche rouge indique ici le moment où les anomalies ont été corrigées :

Les anomalies de liens ne sont pas la seule chose qui peut nuire au flux de PageRank. Veillez à ne pas être confronté à des problèmes techniques qui pourraient détruire votre PR durement acquis :

  • Pages orphelines. Les pages orphelines ne sont liées à aucune autre page de votre site Web. Elles restent donc inactives et ne reçoivent pas de jus de lien. Google ne peut pas les voir et ne sait pas qu’elles existent réellement.
  • Chaînes de redirection. Bien que Google affirme que les redirections passent désormais à 100% du PR, il est toujours recommandé d’éviter les longues chaînes de redirection. Premièrement, elles grugent de toute façon votre budget de crawl. Deuxièmement, nous savons que nous ne pouvons pas croire aveuglément tout ce que dit Google.
  • Les liens en JavaScript indéchiffrable. Comme Google ne peut pas les lire, ils ne transmettront pas de PageRank.
  • Liens 404. Les liens 404 ne mènent nulle part, donc le PageRank ne va nulle part non plus.
  • Liens vers des pages sans importance. Bien sûr, vous ne pouvez laisser aucune de vos pages sans aucun lien, mais les pages ne sont pas toutes égales. Si une page est moins importante, il n’est pas rationnel de faire trop d’efforts pour optimiser le profil de liens de cette page.
  • Des pages trop éloignées. Si une page est située trop profondément dans votre site Web, il est probable qu’elle ne recevra que peu de RP, voire pas du tout. En effet, il est possible que Google ne parvienne pas à la trouver et à l’indexer.

Pour vous assurer que votre site Web est exempt de ces aléas de PageRank, vous pouvez l’auditer avec WebSite Auditor. Cet outil dispose d’un ensemble complet de modules dans la section Structure du site > Audit du site, qui vous permettent de vérifier l’optimisation globale de votre site Web et, bien sûr, de trouver et de corriger tous les problèmes liés aux liens, tels que les longues redirections :

et les liens brisés :

Pour vérifier que votre site ne contient pas de pages orphelines ou trop éloignées, passez à Structure du site > Visualisation :


L’avenir du PageRank

Cette année, le PageRank a eu 23 ans. Et je suppose qu’il est plus vieux que certains de nos lecteurs aujourd’hui 🙂 Mais qu’est-ce qui attend le PageRank à l’avenir ? Va-t-il disparaître complètement un jour ?


1. Moteurs de recherche sans backlinks

Lorsque j’essaie de penser à un moteur de recherche populaire n’utilisant pas les backlinks dans son algorithme, la seule idée qui me vient est l’expérience de Yandex en 2014. Le moteur de recherche a annoncé que l’abandon des backlinks dans son algorithme pourrait enfin mettre fin aux manipulations des spammeurs de liens et les aider à orienter leurs efforts vers la création de sites Web de qualité.

Il pourrait s’agir d’un véritable effort pour évoluer vers des facteurs de classement alternatifs, ou simplement d’une tentative de persuader les masses de laisser tomber le spam de liens. Quoi qu’il en soit, un an seulement après l’annonce, Yandex a confirmé que les facteurs de liens retour étaient de retour dans son système.

Mais pourquoi les backlinks sont-ils si indispensables aux moteurs de recherche ?

Bien qu’ils disposent d’innombrables autres points de données pour réorganiser les résultats de recherche après avoir commencé à les afficher (comme le comportement des utilisateurs et les ajustements BERT), les liens retour restent l’un des critères d’autorité les plus fiables nécessaires pour former la SERP initiale. Leur seul concurrent ici est, probablement, les entités.

Comme le dit Bill Slawski lorsqu’on l’interroge sur l’avenir du PageRank :

Google explore l’apprentissage automatique, l’extraction de faits et la compréhension des paires de valeurs clés pour les entités commerciales, ce qui signifie un mouvement vers la recherche sémantique et une meilleure utilisation des données structurées et de la qualité des données.

Bill Slawski, SEO by the Sea

Pourtant, Google n’est pas du genre à se débarrasser de quelque chose dans lequel il a investi des dizaines d’années de développement.

Google est très doué pour l’analyse des liens, qui est désormais une technologie web très mature. Pour cette raison, il est tout à fait possible que le PageRank continue à être utilisé pour le classement des SERPs organiques.

Bill Slawski, SEO by the Sea

2. Actualités et autres résultats sensibles au facteur temps

Une autre tendance soulignée par Bill Slawski concerne les actualités et d’autres types de résultats de recherche de courte durée :

Google nous a dit qu’il se fiait moins au PageRank pour les pages où l’actualité est plus importante, comme les résultats en temps réel (comme ceux de Twitter), ou les résultats d’actualités, où l’actualité est très importante.

Bill Slawski, SEO by the Sea

En effet, un article d’actualité ne vit pas assez longtemps dans les résultats de recherche pour accumuler suffisamment de backlinks. C’est pourquoi Google s’est efforcé et pourrait continuer à s’efforcer de remplacer les backlinks par d’autres facteurs de classement lorsqu’il s’agit d’actualités.

Cependant, pour l’instant, le classement des actualités est fortement déterminé par l’autorité de la niche de l’éditeur, et nous considérons toujours l’autorité comme des liens retour :

« Les signaux d’authenticité permettent de donner la priorité aux informations de haute qualité provenant des sources les plus fiables disponibles. Pour ce faire, nos systèmes sont conçus pour identifier les signaux qui peuvent aider à déterminer quelles pages font preuve d’expertise, d’autorité et de fiabilité sur un sujet donné, sur la base des commentaires des évaluateurs de recherche. Ces signaux peuvent inclure le fait que d’autres personnes apprécient la source pour des requêtes similaires ou que d’autres sites Web importants sur le sujet renvoient à l’article. »


3. Nouveaux attributs rel= »sponsorisé » et rel= »UGC ».

Enfin, j’ai été assez surpris par l’effort que Google a fait pour pouvoir identifier les backlinks sponsorisés et générés par les utilisateurs et les distinguer des autres liens non suivis.

Si tous ces backlinks doivent être ignorés, pourquoi se soucier de les distinguer les uns des autres ? D’autant plus que John Muller suggère que, plus tard, Google pourrait essayer de traiter ces types de liens différemment.

Ma supposition la plus folle ici était que peut-être Google est en train de valider si la publicité et les liens générés par les utilisateurs pourraient devenir un signal de classement positif.

Après tout, la publicité sur des plates-formes populaires nécessite des budgets énormes, et les budgets énormes sont un attribut d’une marque importante et populaire.

Le contenu généré par les utilisateurs, lorsqu’il est considéré en dehors du paradigme du spam de commentaires, concerne des clients réels qui donnent leur aval dans la vie réelle.

Cependant, les experts que j’ai contactés ne croyaient pas que c’était possible :

Je doute que Google considère un jour les liens sponsorisés comme un signal positif.

Barry Schwartz, Search Engine Roundtable (en anglais)

L’idée ici, semble-t-il, est qu’en distinguant différents types de liens, Google essaierait de déterminer lesquels des liens nofollow doivent être suivis à des fins de création d’entités :

Google n’a aucun problème avec le contenu généré par les utilisateurs ou le contenu sponsorisé sur un site Web, mais ces deux éléments ont été historiquement utilisés comme méthodes de manipulation du pagerank. En tant que tels, les webmasters sont encouragés à placer un attribut nofollow sur ces liens (parmi d’autres raisons d’utiliser nofollow).Cependant, les liens nofollow peuvent toujours être utiles à Google pour certaines choses (comme la reconnaissance des entités par exemple), de sorte qu’ils ont noté précédemment qu’ils peuvent traiter cela comme une suggestion, et non une directive comme une règle disallow robots.txt serait sur votre propre site.La déclaration de John Mueller était « Je pourrais imaginer dans nos systèmes que nous pourrions apprendre au fil du temps à les traiter légèrement différemment. » Cela pourrait faire référence aux cas où Google traite un nofollow comme une suggestion. Hypothétiquement, il est possible que les systèmes de Google apprennent quels liens nofollow suivre en se basant sur les informations recueillies à partir des types de liens marqués comme ugc et sponsorisés. Là encore, cela ne devrait pas avoir d’impact sur le classement d’un site, mais cela pourrait théoriquement avoir un impact sur le site auquel le lien renvoie.

Callum Scott, Marie Haynes Consulting

Conclusion sur le Pagerank de Google

J’espère avoir réussi à clarifier le rôle des backlinks dans les algorithmes de recherche actuels de Google. Certaines des données que j’ai rencontrées lors de mes recherches ont été surprenantes, même pour moi. J’ai donc hâte de participer à votre discussion dans les commentaires.

Avez-vous des questions auxquelles vous n’avez toujours pas trouvé de réponse ? Avez-vous des idées sur l’avenir du PageRank ?

Partager avec vos proches

Facebook
Twitter
LinkedIn
Pinterest
Telegram
Skype

Laisser un commentaire

Peii Henry

peii-henry

Un ancien militaire de la marine nationale, désormais libre financièrement. Investisseur immobiliers et marchés boursiers , Peii Henry exerce en tant que coach & formateur SEO, Blogging & Business en Ligne tout en travaillant sur ses sites e-commerce.

Découvre gratuitement la Stratégie qui me permet de générer plus de 30’000€ par mois avec le SEO. Pas de blabla inutile.