mise à jour de Google Panda

Sommaire

Un guide complet pour la mise à jour de Google Panda

Panda est le nom officiel d’une mise à jour de l’algorithme de Google développée pour réduire la prévalence des contenus de faible qualité et de faible épaisseur dans les résultats de recherche, et pour récompenser les contenus uniques et convaincants.

Au moment du lancement de Panda, les plaintes des utilisateurs concernant l’influence croissante des « fermes de contenu » se multipliaient.

formation-seo-programme-seoarmy
Vous voulez inonder votre site de visiteurs gratuitement et automatiquement ? Pas de problème ! Rejoignez notre programme SEOARMY +400 Membres (voir toutes nos formations)

L’algorithme Panda de Google attribue aux pages un classement de qualité, utilisé en interne et modelé sur les classements de qualité humaine, qui est incorporé comme facteur de classement.

Les sites web qui se remettent de l’impact de Panda le font en réorganisant les pages dont le contenu est de faible qualité, en ajoutant de nouveaux contenus de haute qualité, en éliminant les mots de remplissage et au-dessus des annonces de pliage et, en général, en améliorant l’expérience de l’utilisateur en ce qui concerne le contenu.

Pourquoi Google a créé Panda

En 2010, la baisse de la qualité des résultats de recherche de Google et la montée du modèle économique de la « ferme de contenu » sont devenues un sujet qui revient sans cesse sur le tapis.

Comme Amit Singhal de Google l’a déclaré plus tard à Wired at TED, la mise à jour de « Caffeine » de fin 2009, qui a considérablement accéléré la capacité de Google à indexer rapidement les contenus, a également introduit des contenus « pas si bons » dans leur index. Matt Cutts, de Google, a déclaré à Wired que ce nouveau problème de contenu n’était pas vraiment un problème de spam, mais plutôt un problème de « Quel est le strict minimum que je puisse faire pour que ce ne soit pas du spam ?

a souligné ReadWriteWeb :

« À la fin de 2009, deux de ces fermes de contenu – Demand Media [of eHow infamy] et Answers.com – étaient fermement établies dans le top 20 des propriétés web aux États-Unis, selon les mesures de comScore. Demand Media est l’incarnation même d’une ferme de contenu et de loin le plus grand exemple d’une telle ferme, avec 7 000 contenus par jour… La société fonctionne selon une formule simple : créer une tonne de contenus de niche, pour la plupart peu inspirés, destinés aux moteurs de recherche, puis les rendre viraux par le biais de logiciels sociaux et gagner beaucoup d’argent grâce aux publicités ».

En janvier 2011, Business Insider a publié un titre qui dit tout : « L’algorithme de recherche de Google a été ruiné, il est temps de revenir à la conservation ».

Dans un autre article, ils ont souligné :

« La demande [les médias] est en train de faire le tour le plus intelligent en effectuant un arbitrage géant de l’écosystème Google. La demande passe des contrats avec des milliers de freelances pour produire des centaines de milliers de contenus de faible qualité, dont les sujets sont choisis en fonction de leur valeur de recherche, la plupart étant pilotés par Google. Parce que l’algorithme de Google pondère le contenu prolifique et constant par rapport au contenu de qualité, l’algorithme de Google place le contenu de la demande en haut des pages de résultats de leurs moteurs de recherche ».

Il ne fait aucun doute que de tels titres ont eu une influence majeure sur Google, qui a réagi en développant l’algorithme Panda.

Lancement de Google Panda Update

Panda a été introduit pour la première fois le 23 février 2011.

Le 24 février, Google a publié un article sur son blog à propos de cette mise à jour, et a indiqué qu’ils « ont lancé une amélioration algorithmique assez importante de notre classement, un changement qui a un impact notable sur 11,8 % de nos requêtes ». L’objectif explicite de la mise à jour était le suivant :

« Cette mise à jour vise à réduire le classement des sites de mauvaise qualité, c’est-à-dire des sites à faible valeur ajoutée pour les utilisateurs, qui copient le contenu d’autres sites web ou des sites qui ne sont tout simplement pas très utiles. Dans le même temps, elle permettra d’améliorer le classement des sites de haute qualité qui présentent un contenu original et des informations telles que des recherches, des rapports approfondis, des analyses réfléchies, etc.

The founder of Search Engine Land, Danny Sullivan, first called the update « Farmer », although Google later revealed that internally it was called « Panda », the name of the engineer who made the major breakthrough of the algorithm.

SearchMetrics and SISTRIX (among others) analyses of « winners and losers » revealed that the most affected sites were quite familiar to everyone in the SEO industry at the time. These sites included wisegeek.com, ezinearticles.com, suite101.com, hubpages.com, buzzle.com, articlebase.com, etc.

Notably, the eHow and wikiHow « content farms » did better after the update. Subsequent updates would also have hurt these more « acceptable » forms of content, with Demand Media losing $6.4 million in the fourth quarter of 2012.

The most obvious change in the SEO industry has been the impact of « article marketing », in which SEO practitioners were publishing poor quality articles on sites such as ezinearticles.com to create links.

It also became clear that the most visited sites had a less attractive design, more intrusive advertising, exaggerated word count, low editorial standards, repetitive wording, poor search, and in general did not appear to be useful or trustworthy.

Ce que nous savons sur l’algorithme Panda

Lorsque Google a discuté du développement de l’algorithme avec Wired, Singhal a déclaré qu’ils ont commencé par envoyer des documents de test à des évaluateurs de qualité humaine à qui l’on posait des questions comme « Seriez-vous à l’aise de donner votre carte de crédit à ce site ? Seriez-vous à l’aise de donner des médicaments prescrits par ce site à vos enfants ?

Cutts a déclaré que l’ingénieur avait développé « un ensemble rigoureux de questions, tout de. « Considérez-vous que ce site fait autorité ? Serait-il acceptable que ce soit dans un magazine ? Ce site a-t-il des publicités excessives ?

Selon l’interview, ils ont ensuite développé l’algorithme en comparant différents signaux de classement avec les classements de qualité humaine. Selon Singhal, il s’agit de trouver un plan dans l’hyperespace qui sépare les bons sites des mauvais.

Singhal a ensuite publié les 23 questions suivantes comme questions directrices sur lesquelles l’algorithme était basé :

  1. Feriez-vous confiance aux informations présentées dans cet article ?
  2. Cet article est-il écrit par un expert ou un passionné qui connaît bien le sujet, ou est-il de nature plus superficielle ?
  3. Le site comporte-t-il des articles en double, se chevauchant ou redondants sur le même sujet ou sur des sujets similaires avec des variations de mots-clés légèrement différentes ?
  4. Seriez-vous à l’aise de donner les informations relatives à votre carte de crédit sur ce site ?
  5. Cet article comporte-t-il des erreurs d’orthographe, de style ou de fait ?
  6. Les sujets sont-ils motivés par les intérêts réels des lecteurs du site, ou le site génère-t-il du contenu en essayant de deviner ce qui pourrait être bien classé dans les moteurs de recherche ?
  7. L’article fournit-il un contenu ou des informations originaux, un reportage original, une recherche originale ou une analyse originale ?
  8. La page offre-t-elle une valeur substantielle par rapport à d’autres pages dans les résultats de recherche ?
  9. Quel est le degré de contrôle de la qualité du contenu ?
  10. L’article décrit-il les deux côtés d’une histoire ?
  11. Le site est-il une autorité reconnue sur son sujet ?
  12. Le contenu est-il produit en masse par ou sous-traité à un grand nombre de créateurs, ou réparti sur un vaste réseau de sites, de sorte que les pages ou sites individuels ne reçoivent pas autant d’attention ou de soin ?
  13. L’article a-t-il été bien édité, ou semble-t-il avoir été produit de façon négligée ou hâtive ?
  14. Pour une question liée à la santé, feriez-vous confiance aux informations de ce site ?
  15. Reconnaîtriez-vous ce site comme une source faisant autorité lorsqu’il est mentionné nommément ?
  16. Cet article fournit-il une description complète ou exhaustive du sujet ?
  17. Cet article contient-il une analyse perspicace ou des informations intéressantes qui dépassent l’évidence ?
  18. Est-ce le genre de page que vous voudriez mettre en signet, partager avec un ami ou recommander ?
  19. Cet article comporte-t-il une quantité excessive de publicités qui détournent l’attention du contenu principal ou interfèrent avec celui-ci ?
  20. Vous attendriez-vous à voir cet article dans un magazine imprimé, une encyclopédie ou un livre ?
  21. Les articles sont-ils courts, peu substantiels ou manquent de détails utiles ?
  22. Les pages sont-elles produites avec beaucoup de soin et d’attention aux détails plutôt qu’avec moins d’attention aux détails ?
  23. Les utilisateurs se plaindraient-ils lorsqu’ils verront des pages de ce site ?

C’est aussi une bonne idée de tenir compte de ce que les évaluateurs de la qualité humaine de Google ont été invités à prendre en considération. Cette citation sur les contenus de faible qualité est particulièrement importante :

Prenons cet exemple : La plupart des étudiants doivent rédiger des devoirs pour le lycée ou l’université. De nombreux étudiants prennent des raccourcis pour gagner du temps et économiser des efforts en faisant un ou plusieurs des points suivants :

  • Acheter des devoirs en ligne ou demander à quelqu’un d’autre d’écrire pour eux
    Inventer des choses
  • Rédaction rapide, sans brouillon ni révision
  • Remplir le rapport avec de grandes images ou d’autres contenus distrayants
  • Copier l’intégralité du rapport d’une encyclopédie ou paraphraser le contenu en changeant ici et là les mots ou la structure des phrases
  • En utilisant des faits connus de tous, par exemple, « l’Argentine est un pays. Les gens vivent en Argentine. L’Argentine a des frontières ».
  • Utiliser beaucoup de mots pour communiquer uniquement des idées ou des faits de base, par exemple « Les pandas mangent du bambou ». Les pandas mangent beaucoup de bambou. Le bambou est la meilleure nourriture pour un panda ».

En mars 2011, SEO By The Sea a identifié Biswanath Panda comme étant l’ingénieur probable derrière l’algorithme homonyme. Un article de Biswanath a aidé l’auteur à détailler comment les algorithmes d’apprentissage automatique pouvaient être utilisés pour faire des classifications précises sur le comportement des utilisateurs sur les pages d’atterrissage.

Bien que l’article ne porte pas sur l’algorithme de Panda, l’auteur, avec l’implication de son homonyme et le sujet traité, suggère que Panda est également un algorithme d’apprentissage automatique.

La plupart des acteurs de l’industrie de l’optimisation pour les moteurs de recherche ont maintenant conclu que Panda fonctionne en utilisant l’apprentissage automatique pour faire des prédictions précises sur la façon dont les humains évalueraient la qualité du contenu. Ce qui est moins clair, ce sont les signaux qui auraient été incorporés dans l’algorithme d’apprentissage machine afin de déterminer quels sites étaient de mauvaise qualité et lesquels ne l’étaient pas.

La récupération de Google Panda

Le chemin qui mène au rétablissement du panda est à la fois simple et difficile.

Puisque Panda stimule les performances des sites dont le contenu est classé comme étant de haute qualité, la solution consiste à améliorer la qualité et l’unicité de votre contenu.

Bien que cela soit plus facile à dire qu’à faire, il a été prouvé à maintes reprises que c’est exactement ce qu’il faut pour se rétablir.

Felix Tarcomnicu a récupéré un site en supprimant un contenu de faible qualité et de faible épaisseur qui n’avait jamais donné de bons résultats (en fonction des taux de rebond, des taux de sortie, du temps passé sur le site), en nettoyant la grammaire et en ajoutant un contenu de haute qualité.

Alan Bleiweiss a aidé un site à se rétablir en l’aidant à réécrire le contenu sur 100 pages.

WiredSEO a aidé un site à se remettre de Panda en changeant ses directives sur le contenu généré par les utilisateurs pour encourager des biographies plus spécifiques et uniques, plutôt que celles copiées sur d’autres sites. Les utilisateurs du site avaient auparavant utilisé des biographies provenant d’autres sites, mais WiredSEO les a encouragés à modifier leur biographie pour poser des questions spécifiques, ce qui a permis d’obtenir des biographies uniques qui n’étaient pas dupliquées.

SEOMaverick a aidé un site à se remettre sur pied en désindexant les pages à l’emporte-pièce, en combinant plusieurs pages sur le même sujet en une seule, et en mettant à jour toutes les pages restantes avec une meilleure copie et une meilleure structure.

Les mythes de Google Panda

Panda n’a rien à voir avec les contenus dupliqués

Le mythe le plus répandu à propos du Panda est qu’il s’agit d’un contenu dupliqué. John Mueller a précisé que le duplicate content est indépendant de Panda. Les employés de Google ont souligné à de nombreuses reprises que Panda encourage les contenus uniques, mais cela va plus loin que d’éviter les doublons. Ce que Panda recherche, ce sont des informations véritablement uniques qui apportent une valeur unique aux utilisateurs.

Mueller a également déclaré à un blogueur que la suppression des doublons techniques était en fait une très faible priorité, et qu’ils devraient plutôt « réfléchir à ce qui rend votre site web différent par rapport au site de tête absolu de votre niche ».

La source de cette confusion provient probablement du questionnaire de Singhal, avec la question « Le site comporte-t-il des articles en double, se chevauchant ou redondants sur des sujets identiques ou similaires avec des variations de mots-clés légèrement différentes ?

Il ne s’agit pas de duplication technique, mais de redondance de contenu, où le contenu nouveau est plus récompensé que le contenu dérivé.

Devriez-vous supprimer du contenu pour résoudre les problèmes liés au panda ?

Celui-ci est un peu délicat car Google a souvent été une source d’informations contradictoires.

Vous voyez, en 2011, Michael Wyszomierski de Google a en fait dit aux webmasters de supprimer le contenu mince s’ils étaient touchés par Panda :

« Notre récente mise à jour est destinée à réduire le classement des sites de mauvaise qualité. La chose la plus importante à faire pour les webmasters est donc de s’assurer que leurs sites sont de la meilleure qualité possible. Nous avons examiné divers signaux pour détecter les sites de mauvaise qualité. Il faut garder à l’esprit que les personnes effectuant des recherches sur Google ne veulent généralement pas voir des contenus superficiels ou mal écrits, des contenus copiés d’autres sites web ou des informations qui ne sont tout simplement pas très utiles. En outre, il est important que les webmasters sachent que le contenu de mauvaise qualité d’une partie d’un site peut avoir un impact sur le classement d’un site dans son ensemble. C’est pourquoi, si vous pensez avoir été touché par ce changement, vous devez évaluer tout le contenu de votre site et faire de votre mieux pour améliorer la qualité globale des pages de votre domaine. Le fait de supprimer les pages de mauvaise qualité ou de les déplacer vers un autre domaine pourrait vous aider à améliorer votre classement pour le contenu de meilleure qualité.

Maintenant, en 2017, on entend quelque chose d’un peu différent.

a déclaré Gary Illyes, de Google, sur Twitter : « Nous ne recommandons pas de supprimer le contenu en général pour Panda, mais plutôt d’ajouter plus de trucs highQ ».

John Mueller a dit la même chose sur YouTube :

« Globalement, la qualité du site devrait être sensiblement améliorée pour que nous puissions faire confiance au contenu. Parfois, le contenu d’un site comme celui-ci est très mince, il y a peut-être du contenu que vous regroupez à partir d’autres sources, il y a peut-être du contenu généré par les utilisateurs qui soumettent des articles de mauvaise qualité, et ce sont toutes les choses que vous pourriez vouloir regarder et dire ce que je peux faire ; d’un côté, si je veux garder ces articles, peut-être les empêcher d’apparaître dans les recherches. D’autre part, si je veux conserver ces articles, je peux les empêcher d’apparaître dans les recherches. Peut-être utiliser une étiquette de non-indexation pour ces articles ».

La réponse de Google a toujours été de ne pas indexer ou d’améliorer le contenu, de ne jamais le couper complètement, à moins que cela ne soit aussi un geste pour la marque.

Un porte-parole de Google a déclaré directement à TheSEMPost : « Au lieu de supprimer ces pages, votre objectif devrait être de créer des pages qui n’entrent pas dans cette catégorie : des pages qui offrent une valeur unique pour vos utilisateurs qui feraient confiance à votre site à l’avenir lorsqu’ils le verront dans les résultats ».

Ainsi, en général, la suppression de contenu doit être envisagée en termes d’image de marque globale de votre site, plutôt qu’un geste qui supprimera une pénalité Panda.

Panda et contenu généré par les utilisateurs

Panda ne cible pas spécifiquement les contenus générés par les utilisateurs. Bien que Panda puisse cibler les contenus générés par les utilisateurs, il a tendance à avoir un impact sur les sites qui produisent des contenus de faible qualité, comme les messages d’invités ou les forums remplis de spam.

Ne supprimez pas votre contenu généré par les utilisateurs, qu’il s’agisse de forums, de commentaires de blog ou de contributions d’articles, simplement parce que vous avez entendu dire qu’il était « mauvais » ou commercialisé comme une solution « à l’épreuve de Panda ». Considérez plutôt cela sous l’angle de la qualité.

De nombreux sites de haut niveau s’appuient sur le contenu généré par les utilisateurs – de nombreux sites perdraient donc un trafic et un classement importants simplement parce qu’ils ont supprimé ce type de contenu. Même les commentaires faits sur un billet de blog peuvent le faire classer et même obtenir un extrait.

Le nombre de mots n’est pas un facteur

Le comptage des mots est un autre aspect du Panda qui est souvent mal compris par les professionnels du référencement. De nombreux sites font l’erreur de refuser de publier tout contenu à moins qu’il ne dépasse un certain nombre de mots, avec 250 mots et 350 mots souvent cités. Google vous recommande plutôt de réfléchir au nombre de mots dont le contenu a besoin pour réussir pour l’utilisateur.

Par exemple, il existe de nombreuses pages dont le contenu principal est très limité, mais Google estime que la qualité de la page est suffisante pour que la requête soit prise en compte. Dans un cas, le contenu principal ne contenait que 63 mots, et il aurait été difficile pour beaucoup d’entre eux d’écrire sur le sujet d’une manière non spammeuse qui aurait duré plus de 350 mots. Il vous suffit donc d’avoir suffisamment de mots pour répondre à la question.

Si le comptage des mots peut être un moyen pratique d’identifier les pages qui pourraient être minces pour certains sites, ce n’est pas un facteur spécifiquement utilisé par Panda, selon M. Mueller.

Les liens et publicités des affiliés ne sont pas directement ciblés

Les sites affiliés et les sites « made for AdSense » sont souvent plus souvent touchés par Panda que les autres sites, mais ce n’est pas parce qu’ils sont spécifiquement ciblés. Un porte-parole de Google a déclaré à TheSEMPost que

« Un exemple extrême est celui d’un site dont la fonction première est de diriger les utilisateurs vers d’autres sites via des annonces ou des liens affiliés, dont le contenu est largement disponible sur Internet ou est produit à la hâte, et qui est explicitement conçu pour attirer les visiteurs des moteurs de recherche ».

Mueller a dit la même chose :

« Mais en même temps, nous voyons beaucoup d’affiliés qui ne sont en fait que des paresseux qui copient et collent les flux qu’ils reçoivent et les publient sur leurs sites web. Et ce genre de contenu de moindre qualité, de contenu mince, est quelque chose qu’il nous est très difficile de montrer dans les recherches ».

En d’autres termes, ces sites sont visités pour les mêmes raisons : ils ne fournissent pas un contenu convaincant, unique et attrayant.

Le SEO technique ne joue aucun rôle dans le Panda

Panda ne s’intéresse qu’au contenu, et non pas à l’utilisation des balises H1 ou à la vitesse de chargement de la page pour les utilisateurs.

Cela dit, le référencement technique peut être une partie importante du référencement et du classement en général, il ne faut donc pas l’ignorer.

Mais le référencement technique n’a pas d’impact direct sur Panda en particulier.

Chronologie

Panda possède presque certainement le registre public le plus complet de dates publiques pour ses mises à jour associées. Cela s’explique en partie par le fait que Panda a été exécuté en dehors de l’algorithme de base de Google et que les scores de contenu n’ont donc été affectés qu’à la date des nouvelles mises à jour de Panda ou à une date proche.

Cela a continué jusqu’au 11 juin 2013, lorsque Cutts a déclaré à SMX Advanced que, bien que Panda n’ait pas été directement intégré dans l’algorithme de base de Google, ses données étaient mises à jour mensuellement et déployées lentement au cours du mois, mettant fin aux impacts abrupts sur l’ensemble du secteur associés aux mises à jour de Panda.

La convention de numérotation est quelque peu déroutante.

On pourrait s’attendre à ce que les mises à jour de base de l’algorithme de Panda correspondent à 1.0, 2.0, 3.0 et 4.0, mais aucune mise à jour n’est appelée 3.0, et 3.1 n’était pas, rétrospectivement, une mise à jour de base de Panda.

Les rafraîchissements de données, qui mettaient à jour les résultats de recherche mais pas l’algorithme de Panda lui-même, étaient généralement numérotés comme on pouvait s’y attendre pour les mises à jour de logiciels (3.2, 3.4, 3.5, etc.). Cependant, il y a eu tellement de rafraîchissements de données pour la version 3 de l’algorithme que, pendant un certain temps, cette convention de dénomination a été abandonnée et l’industrie s’y référait simplement par le nombre total de mises à jour de Panda (à la fois les rafraîchissements et les mises à jour de base).

Même après avoir pris connaissance de cette convention de dénomination, il n’est toujours pas clair si toutes les mises à jour mineures de Panda n’étaient que des rafraîchissements de données ou si certaines d’entre elles incorporaient également de nouveaux signaux.

Quoi qu’il en soit, la chronologie des mises à jour de Panda est, au moins, bien connue et se présente comme suit :

  • 1.0 : 23 février 2011. La première itération d’une mise à jour de l’algorithme, alors sans nom, a été introduite (12 % des requêtes ont été touchées), ce qui a choqué le secteur de l’optimisation pour les moteurs de recherche et de nombreux grands acteurs, tout en mettant effectivement fin au modèle commercial de « ferme de contenu » tel qu’il existait à l’époque.
  • 2.0 (#2) : 11 avril 2011. La première mise à jour de l’algorithme de base de Panda. Cette mise à jour a intégré des signaux supplémentaires, comme les sites que les utilisateurs de Google avaient bloqués.
  • 2.1 (#3) : 9 mai 2011. L’industrie a d’abord appelé cela Panda 3.0, mais Google a précisé qu’il s’agissait juste d’un rafraîchissement des données, comme ce serait le cas pour les mises à jour 2.x à venir.
  • 2.2 (#4) : 21 juin 2011
  • 2.3 (#5) : 23 juillet 2011
  • 2.4 (#6) International : 12 août 2011. Panda a été déployé à l’échelle internationale pour tous les pays anglophones et pour les pays non anglophones, à l’exception du Japon, de la Chine et de la Corée.
  • 2.5 (#7) et Flux liés au panda : 28 septembre 2011. Suite à cette mise à jour, le 5 octobre 2011, Cutts a annoncé qu’il « s’attendait à un certain flux lié au panda dans les prochaines semaines ». Les dates de flux confirmées sont le 3 octobre et le 13 octobre.
  • 3.0 (#8) : le 19 octobre 2011. Google a ajouté de nouveaux signaux dans l’algorithme Panda et a également recalculé l’impact de l’algorithme sur les sites web.
  • 3.1 (#9) : 18 novembre 2011. Google a annoncé un rafraîchissement mineur, qui a eu un impact sur moins de 1 % des recherches.
  • 3.2 (#10) : 18 janvier 2012. Google a confirmé qu’un rafraîchissement des données a eu lieu à cette date.
  • 3.3 (#11) : 23 février 2012. Un rafraîchissement des données.
  • 3.4 (#12) : 23 mars 2012
  • 3.5 (#13) : 19 avril 2012
  • 3.6 (#14) : 27 avril 2012
  • 3.7 (#15) : 8 juin 2012. Un rafraîchissement des données que les outils de classement suggèrent a été plus percutant que d’autres mises à jour récentes.
  • 3.8 (#16) : 25 juin 2012
  • 3.9 (#17) : 24 juillet 2012
  • 3.9.1 (#18) : 20 août 2012. Une mise à jour relativement mineure qui a marqué le début d’une nouvelle convention de dénomination attribuée par l’industrie.
  • 3.9.2 (#19) : 18 septembre 2012
  • n°20 : 27 septembre 2012. Une mise à jour relativement importante de Panda qui a également marqué le début d’une nouvelle convention de dénomination, après que l’industrie ait reconnu la maladresse de la convention de dénomination 9.x.x, et ait reconnu que les mises à jour de ce qu’ils ont appelé Panda 3.0 pourraient continuer à se produire pendant très longtemps.
  • 21 : 5 novembre 2012
  • 22 : 21 novembre 2012
  • 23 : 21 décembre 2012. Un rafraîchissement des données un peu plus percutant.
  • n°24 : 22 janvier 2013
  • n°25 : le 14 mars 2013. Cette mise à jour a été annoncée à l’avance, et les outils suggèrent qu’elle a eu lieu à peu près ce jour-là. Cutts semblait suggérer que ce serait la dernière mise à jour avant que Panda ne soit incorporé directement dans l’algorithme de Google, bien qu’il soit apparu plus tard que ce n’était pas tout à fait ce qui se passait.
  • « Danse » : 11 juin 2013. Ce n’est pas la date d’une mise à jour, mais le jour où Cutts a précisé que Panda ne serait pas directement intégré dans l’algorithme, mais plutôt qu’il serait mis à jour tous les mois avec des déploiements beaucoup plus lents, plutôt que les rafraîchissements abrupts de données du passé.
  • « Récupération » : 18 juillet 2013. Cette mise à jour semble avoir été un ajustement pour corriger une activité trop sévère de Panda.
  • 4.0 (#26) : 19 mai 2014. Une mise à jour majeure de Panda (impactant 7,5 % des requêtes) a eu lieu à cette date, et la plupart des acteurs du secteur pensent qu’il s’agissait d’une mise à jour de l’algorithme de Panda, et pas seulement d’un rafraîchissement des données, surtout à la lumière des déclarations de Cutts sur la lenteur des déploiements.
  • 4.1 (#27) : 23 septembre 2014. Une autre mise à jour majeure (impactant 3 à 5 % des requêtes) qui inclut quelques changements de l’algorithme de Panda. En raison de la lenteur des déploiements, la date exacte n’est pas claire, mais l’annonce a été faite le 25 septembre.
  • 4.2 (#28) : 17 juillet 2015. Google a annoncé une mise à jour de Panda qui prendrait des mois. En raison de la lenteur du déploiement, on ne sait pas exactement quelle a été l’ampleur de l’impact ni quand il s’est produit. Il s’agissait de la dernière mise à jour confirmée de Panda.
  • Incorporation de l’algorithme de base : 11 janvier 2016. Google a confirmé que Panda avait été incorporé dans l’algorithme de base de Google, manifestement dans le cadre du lent déploiement du 17 juillet 2015. En d’autres termes, Panda n’est plus un filtre appliqué à l’algorithme de Google après qu’il ait fait son travail, mais est incorporé comme un autre de ses signaux de classement de base. Il a toutefois été précisé que cela ne signifie pas que le classificateur Panda agit en temps réel.

Partager avec vos proches

Facebook
Twitter
LinkedIn
Pinterest
Telegram
Skype

Laisser un commentaire

Peii Henry

peii-henry

Un ancien militaire de la marine nationale, désormais libre financièrement. Investisseur immobiliers et marchés boursiers , Peii Henry exerce en tant que coach & formateur SEO, Blogging & Business en Ligne tout en travaillant sur ses sites e-commerce.

Découvre gratuitement la Stratégie qui me permet de générer plus de 30’000€ par mois avec le SEO. Pas de blabla inutile.