Pinterest + SEO : Comment votre trafic gratuit va Exploser ?

Pinterest + SEO : Comment votre trafic gratuit va Exploser ?

En 2016, si vous nous aviez dit que Pinterest allait devenir la prochaine façon de se classer sur les moteurs sociaux, nous aurions dit que vous étiez fou. Avancez jusqu’en 2018 et nous voilà, dépendants et dépendants de Pinterest. Que nous est-il arrivé à Aston Social ?

Pinterest a définitivement fait un long chemin. D’un média social en pleine expansion pour les planches de mariage et les vêtements, Pinterest est maintenant la nouvelle tendance dans le marketing des médias sociaux que certains propriétaires d’entreprises sont encore réticents à utiliser.

Nous ne pouvons pas reprocher aux entreprises de penser que Pinterest n’est peut-être pas aussi fructueux qu’on le dit, mais les faits suivants ne sont pas réels et c’est avec ces faits que l’on constate que Pinterest a effectivement pris le dessus sur les médias sociaux.

Maintenant, notre Formation Pinterest aide des centaines d’entreprise a exploser leurs trafic organique (SEO).

Vous vous demander comment obtenir du trafic gratuit sur votre boutique shopify ? nous avons une solution !

Fait 1 : Le marché cible que tout le monde utilise.

Saviez-vous que plus de 100 millions de personnes sont sur Pinterest ? C’est vraiment beaucoup et ce nombre s’accompagne de catégories d’utilisateurs : femmes, hommes, mariées, gastronomes, photographes, médecins, avocats, vous nommez la cible et Pinterest l’a certainement.

Fait 2 : Les Pinners ont d’abord engagé des entreprises sur Pinterest.

Les tout premiers pinners sont ceux qui ont eu l’idée d’accompagner les entreprises. Cela signifie que le marché exige vraiment que les entreprises soient présentes sur Pinterest et que vous n’aurez pas l’impression de forcer le client à s’engager avec vous. C’est l’inverse.

Fait 3 : Les épingles sont éternelles.

Comme la plupart des experts des médias sociaux le soulignent, tout ce que vous mettez en ligne reste en ligne. Qu’il soit indiqué que la publication ne durera que quelques heures ou que vous ayez déjà supprimé les messages ou non, les messages sont éternels.

Pour les entreprises, c’est une bonne chose, car l’effet marketing est vraiment important, et même éternel.

Fait 4 : L’intérêt affecte le trafic de votre site web, que vous le vouliez ou non.

Quelle que soit la manière dont nous le disons, l’intérêt affecte le trafic du site web et c’est maintenant la réalité du monde. En tant que chef d’entreprise, vous devriez donc veiller à vous donner, à vous et à votre entreprise, au moins une chance de vous faire des adeptes.

Conseil de pro : Il n’y a vraiment rien à perdre en matière de médias sociaux. La création d’un compte est gratuite. Nous ne le répéterons jamais assez. Tout ce qu’un propriétaire d’entreprise doit pouvoir faire, c’est créer un compte et donner quelques minutes de son temps avec cette plateforme, elle grandit avec vous.

Avec Pinterest, les propriétaires d’entreprises n’ont rien à perdre et tout à gagner et pour nous, c’est une grande opportunité qui ne doit pas passer.

Savez-vous comment utiliser stratégiquement Pinterest pour améliorer le classement SEO de votre site web ? Vous voulez augmenter le trafic de votre site web ? Voulez-vous créer un suivi en ligne actif pour votre entreprise ? Chez seoarmy, nous vous aidons à trouver une solution à vos problèmes, en particulier lorsqu’il s’agit de vos besoins en matière de médias sociaux.

mise à jour correspondance exacte de domaines de Google

mise à jour correspondance exacte de domaines de Google

L’EMD, ou Exact Match Domain update, était une mise à jour de l’algorithme de Google de 2012 qui visait exactement ce qu’il est nommé : les noms de domaine à correspondance exacte. 12

L’intention derrière cette mise à jour n’était pas de cibler exclusivement les noms de domaine à correspondance exacte, mais de cibler des sites avec la combinaison suivante de tactiques de spam : des domaines à correspondance exacte qui étaient également des sites de mauvaise qualité avec un contenu mince.

Il n’y avait pas vraiment d’autres surnoms pour cette mise à jour. Elle a été remplacée par la mise à jour de l’EMD, ou Exact Match Domain.

La principale faiblesse de ces sites était le fait que les SEO achetaient des domaines avec des phrases de mots clés correspondant exactement, construisaient un site, mais avaient un contenu extrêmement mince avec peu ou pas de valeur. C’était extrêmement facile à faire. Tellement facile, en fait, que c’était presque comme prendre des bonbons à un bébé en termes de gains de référencement facile.

Avant la mise à jour, Matt Cutts de Google a averti l’industrie que cela allait faire l’objet d’une future mise à jour dans une vidéo du webmaster publiée le 7 mars 2011.

Le Dr. Pete Meyers de Moz a publié un article juste avant la publication de la mise à jour sur les EMD, demandant si les EMD étaient en déclin. Les données qui l’accompagnent montrent une forte diminution de l’influence que les domaines de correspondance exacte ont sur les classements réels.

La conclusion finale après la mise à jour est que, dans l’ensemble, les domaines non .com ont subi une punition plus sévère que leurs homologues .com, qui étaient des concurrents plus forts et ont mieux survécu à la mise à jour.

Cutts a annoncé la mise à jour de l’EMD sur Twitter le 28 septembre 2012 :

matt cutts parle des exacte match domain

La mise à jour de l’EMD devait être effectuée périodiquement

Danny Sullivan de SearchEngineLand a écrit que Google a confirmé que l’algorithme EMD sera exécuté périodiquement, de sorte que ceux qui ont été touchés restent filtrés ou ont une chance d’échapper au filtre. Ceci est également en place pour que Google puisse attraper ce qu’ils ont pu manquer lors de la dernière mise à jour.

Les sites de spamming et les contenus légers ont été très visités

L’objectif de cette mise à jour était de cibler les sites de spam et les sites ayant une quantité importante de contenu mince n’ayant que peu de valeur au-delà des mots de correspondance exacts dans le domaine. Les sites ayant une plus forte reconnaissance de la marque et un contenu de haute qualité étaient moins susceptibles d’être touchés.

Et si vous étiez touché par la mise à jour de l’EMD ?

Si vous avez été touché par la mise à jour et que vous vouliez vous en remettre, le consensus général sur le plan d’attaque approprié était très similaire à celui de Panda

  • Vous voudriez vous débarrasser et/ou améliorer le contenu de mauvaise qualité. Veuillez noter : Google a officiellement recommandé que l’amélioration du contenu de mauvaise qualité soit la meilleure solution, par opposition à la suppression totale des pages de mauvaise qualité.
  • Un audit du profil des liens serait utile pour identifier les liens entrants spammeurs qui ont des signaux de confiance faibles, et s’engager dans une campagne de remédiation/suppression des liens pour les supprimer.
  • Ensuite, révisez votre routine pour ajouter chaque jour un nouveau contenu personnalisé et étonnant à votre site.
  • Et enfin : engagez-vous dans une campagne d’acquisition de liens SEO pour accroître la confiance et l’autorité de votre site web. Après la suppression des mauvais liens, il sera nécessaire de poursuivre l’acquisition.

Les sites touchés par cette mise à jour présentaient-ils un modèle ?

Le Dr. Pete de Moz a publié une étude détaillée sur cette mise à jour. D’après ses mesures des personnes touchées, environ 41 EMD sont tombés dans le top 10, avec un changement net d’environ 36 domaines après l’entrée de 5 nouveaux EMD dans le top 10). Un exemple de site qui est tombé dans le top 10 avait un domaine de correspondance exacte. Ce n’était pas exactement un site de spam, mais un site assez décent dont le seul crime a été de choisir un domaine riche en mots-clés plutôt qu’un domaine de marque.

La majorité des sites de ce mélange semblent avoir davantage de signaux qui communiquent une qualité inférieure – des choses comme une faible autorité, l’acquisition de liens spammy, l’utilisation agressive de mots-clés, etc. – et ils semblaient être classés simplement parce qu’ils avaient un EMD.

Il n’y avait pas de modèle clair discernable par les données du Dr. Pete, et donc la plupart des SEO ont été obligés de supposer que de multiples facteurs non identifiés publiquement par Google étaient pesés par eux.

Mises à jour de Google depuis 2012

Les domaines de correspondance exacte aident-ils ou nuisent-ils au classement Google ? John Mueller pèse le pour et le contre.

Mythes et idées fausses sur la mise à jour de l’EMD

Domaines de correspondance exacte Faits et mythes

Malgré la position publique de Google concernant la mise à jour de l’EMD qui comble la faille de l’optimisation des noms de domaine à correspondance exacte, certaines idées fausses subsistent quant au fait que l’achat de domaines à correspondance exacte fonctionne réellement.

Eh bien, c’est le cas, jusqu’à un certain point.

La plupart des webmasters ont aujourd’hui de bonnes intentions lorsqu’ils achètent un nom de domaine à dénomination exacte. Ils ont des normes de qualité plus élevées lorsqu’il s’agit de créer des sites web. Ils ont appris de leurs erreurs, et il n’y aura pas toujours des situations où ces sites sont construits juste pour le bien de l’EMD.

Cet auteur pense que la situation où vous avez un vrai chapeau gris SEO allant après les domaines de correspondance exacte avec l’enthousiasme est quelque chose qui est extrêmement rare de nos jours. Le filtre a été mis en place, (presque) tout le monde a appris de ses erreurs, et la plupart (sinon tous) les webmasters veulent rester du bon côté de Google. Cet auteur pense qu’il y a moins de malentendus de nos jours qu’autrefois.

À l’époque, la plus grande erreur était de croire que Google s’en prenait à tous les domaines de correspondance exacte. Ils avaient en fait déclaré qu’ils cherchaient des domaines de faible qualité, et tous les domaines de correspondance exacte n’ont donc pas été affectés par cette mise à jour. Il est important de définir la distinction ici, car cette idée fausse persiste encore.

Comment la mise à jour de l’EMD a-t-elle modifié le référencement ?

Qu’est-ce que la mise à jour de l’EMD a changé en matière de référencement ?

Même en 2012, l’utilisation de domaines à correspondance exacte n’a jamais été une technique valable selon les directives de Google pour les webmasters. C’était considéré comme un chapeau gris, parce que vous manipuliez techniquement les résultats de recherche même si cela n’a jamais été clairement un chapeau noir.

En raison de la prévalence de cette technique à cette époque, Google a estimé qu’il était nécessaire de combler cette lacune.

Panda a tenté de résoudre de nombreux problèmes concernant les sites dont le contenu était de mauvaise qualité. Mais lorsqu’il s’agissait de faire correspondre exactement des domaines, Panda ne faisait pas un très bon travail.

L’arrivée de la mise à jour de l’EMD signifiait que les OMR ne pouvaient pas simplement acheter un site avec des domaines à correspondance exacte, créer un contenu de mauvaise qualité et le laisser s’arrêter là pour un jour.

Cette mise à jour signifiait que le référencement allait devenir plus complexe, pas aussi facile, et tout le monde savait que les gains de classement facile pour les clients étaient terminés. Maintenant, il fallait tout prévoir : le référencement des pages, le marketing de contenu, l’acquisition de liens, tout. Ce ne serait pas aussi simple que de créer un site instantanément et d’en tirer des avantages presque immédiats en termes de classement.

En fin de compte, cela a été de bon augure pour un meilleur référencement, car les webmasters se sont plaints à l’époque qu’un avantage injuste était accordé aux domaines à correspondance exacte. Heureusement, dans ce cas, Google a écouté, et l’optimisation des moteurs de recherche dans son ensemble est de meilleure qualité. Cela signifie que les webmasters seront moins enclins à construire des sites de mauvaise qualité uniquement pour le bénéfice du classement.

La mise à jour Payday de Google

La mise à jour Payday de Google

En 2013, la principale mise à jour de l’algorithme qui a fait parler d’elle a été la mise à jour du prêt sur salaire. Cette mise à jour a été importante et a eu un impact sur environ 0,3 % des requêtes aux États-Unis.

A l’époque, Matt Cutts, responsable de l’équipe webspam de Google, avait déclaré que l’impact avait atteint 4 % pour les requêtes turques. Le raisonnement est que ce type de requêtes est associé à un plus grand nombre de spams.

Il s’agit de l’une des mises à jour les plus importantes de Google, qui cible les requêtes spammeuses principalement associées à des industries louches comme les prêts à taux d’intérêt et les prêts sur salaire super élevés, le porno et d’autres requêtes fortement spammées.

Les réductions ont indiqué que les prêts sur salaire, les casinos et les sites de consolidation de dettes seraient touchés. D’autres niches fortement spammées comme les produits pharmaceutiques, les casinos, et d’autres domaines financiers comme les hypothèques et les assurances ont également été touchées.

Lorsque Cutts a annoncé ce changement dans une vidéo du webmaster en mai 2013, il a déclaré que “certaines requêtes qui ont tendance à être de nature spam, comme les prêts sur salaire ou certaines requêtes liées à la pornographie, étaient un peu moins susceptibles d’être une cible pour l’équipe spam de Google”. Il a déclaré que “Google est plus susceptible de se pencher sur ce domaine dans un avenir proche”.

Deux choses ont été affectées par les mises à jour des prêts sur salaire : les requêtes spammées et les sites spammées.

Plus précisément, Cutts a déclaré que Payday Loan 2.0 ciblait les sites spammeurs, et que 3.0 ciblait les requêtes spammeuses.

La mise à jour de l’algorithme de Payday Loan a été déployée sur une période de 1 à 2 mois. La première mise à jour de l’algorithme de prêt sur salaire a eu lieu en juin 2013. La mise à jour 2.0 a eu lieu le 16 mai 2014, et la mise à jour 3.0 a suivi peu après, en juin 2014.

La mise à jour 3.0 de Payday Loan a également inclus une meilleure protection contre les attaques SEO négatives.

Les sites contrefaits ont également été inclus dans la mise à jour. Toutefois, M. Cutts a indiqué qu’il s’agissait d’un effet secondaire et non de l’intention initiale derrière la mise en œuvre de la mise à jour.

Recherches affectées par la mise à jour 2.0 de l’algorithme Payday :

La mise à jour de Payday Loan 2.0 était davantage basée sur des liens et se concentrait sur un volume de recherche élevé + des mots-clés CPC dans lesquels le potentiel de spam est susceptible d’être extrêmement élevé

Selon M. Cutts, les recherches concernées aux États-Unis ne représentent qu’environ 0,3 %.

Le 11 juin 2013, Cutts a officiellement annoncé la mise à jour 1.0 de Payday Loan sur Twitter :

mise a jour payday
mise a jour payday

Comment le référencement a-t-il évolué depuis la mise à jour Payday ?

Plus que jamais, les professionnels du référencement ont commencé à accorder plus d’importance aux directives pour les webmasters de Google, et plus de risques ont été associés aux techniques de référencement en chapeau gris/noir.

La morale de l’histoire ?

Ne pas enfreindre les règles de Google pour les webmasters. Ne soyez pas méchant et ne soyez pas prédateur. Utilisez toujours des stratégies holistiques, centrées sur le chapeau blanc, pour le contenu, l’expérience utilisateur et l’acquisition de liens.

Avant cette mise à jour, le référencement était largement axé sur des manipulations massives. Bien que la manipulation se produise encore aujourd’hui, et qu’il existe certaines techniques pour passer sous le radar de Google, il est plus facile que jamais de se faire prendre si vous ne faites pas attention.

La meilleure idée ? Ne faites pas ces techniques sur votre site en premier lieu, et assurez-vous que la technique que vous envisagez n’est pas vraiment contraire aux directives pour les webmasters de Google.

L’auteur a souvent vu quelqu’un parler d’une technique qui faisait partie des lignes directrices de Google à l’intention des webmasters, et Google a poursuivi cette technique, alors qu’elle n’a jamais vraiment fait partie de ces lignes directrices.

Regardez avant de sauter, et vérifiez toujours vos sources avant de mettre en œuvre des techniques de référencement qui peuvent autrement être nuisibles à vos efforts de référencement en général.

Mise à jour de Google Pigeon

Mise à jour de Google Pigeon

L’une des mises à jour de l’algorithme ayant le plus grand impact de Google a été mise en œuvre dans l’intérêt des résultats de recherche locaux, et les entreprises locales ont généralement constaté les effets de la mise à jour dans les données d’analyse de leur site web.

Les utilisateurs de Google ont certainement vu l’impact, eux aussi, et cela s’est traduit par une expérience de recherche différente, et finalement meilleure, en termes d’entreprises locales et d’informations relatives à ces entreprises.

Estimée avoir été lancée le 24 juillet 2014 ou aux alentours de cette date – et considérée comme la mise à jour “Pigeon” peu après par Search Engine Land – cette mise à jour de l’algorithme de recherche de Google visait à offrir de meilleurs résultats de recherche locale en récompensant les entreprises locales qui ont une forte présence organique avec une meilleure visibilité dans la recherche traditionnelle, similaire à la visibilité qu’une entreprise peut avoir vue précédemment dans Google Maps.

L’idée selon laquelle les petites entreprises dont l’emplacement est pertinent au niveau local (pensons aux “magasins familiaux”) méritent autant d’apparaître dans la recherche que les autres entreprises de la région, indépendamment de leur taille ou de la popularité de leur marque, est tout à fait logique si l’entreprise bien classée dans les résultats fournit ce que la requête de recherche suggère.

Ce qui a changé exactement avec la mise à jour Google Pigeons

Afin d’améliorer ses capacités de recherche locale, Google a amélioré des centaines de signaux de classement pour Google Search et Google Maps. Cela signifie également que les paramètres de classement de Google en fonction de la localisation et de la distance ont été améliorés afin de mieux fournir aux utilisateurs des résultats locaux et pertinents en fonction de la proximité.

Et cela a été le cas, pour la plupart, surtout à long terme.

La recherche locale s’est considérablement améliorée depuis juillet 2014, date du lancement initial de Pigeon, mais il est également largement admis qu’une série de mises à jour de Pigeon ont été utilisées depuis lors. Et cela expliquerait certains des hoquets du début du lancement de la mise à jour de l’algorithme qui ont finalement été corrigés.

Un exemple populaire, juste après le lancement initial de Pigeon, est celui du site de réservation d’hôtels Expedia qui est apparu dans le carrousel de l’hôtel comme s’il s’agissait d’un hôtel ordinaire de New York accueillant des clients. Il y a également eu des problèmes avec des propriétés spammy utilisant des mots-clés à correspondance exacte pour tromper l’algorithme local et faire en sorte que leurs pages soient mieux classées dans les résultats, y compris dans le “pack local” de Google (plus d’informations à ce sujet plus tard).

Le premier lancement de Pigeon a donné lieu à un certain nombre d’autres pépins, mais ils ont été rapidement corrigés. La première mise à jour de Pigeon par rapport au lancement initial semble avoir eu lieu vers le 1er août 2014 et a permis de remédier à certains des problèmes.

Et c’est pourquoi il n’est pas exagéré de penser que plusieurs mises à jour de Pigeon ont été lancées depuis le déploiement initial de juillet 2014. Il est courant qu’un changement majeur d’algorithme soit suivi d’une série de mises à jour.

Pigeon a été largement cité comme la mise à jour d’algorithme local la plus impactante jamais réalisée, et certainement la plus impactante depuis la mise à jour de Google Venise en 2012.

Ce que Google a dit sur Pigeon

Google est correcteur sur la plupart des mises à jour. Pigeon n’est pas différent.

Après avoir fait quelques commentaires généraux sur le lancement initial de Pigeon et sur ce qui a été spécifiquement (en quelque sorte) mis à jour, il n’avait rien à dire sur les mises à jour qui ont très probablement suivi.

Après avoir déclaré que la mise à jour de Pigeon était plus profondément ancrée dans les capacités globales de recherche sur le web de Google, y compris les nombreux signaux de classement qu’il utilise dans la recherche sur le web et d’autres caractéristiques importantes qui ont amélioré l’expérience globale de recherche (graphique de connaissances, corrections orthographiques, synonymes, variations, etc.

Google a déclaré à Barry Schwartz qu’il ne confirmerait ni ne refuserait aucune des mises à jour de Pigeon après le lancement initial et qu’il “ne détaillera probablement pas tous les changements apportés aux algorithmes de recherche locale au fur et à mesure”.

Il est donc presque garanti qu’il y a eu une mise à jour, et il est également assez probable qu’il y ait eu plus d’une mise à jour de l’algorithme Pigeon au cours des dernières années.

Changements de Pigeon sur les SERPs de Google
Avant Pigeon, les résultats de recherche sur Maps étaient sensiblement différents de ceux de la recherche traditionnelle. L’expérience de l’utilisateur était également très différente.

Désormais, les résultats de recherche et l’esthétique de la page de résultats du SERP (Search Engine Results) pour la recherche sur Google Search et Google Maps ont une apparence et une fonctionnalité plus uniformes (voir ci-dessous).

Recherche traditionnelle :

mise a jour google pigeon
mise a jour google pigeon

Outre l’amélioration de l’intégration des signaux de classement local, Google a également mis à jour la manière dont il traite les “annuaires” locaux axés sur les consommateurs, comme Yelp, Home Advisor, etc.

Avant le lancement de Pigeon, une présentation interne à Yelp a fait l’objet d’une fuite, puis a été publiée, détaillant la manière dont Yelp estimait que Google maltraitait le principal site de révision et favorisait son propre contenu dans la recherche. Yelp a affirmé qu’il était surclassé par les critiques de Google même lorsqu’un utilisateur inclut spécifiquement ” yelp ” dans ses requêtes de recherche, ce qui n’aurait clairement aucun sens en tant que recherche impartiale.

Après le lancement de Pigeon, Yelp et d’autres annuaires locaux basés sur le contenu des utilisateurs et les avis des clients ont été traités plus favorablement et mieux classés dans les recherches, comme ils auraient dû l’être.

Changements de pigeon dans le pack local

L’une des différences les plus notables pour les utilisateurs qui recherchent des entreprises locales dans les résultats de Google est le changement du pack local.

Avant Pigeon, le pack local incluait 10 ou 7 entreprises dans la répartition spéciale de la recherche traditionnelle, offrant ainsi plus de possibilités aux entreprises de bien se classer et d’apparaître sur la page 1 du SERP.

Un an après le lancement de Pigeon, le nombre d’entreprises du pack local est passé à ce qu’il est aujourd’hui en 2017, le pack 3 (voir ci-dessous).

mise a jour google pigeon
mise a jour google pigeon

L’objectif de Pigeon, confirmé par Google, était de faire en sorte que la recherche locale ressemble le plus possible à la recherche organique traditionnelle, tout en se comportant de manière similaire.

Les effets immédiats que les entreprises locales ont pu ressentir dépendent de leur positionnement avant Pigeon, et de la manière dont elles ont pu bénéficier ou souffrir du bouleversement des classements locaux.

Les effets plus permanents peuvent avoir été une augmentation ou une diminution des visites de référencement sur le web, ainsi qu’une augmentation ou une diminution des KPI comme les pistes et les conversions (comme “Get Directions” ou “Call Now”).

Non seulement Google a modifié le classement de nombreuses entreprises et leur visibilité, mais il visait également à donner aux utilisateurs les informations qu’ils souhaitaient en encore moins d’étapes. L’intention de Pigeon était de servir les résultats les plus pertinents et les plus utiles aux utilisateurs dans un cadre local en favorisant ceux qui se trouvent dans un certain rayon et la pertinence de la recherche d’un utilisateur.

Fondamentalement, Google pouvait désormais fournir directement aux utilisateurs les informations recherchées sur une entreprise locale spécifique plus rapidement et plus facilement que jamais auparavant. Mais ces utilisateurs risquent de ne jamais arriver sur votre site si Google leur propose des informations essentielles (numéro de téléphone, adresse, horaires, etc.), ne les obligeant plus à chercher plus loin.

Google a “aidé” les utilisateurs en leur offrant les informations dont ils avaient besoin en moins de clics, mais cela s’est souvent fait au détriment du trafic de ces sites.

Il ne fait aucun doute que ce type de changement va se poursuivre – et pas seulement dans un cadre local – où Google gratte essentiellement le contenu des marques et le sert directement aux utilisateurs sur le SERP Google. C’est là que la recherche se dirige depuis des années.

Si votre marque est toujours bien classée, et que les clients continuent de trouver votre entreprise et les informations pertinentes qui y sont liées, est-ce toujours une victoire marketing ?

À ce stade, il semble que ce soit notre seul choix.

[Colibri] La mise à jour de Google “Hummingbird”

[Colibri] La mise à jour de Google “Hummingbird”

google colibri
google colibri

Depuis l’automne 2013, l’algorithme Google Colibri “Hummingbird” a laissé son empreinte sur les résultats de recherche pour des milliards de requêtes et a permis aux utilisateurs finaux de faire un petit pas de plus vers une page de résultats de moteur de recherche plus intime et personnelle.

Il est facile d’oublier que les micro-moments actuels et le fait que Google réponde à des questions contextuelles constituent un changement massif par rapport aux 20 premières années de recherche, où des mots clés spécifiques dictaient les résultats plutôt que de prendre en considération l’ensemble de la requête.

Pour bien saisir l’importance de la mise à jour du Hummingbird, voyons comment se déroulait la recherche avant la sortie du Hummingbird, ce pour quoi il a été conçu et pourquoi il a vraiment changé nos vies.

Comment était la recherche avant colibri

À l’été 2013, les bases du référencement étaient encore plus ou moins les mêmes qu’aujourd’hui.

Nous vivions encore à une époque de “grand contenu” et d’encouragement à gagner des liens (plutôt qu’à les acheter ou à comploter pour les obtenir), et l’objectif était toujours de pouvoir répondre aux questions qui intéressaient les gens.

Cependant, le paysage des résultats de recherche était radicalement différent, même un an avant le lancement de Hummingbird.

2012 : Les débuts du graphique des connaissances

Un an avant Hummingbird, les résultats de la recherche vous donnaient exactement ce que vous aviez mis – que ce soit un seul mot (“games”), une longue chaîne de caractères (“who is the mayor of Burlingame, CA ?”), ou même une abréviation bien connue (“NBA”).

Il y avait là un piège. Les résultats étaient souvent à la traîne, ne fournissant aucune réponse approfondie ou ressource sur la question.

L’analyse de l’intention était toujours un défi pour Google, surtout lorsqu’il s’agissait de distinguer deux requêtes similaires mais différentes.

Un bon exemple concerne la musique et le théâtre. Si je demande maintenant à Google de me parler du “Globe”, j’obtiens des informations sur le célèbre Globe Theatre associé à William Shakespeare.

Si vous aviez fait cette recherche en 2010, vous auriez peut-être reçu des informations sur les globes terrestres ou la page d’accueil de l’initiative “Global Learning and Observation to Benefit the Environment” (GLOBE).

Heureusement, c’est à cela que ressemble la recherche aujourd’hui.

Mais disons que je ne suis pas un grand fan des acteurs, et que ce que je cherche vraiment, c’est des informations sur une chanson de 1991. Aujourd’hui, je peux simplement affiner ma recherche et Google récupérera les informations qui répondent à ma question.

Si cela avait été le cas il y a cinq ans, il y a de fortes chances que des erreurs de clics et des requêtes supplémentaires aient été nécessaires pour obtenir les bons résultats centrés sur Big Audio Dynamite II.

Mieux encore, ce grand saut dans la compréhension du contexte a fait que lorsque vous cherchiez une réponse précise, Google vous la donnait.

Ne posez pas de question stupide comme “Quelle voiture conduit Jésus”, sinon vous risquez de recevoir une mauvaise réponse (et une leçon d’anachronisme).

Lorsqu’il a été annoncé en mai 2012, l’idée générale derrière le Knowledge Graph était qu’en fournissant des informations avec le contexte “Paris Hilton Lodging”, vous recevriez des informations sur la disponibilité des hôtels Hilton sur la Seine (plutôt que des résultats centrés autour de l’héritière d’un nom similaire).

Ce qui rend le Knowledge Graph remarquable, c’est qu’il est le signe avant-coureur du désir du Colibri de répondre aux questions d’une manière “de choses et non de ficelles”, la prochaine étape logique dans une longue série de mises à jour du géant de la recherche.

2011-2014 : Google Authorship

Au début de Hummingbird, on répondait aux questions du mieux possible compte tenu du contenu disponible.

Alors que le Knowledge Graph avait été lentement mis en place pendant plus d’un an avant Hummingbird, il est également apparu à une époque où Google expérimentait le pointage des résultats de recherche vers des contenus écrits par des sources de confiance sur la base de son brevet Agent Rank de 2009, qui, associé à un balisage de données structuré, nous a donné un bref programme connu sous le nom de Google Authorship.

La mise à jour de la paternité de Google a été mise en ligne pendant la même période que Google+, permettant aux créateurs de contenu d’utiliser un système interne pour relier les éditeurs à leurs publications. Le fait de pouvoir identifier les associations sur la base des profils Google+ et de la balise rel=”author” a permis d’identifier plus facilement les auteurs et de gagner la confiance de ceux qui ont produit des contenus ayant fait l’objet d’un engagement accru.

Pour savoir pourquoi la paternité d’un article est progressivement tombée en désuétude en 2014, il faudrait un article à part entière. La plupart des experts du secteur et des initiés de Google soulignent les faibles taux d’adoption, les changements marginaux dans le comportement des utilisateurs finaux sur les SERP, et le fait que Google teste toujours les raisons pour lesquelles la paternité s’est effacée.

Quels étaient les objectifs de la mise à jour de Google Hummingbird ?

La mise à jour du Hummingbird – qui a été annoncée le 26 septembre 2013, mais qui avait en fait été lancée le mois précédent – était la prochaine étape de l’évolution après la mise à jour de 2010 caféine et d’autres changements importants qui ont influencé la façon dont les utilisateurs répondent et s’engagent dans les résultats de recherche.

Hummingbird a marqué un énorme progrès dans la technologie de recherche de Google. Il a eu un impact sur environ 90 % des recherches dans le monde.

L’attention de Hummingbird s’est concentrée sur trois éléments clés :

Recherche conversationnelle

En utilisant le traitement du langage naturel, les résultats de la recherche pourraient récupérer des résultats de niche pour les requêtes tant au niveau de la tête que de la queue.

En étant capable d’évaluer l’intention d’une manière sémantique, Hummingbird voulait permettre aux utilisateurs de rechercher en toute confiance des sujets et des sous-sujets plutôt que de devoir concevoir des requêtes à l’aide de Google-fu.

Recherche humaine

Si vous avez utilisé un moteur de recherche dans les premiers temps de l’Internet, vous vous souviendrez qu’il pouvait être difficile de trouver ce que vous cherchiez lorsque vos connaissances sur un sujet particulier étaient insuffisantes.

Hummingbird a cherché à résoudre ce problème en se concentrant sur les synonymes et les sujets liés au thème.

Bien sûr, l’Angleterre n’a pas de président, mais elle a à la fois un chef d’État (monarque) et un chef de gouvernement (premier ministre), comme d’autres nations (la France a à la fois un chef d’État présidentiel et un premier ministre comme chef de gouvernement) mais différemment des États-Unis, où le président occupe les deux rôles.

En permettant aux gens de savoir ce qu’ils ne savent pas et en créant des résultats qui aident les utilisateurs à trouver ce qu’ils cherchent, Hummingbird a contribué à faire avancer Google d’un pas vers une plus grande humanité.

Les fondements de la recherche vocale

À mesure que le Colibri utilisait le contexte et l’intention de fournir des résultats qui correspondaient aux besoins de l’utilisateur, les résultats locaux devenaient plus précis.

Si vous cherchiez à trouver un grand restaurant vietnamien dans une ville américaine à l’époque, vous deviez choisir vos noms avec soin et éviter les expressions familières, sinon vous obteniez des résultats pour Ho Chi Minh Ville et Hanoi !

À première vue, ce sont par défaut de grandes villes pour la nourriture vietnamienne, mais est-ce bien ce que vous recherchiez au départ ? Bien sûr que non ! Parce que la “nourriture” est servie dans un “restaurant”.

La combinaison du traitement du langage conversationnel et de la compréhension de l’intention humaine basée sur les données de localisation signifie que ce que nous prenons pour acquis aujourd’hui est le résultat d’années de transformation du rêve de la recherche sémantique en réalité.

Améliorer la recherche locale

En utilisant la recherche sémantique et le traitement du langage naturel qui prennent en compte la façon dont les humains pensent, désirent et utilisent les moteurs de recherche pour trouver ce qu’ils cherchent, l’ancienne pratique consistant à parler aux mots clés du titre et des méta descriptions d’un site web commercial local est devenue un peu moins importante.

Cela signifie que la pratique de longue date consistant à spammer une page avec des mots clés et de faux noms d’entreprises a été affaiblie une fois de plus, bien que cette pratique soit encore utilisée (souvent avec succès) à ce jour.

Pour les pessimistes, il s’agissait d’une caractéristique considérée comme un bogue, ce qui a permis de blâmer l’algorithme pour avoir puni les entreprises qui ont utilisé des tactiques de valeur nominale pendant des années. Pour les optimistes, cela signifiait une chance d’utiliser plus de mots dans le dictionnaire, en précisant Qui/Quoi/Pourquoi/Où/Comment – comme le font les humains.

L’héritage du colibri Hummingbird

La mise à jour de Hummingbird a la réputation d’être le plus grand changement de jeu que Google ait fait lors de sa sortie.

Mais était-ce le cas ?

Cela dépend de la façon dont vous le regardez, et de ce qu’il a réellement fait pour les utilisateurs et le monde de la recherche organique.

La mise à jour elle-même n’a pas causé de dégâts aux SERPs comme l’avaient fait ses prédécesseurs Panda et Penguin, ni n’a été la première étape dans l’utilisation d’une approche liée aux données pour fournir des résultats fiables pour les requêtes. Ce n’était même pas la première étape importante dans l’amélioration de l’indexation des informations.

Le colibri n’a peut-être pas été le changement de mer que beaucoup lui ont attribué, mais cela ne signifie pas que son importance doive être diminuée.

Le Colibri s’est appuyé sur la caféine, la mise à jour du Knowledge Graph et l’abandon de l’idée de paternité, ce qui a abouti à ce que beaucoup considèrent comme une révision majeure de l’algorithme de base de Google plutôt qu’un ajout.

Google n’a pas remplacé le filtre à air du moteur de recherche. Il a remplacé l’ensemble du bloc moteur.

La volonté de Google de fournir des résultats qui répondent à l’aspect humain de l’intention de l’utilisateur s’est fait sentir tant au niveau des requêtes de tête que des requêtes à longue queue, et jusqu’à ce jour, lorsqu’un utilisateur cherche à tirer parti de “micro-moments” qui couvrent des sujets à faire/à connaître/à aller, le Colibri mérite sa juste part de remerciements.

Voila de quoi en apprendre plus afin de vous aider au avoir du trafic gratuit !

Un guide complet pour la mise à jour de Google Panda

Un guide complet pour la mise à jour de Google Panda

Panda est le nom officiel d’une mise à jour de l’algorithme de Google développée pour réduire la prévalence des contenus de faible qualité et de faible épaisseur dans les résultats de recherche, et pour récompenser les contenus uniques et convaincants.

Au moment du lancement de Panda, les plaintes des utilisateurs concernant l’influence croissante des “fermes de contenu” se multipliaient.

L’algorithme Panda de Google attribue aux pages un classement de qualité, utilisé en interne et modelé sur les classements de qualité humaine, qui est incorporé comme facteur de classement.

Les sites web qui se remettent de l’impact de Panda le font en réorganisant les pages dont le contenu est de faible qualité, en ajoutant de nouveaux contenus de haute qualité, en éliminant les mots de remplissage et au-dessus des annonces de pliage et, en général, en améliorant l’expérience de l’utilisateur en ce qui concerne le contenu.

Pourquoi Google a créé Panda

En 2010, la baisse de la qualité des résultats de recherche de Google et la montée du modèle économique de la “ferme de contenu” sont devenues un sujet qui revient sans cesse sur le tapis.

Comme Amit Singhal de Google l’a déclaré plus tard à Wired at TED, la mise à jour de “Caffeine” de fin 2009, qui a considérablement accéléré la capacité de Google à indexer rapidement les contenus, a également introduit des contenus “pas si bons” dans leur index. Matt Cutts, de Google, a déclaré à Wired que ce nouveau problème de contenu n’était pas vraiment un problème de spam, mais plutôt un problème de “Quel est le strict minimum que je puisse faire pour que ce ne soit pas du spam ?

a souligné ReadWriteWeb :

“À la fin de 2009, deux de ces fermes de contenu – Demand Media [of eHow infamy] et Answers.com – étaient fermement établies dans le top 20 des propriétés web aux États-Unis, selon les mesures de comScore. Demand Media est l’incarnation même d’une ferme de contenu et de loin le plus grand exemple d’une telle ferme, avec 7 000 contenus par jour… La société fonctionne selon une formule simple : créer une tonne de contenus de niche, pour la plupart peu inspirés, destinés aux moteurs de recherche, puis les rendre viraux par le biais de logiciels sociaux et gagner beaucoup d’argent grâce aux publicités”.

En janvier 2011, Business Insider a publié un titre qui dit tout : “L’algorithme de recherche de Google a été ruiné, il est temps de revenir à la conservation”.

Dans un autre article, ils ont souligné :

“La demande [les médias] est en train de faire le tour le plus intelligent en effectuant un arbitrage géant de l’écosystème Google. La demande passe des contrats avec des milliers de freelances pour produire des centaines de milliers de contenus de faible qualité, dont les sujets sont choisis en fonction de leur valeur de recherche, la plupart étant pilotés par Google. Parce que l’algorithme de Google pondère le contenu prolifique et constant par rapport au contenu de qualité, l’algorithme de Google place le contenu de la demande en haut des pages de résultats de leurs moteurs de recherche”.

Il ne fait aucun doute que de tels titres ont eu une influence majeure sur Google, qui a réagi en développant l’algorithme Panda.

Lancement de Google Panda Update

Panda a été introduit pour la première fois le 23 février 2011.

Le 24 février, Google a publié un article sur son blog à propos de cette mise à jour, et a indiqué qu’ils “ont lancé une amélioration algorithmique assez importante de notre classement, un changement qui a un impact notable sur 11,8 % de nos requêtes”. L’objectif explicite de la mise à jour était le suivant :

“Cette mise à jour vise à réduire le classement des sites de mauvaise qualité, c’est-à-dire des sites à faible valeur ajoutée pour les utilisateurs, qui copient le contenu d’autres sites web ou des sites qui ne sont tout simplement pas très utiles. Dans le même temps, elle permettra d’améliorer le classement des sites de haute qualité qui présentent un contenu original et des informations telles que des recherches, des rapports approfondis, des analyses réfléchies, etc.

The founder of Search Engine Land, Danny Sullivan, first called the update “Farmer”, although Google later revealed that internally it was called “Panda”, the name of the engineer who made the major breakthrough of the algorithm.

SearchMetrics and SISTRIX (among others) analyses of “winners and losers” revealed that the most affected sites were quite familiar to everyone in the SEO industry at the time. These sites included wisegeek.com, ezinearticles.com, suite101.com, hubpages.com, buzzle.com, articlebase.com, etc.

Notably, the eHow and wikiHow “content farms” did better after the update. Subsequent updates would also have hurt these more “acceptable” forms of content, with Demand Media losing $6.4 million in the fourth quarter of 2012.

The most obvious change in the SEO industry has been the impact of “article marketing”, in which SEO practitioners were publishing poor quality articles on sites such as ezinearticles.com to create links.

It also became clear that the most visited sites had a less attractive design, more intrusive advertising, exaggerated word count, low editorial standards, repetitive wording, poor search, and in general did not appear to be useful or trustworthy.

Ce que nous savons sur l’algorithme Panda

Lorsque Google a discuté du développement de l’algorithme avec Wired, Singhal a déclaré qu’ils ont commencé par envoyer des documents de test à des évaluateurs de qualité humaine à qui l’on posait des questions comme “Seriez-vous à l’aise de donner votre carte de crédit à ce site ? Seriez-vous à l’aise de donner des médicaments prescrits par ce site à vos enfants ?

Cutts a déclaré que l’ingénieur avait développé “un ensemble rigoureux de questions, tout de. “Considérez-vous que ce site fait autorité ? Serait-il acceptable que ce soit dans un magazine ? Ce site a-t-il des publicités excessives ?

Selon l’interview, ils ont ensuite développé l’algorithme en comparant différents signaux de classement avec les classements de qualité humaine. Selon Singhal, il s’agit de trouver un plan dans l’hyperespace qui sépare les bons sites des mauvais.

Singhal a ensuite publié les 23 questions suivantes comme questions directrices sur lesquelles l’algorithme était basé :

  1. Feriez-vous confiance aux informations présentées dans cet article ?
  2. Cet article est-il écrit par un expert ou un passionné qui connaît bien le sujet, ou est-il de nature plus superficielle ?
  3. Le site comporte-t-il des articles en double, se chevauchant ou redondants sur le même sujet ou sur des sujets similaires avec des variations de mots-clés légèrement différentes ?
  4. Seriez-vous à l’aise de donner les informations relatives à votre carte de crédit sur ce site ?
  5. Cet article comporte-t-il des erreurs d’orthographe, de style ou de fait ?
  6. Les sujets sont-ils motivés par les intérêts réels des lecteurs du site, ou le site génère-t-il du contenu en essayant de deviner ce qui pourrait être bien classé dans les moteurs de recherche ?
  7. L’article fournit-il un contenu ou des informations originaux, un reportage original, une recherche originale ou une analyse originale ?
  8. La page offre-t-elle une valeur substantielle par rapport à d’autres pages dans les résultats de recherche ?
  9. Quel est le degré de contrôle de la qualité du contenu ?
  10. L’article décrit-il les deux côtés d’une histoire ?
  11. Le site est-il une autorité reconnue sur son sujet ?
  12. Le contenu est-il produit en masse par ou sous-traité à un grand nombre de créateurs, ou réparti sur un vaste réseau de sites, de sorte que les pages ou sites individuels ne reçoivent pas autant d’attention ou de soin ?
  13. L’article a-t-il été bien édité, ou semble-t-il avoir été produit de façon négligée ou hâtive ?
  14. Pour une question liée à la santé, feriez-vous confiance aux informations de ce site ?
  15. Reconnaîtriez-vous ce site comme une source faisant autorité lorsqu’il est mentionné nommément ?
  16. Cet article fournit-il une description complète ou exhaustive du sujet ?
  17. Cet article contient-il une analyse perspicace ou des informations intéressantes qui dépassent l’évidence ?
  18. Est-ce le genre de page que vous voudriez mettre en signet, partager avec un ami ou recommander ?
  19. Cet article comporte-t-il une quantité excessive de publicités qui détournent l’attention du contenu principal ou interfèrent avec celui-ci ?
  20. Vous attendriez-vous à voir cet article dans un magazine imprimé, une encyclopédie ou un livre ?
  21. Les articles sont-ils courts, peu substantiels ou manquent de détails utiles ?
  22. Les pages sont-elles produites avec beaucoup de soin et d’attention aux détails plutôt qu’avec moins d’attention aux détails ?
  23. Les utilisateurs se plaindraient-ils lorsqu’ils verront des pages de ce site ?

C’est aussi une bonne idée de tenir compte de ce que les évaluateurs de la qualité humaine de Google ont été invités à prendre en considération. Cette citation sur les contenus de faible qualité est particulièrement importante :

Prenons cet exemple : La plupart des étudiants doivent rédiger des devoirs pour le lycée ou l’université. De nombreux étudiants prennent des raccourcis pour gagner du temps et économiser des efforts en faisant un ou plusieurs des points suivants :

  • Acheter des devoirs en ligne ou demander à quelqu’un d’autre d’écrire pour eux
    Inventer des choses
  • Rédaction rapide, sans brouillon ni révision
  • Remplir le rapport avec de grandes images ou d’autres contenus distrayants
  • Copier l’intégralité du rapport d’une encyclopédie ou paraphraser le contenu en changeant ici et là les mots ou la structure des phrases
  • En utilisant des faits connus de tous, par exemple, “l’Argentine est un pays. Les gens vivent en Argentine. L’Argentine a des frontières”.
  • Utiliser beaucoup de mots pour communiquer uniquement des idées ou des faits de base, par exemple “Les pandas mangent du bambou”. Les pandas mangent beaucoup de bambou. Le bambou est la meilleure nourriture pour un panda”.

En mars 2011, SEO By The Sea a identifié Biswanath Panda comme étant l’ingénieur probable derrière l’algorithme homonyme. Un article de Biswanath a aidé l’auteur à détailler comment les algorithmes d’apprentissage automatique pouvaient être utilisés pour faire des classifications précises sur le comportement des utilisateurs sur les pages d’atterrissage.

Bien que l’article ne porte pas sur l’algorithme de Panda, l’auteur, avec l’implication de son homonyme et le sujet traité, suggère que Panda est également un algorithme d’apprentissage automatique.

La plupart des acteurs de l’industrie de l’optimisation pour les moteurs de recherche ont maintenant conclu que Panda fonctionne en utilisant l’apprentissage automatique pour faire des prédictions précises sur la façon dont les humains évalueraient la qualité du contenu. Ce qui est moins clair, ce sont les signaux qui auraient été incorporés dans l’algorithme d’apprentissage machine afin de déterminer quels sites étaient de mauvaise qualité et lesquels ne l’étaient pas.

La récupération de Google Panda

Le chemin qui mène au rétablissement du panda est à la fois simple et difficile.

Puisque Panda stimule les performances des sites dont le contenu est classé comme étant de haute qualité, la solution consiste à améliorer la qualité et l’unicité de votre contenu.

Bien que cela soit plus facile à dire qu’à faire, il a été prouvé à maintes reprises que c’est exactement ce qu’il faut pour se rétablir.

Felix Tarcomnicu a récupéré un site en supprimant un contenu de faible qualité et de faible épaisseur qui n’avait jamais donné de bons résultats (en fonction des taux de rebond, des taux de sortie, du temps passé sur le site), en nettoyant la grammaire et en ajoutant un contenu de haute qualité.

Alan Bleiweiss a aidé un site à se rétablir en l’aidant à réécrire le contenu sur 100 pages.

WiredSEO a aidé un site à se remettre de Panda en changeant ses directives sur le contenu généré par les utilisateurs pour encourager des biographies plus spécifiques et uniques, plutôt que celles copiées sur d’autres sites. Les utilisateurs du site avaient auparavant utilisé des biographies provenant d’autres sites, mais WiredSEO les a encouragés à modifier leur biographie pour poser des questions spécifiques, ce qui a permis d’obtenir des biographies uniques qui n’étaient pas dupliquées.

SEOMaverick a aidé un site à se remettre sur pied en désindexant les pages à l’emporte-pièce, en combinant plusieurs pages sur le même sujet en une seule, et en mettant à jour toutes les pages restantes avec une meilleure copie et une meilleure structure.

Les mythes de Google Panda

Panda n’a rien à voir avec les contenus dupliqués

Le mythe le plus répandu à propos du Panda est qu’il s’agit d’un contenu dupliqué. John Mueller a précisé que le duplicate content est indépendant de Panda. Les employés de Google ont souligné à de nombreuses reprises que Panda encourage les contenus uniques, mais cela va plus loin que d’éviter les doublons. Ce que Panda recherche, ce sont des informations véritablement uniques qui apportent une valeur unique aux utilisateurs.

Mueller a également déclaré à un blogueur que la suppression des doublons techniques était en fait une très faible priorité, et qu’ils devraient plutôt “réfléchir à ce qui rend votre site web différent par rapport au site de tête absolu de votre niche”.

La source de cette confusion provient probablement du questionnaire de Singhal, avec la question “Le site comporte-t-il des articles en double, se chevauchant ou redondants sur des sujets identiques ou similaires avec des variations de mots-clés légèrement différentes ?

Il ne s’agit pas de duplication technique, mais de redondance de contenu, où le contenu nouveau est plus récompensé que le contenu dérivé.

Devriez-vous supprimer du contenu pour résoudre les problèmes liés au panda ?

Celui-ci est un peu délicat car Google a souvent été une source d’informations contradictoires.

Vous voyez, en 2011, Michael Wyszomierski de Google a en fait dit aux webmasters de supprimer le contenu mince s’ils étaient touchés par Panda :

“Notre récente mise à jour est destinée à réduire le classement des sites de mauvaise qualité. La chose la plus importante à faire pour les webmasters est donc de s’assurer que leurs sites sont de la meilleure qualité possible. Nous avons examiné divers signaux pour détecter les sites de mauvaise qualité. Il faut garder à l’esprit que les personnes effectuant des recherches sur Google ne veulent généralement pas voir des contenus superficiels ou mal écrits, des contenus copiés d’autres sites web ou des informations qui ne sont tout simplement pas très utiles. En outre, il est important que les webmasters sachent que le contenu de mauvaise qualité d’une partie d’un site peut avoir un impact sur le classement d’un site dans son ensemble. C’est pourquoi, si vous pensez avoir été touché par ce changement, vous devez évaluer tout le contenu de votre site et faire de votre mieux pour améliorer la qualité globale des pages de votre domaine. Le fait de supprimer les pages de mauvaise qualité ou de les déplacer vers un autre domaine pourrait vous aider à améliorer votre classement pour le contenu de meilleure qualité.

Maintenant, en 2017, on entend quelque chose d’un peu différent.

a déclaré Gary Illyes, de Google, sur Twitter : “Nous ne recommandons pas de supprimer le contenu en général pour Panda, mais plutôt d’ajouter plus de trucs highQ”.

John Mueller a dit la même chose sur YouTube :

“Globalement, la qualité du site devrait être sensiblement améliorée pour que nous puissions faire confiance au contenu. Parfois, le contenu d’un site comme celui-ci est très mince, il y a peut-être du contenu que vous regroupez à partir d’autres sources, il y a peut-être du contenu généré par les utilisateurs qui soumettent des articles de mauvaise qualité, et ce sont toutes les choses que vous pourriez vouloir regarder et dire ce que je peux faire ; d’un côté, si je veux garder ces articles, peut-être les empêcher d’apparaître dans les recherches. D’autre part, si je veux conserver ces articles, je peux les empêcher d’apparaître dans les recherches. Peut-être utiliser une étiquette de non-indexation pour ces articles”.

La réponse de Google a toujours été de ne pas indexer ou d’améliorer le contenu, de ne jamais le couper complètement, à moins que cela ne soit aussi un geste pour la marque.

Un porte-parole de Google a déclaré directement à TheSEMPost : “Au lieu de supprimer ces pages, votre objectif devrait être de créer des pages qui n’entrent pas dans cette catégorie : des pages qui offrent une valeur unique pour vos utilisateurs qui feraient confiance à votre site à l’avenir lorsqu’ils le verront dans les résultats”.

Ainsi, en général, la suppression de contenu doit être envisagée en termes d’image de marque globale de votre site, plutôt qu’un geste qui supprimera une pénalité Panda.

Panda et contenu généré par les utilisateurs

Panda ne cible pas spécifiquement les contenus générés par les utilisateurs. Bien que Panda puisse cibler les contenus générés par les utilisateurs, il a tendance à avoir un impact sur les sites qui produisent des contenus de faible qualité, comme les messages d’invités ou les forums remplis de spam.

Ne supprimez pas votre contenu généré par les utilisateurs, qu’il s’agisse de forums, de commentaires de blog ou de contributions d’articles, simplement parce que vous avez entendu dire qu’il était “mauvais” ou commercialisé comme une solution “à l’épreuve de Panda”. Considérez plutôt cela sous l’angle de la qualité.

De nombreux sites de haut niveau s’appuient sur le contenu généré par les utilisateurs – de nombreux sites perdraient donc un trafic et un classement importants simplement parce qu’ils ont supprimé ce type de contenu. Même les commentaires faits sur un billet de blog peuvent le faire classer et même obtenir un extrait.

Le nombre de mots n’est pas un facteur

Le comptage des mots est un autre aspect du Panda qui est souvent mal compris par les professionnels du référencement. De nombreux sites font l’erreur de refuser de publier tout contenu à moins qu’il ne dépasse un certain nombre de mots, avec 250 mots et 350 mots souvent cités. Google vous recommande plutôt de réfléchir au nombre de mots dont le contenu a besoin pour réussir pour l’utilisateur.

Par exemple, il existe de nombreuses pages dont le contenu principal est très limité, mais Google estime que la qualité de la page est suffisante pour que la requête soit prise en compte. Dans un cas, le contenu principal ne contenait que 63 mots, et il aurait été difficile pour beaucoup d’entre eux d’écrire sur le sujet d’une manière non spammeuse qui aurait duré plus de 350 mots. Il vous suffit donc d’avoir suffisamment de mots pour répondre à la question.

Si le comptage des mots peut être un moyen pratique d’identifier les pages qui pourraient être minces pour certains sites, ce n’est pas un facteur spécifiquement utilisé par Panda, selon M. Mueller.

Les liens et publicités des affiliés ne sont pas directement ciblés

Les sites affiliés et les sites “made for AdSense” sont souvent plus souvent touchés par Panda que les autres sites, mais ce n’est pas parce qu’ils sont spécifiquement ciblés. Un porte-parole de Google a déclaré à TheSEMPost que

“Un exemple extrême est celui d’un site dont la fonction première est de diriger les utilisateurs vers d’autres sites via des annonces ou des liens affiliés, dont le contenu est largement disponible sur Internet ou est produit à la hâte, et qui est explicitement conçu pour attirer les visiteurs des moteurs de recherche”.

Mueller a dit la même chose :

“Mais en même temps, nous voyons beaucoup d’affiliés qui ne sont en fait que des paresseux qui copient et collent les flux qu’ils reçoivent et les publient sur leurs sites web. Et ce genre de contenu de moindre qualité, de contenu mince, est quelque chose qu’il nous est très difficile de montrer dans les recherches”.

En d’autres termes, ces sites sont visités pour les mêmes raisons : ils ne fournissent pas un contenu convaincant, unique et attrayant.

Le SEO technique ne joue aucun rôle dans le Panda

Panda ne s’intéresse qu’au contenu, et non pas à l’utilisation des balises H1 ou à la vitesse de chargement de la page pour les utilisateurs.

Cela dit, le référencement technique peut être une partie importante du référencement et du classement en général, il ne faut donc pas l’ignorer.

Mais le référencement technique n’a pas d’impact direct sur Panda en particulier.

Chronologie

Panda possède presque certainement le registre public le plus complet de dates publiques pour ses mises à jour associées. Cela s’explique en partie par le fait que Panda a été exécuté en dehors de l’algorithme de base de Google et que les scores de contenu n’ont donc été affectés qu’à la date des nouvelles mises à jour de Panda ou à une date proche.

Cela a continué jusqu’au 11 juin 2013, lorsque Cutts a déclaré à SMX Advanced que, bien que Panda n’ait pas été directement intégré dans l’algorithme de base de Google, ses données étaient mises à jour mensuellement et déployées lentement au cours du mois, mettant fin aux impacts abrupts sur l’ensemble du secteur associés aux mises à jour de Panda.

La convention de numérotation est quelque peu déroutante.

On pourrait s’attendre à ce que les mises à jour de base de l’algorithme de Panda correspondent à 1.0, 2.0, 3.0 et 4.0, mais aucune mise à jour n’est appelée 3.0, et 3.1 n’était pas, rétrospectivement, une mise à jour de base de Panda.

Les rafraîchissements de données, qui mettaient à jour les résultats de recherche mais pas l’algorithme de Panda lui-même, étaient généralement numérotés comme on pouvait s’y attendre pour les mises à jour de logiciels (3.2, 3.4, 3.5, etc.). Cependant, il y a eu tellement de rafraîchissements de données pour la version 3 de l’algorithme que, pendant un certain temps, cette convention de dénomination a été abandonnée et l’industrie s’y référait simplement par le nombre total de mises à jour de Panda (à la fois les rafraîchissements et les mises à jour de base).

Même après avoir pris connaissance de cette convention de dénomination, il n’est toujours pas clair si toutes les mises à jour mineures de Panda n’étaient que des rafraîchissements de données ou si certaines d’entre elles incorporaient également de nouveaux signaux.

Quoi qu’il en soit, la chronologie des mises à jour de Panda est, au moins, bien connue et se présente comme suit :

  • 1.0 : 23 février 2011. La première itération d’une mise à jour de l’algorithme, alors sans nom, a été introduite (12 % des requêtes ont été touchées), ce qui a choqué le secteur de l’optimisation pour les moteurs de recherche et de nombreux grands acteurs, tout en mettant effectivement fin au modèle commercial de “ferme de contenu” tel qu’il existait à l’époque.
  • 2.0 (#2) : 11 avril 2011. La première mise à jour de l’algorithme de base de Panda. Cette mise à jour a intégré des signaux supplémentaires, comme les sites que les utilisateurs de Google avaient bloqués.
  • 2.1 (#3) : 9 mai 2011. L’industrie a d’abord appelé cela Panda 3.0, mais Google a précisé qu’il s’agissait juste d’un rafraîchissement des données, comme ce serait le cas pour les mises à jour 2.x à venir.
  • 2.2 (#4) : 21 juin 2011
  • 2.3 (#5) : 23 juillet 2011
  • 2.4 (#6) International : 12 août 2011. Panda a été déployé à l’échelle internationale pour tous les pays anglophones et pour les pays non anglophones, à l’exception du Japon, de la Chine et de la Corée.
  • 2.5 (#7) et Flux liés au panda : 28 septembre 2011. Suite à cette mise à jour, le 5 octobre 2011, Cutts a annoncé qu’il “s’attendait à un certain flux lié au panda dans les prochaines semaines”. Les dates de flux confirmées sont le 3 octobre et le 13 octobre.
  • 3.0 (#8) : le 19 octobre 2011. Google a ajouté de nouveaux signaux dans l’algorithme Panda et a également recalculé l’impact de l’algorithme sur les sites web.
  • 3.1 (#9) : 18 novembre 2011. Google a annoncé un rafraîchissement mineur, qui a eu un impact sur moins de 1 % des recherches.
  • 3.2 (#10) : 18 janvier 2012. Google a confirmé qu’un rafraîchissement des données a eu lieu à cette date.
  • 3.3 (#11) : 23 février 2012. Un rafraîchissement des données.
  • 3.4 (#12) : 23 mars 2012
  • 3.5 (#13) : 19 avril 2012
  • 3.6 (#14) : 27 avril 2012
  • 3.7 (#15) : 8 juin 2012. Un rafraîchissement des données que les outils de classement suggèrent a été plus percutant que d’autres mises à jour récentes.
  • 3.8 (#16) : 25 juin 2012
  • 3.9 (#17) : 24 juillet 2012
  • 3.9.1 (#18) : 20 août 2012. Une mise à jour relativement mineure qui a marqué le début d’une nouvelle convention de dénomination attribuée par l’industrie.
  • 3.9.2 (#19) : 18 septembre 2012
  • n°20 : 27 septembre 2012. Une mise à jour relativement importante de Panda qui a également marqué le début d’une nouvelle convention de dénomination, après que l’industrie ait reconnu la maladresse de la convention de dénomination 9.x.x, et ait reconnu que les mises à jour de ce qu’ils ont appelé Panda 3.0 pourraient continuer à se produire pendant très longtemps.
  • 21 : 5 novembre 2012
  • 22 : 21 novembre 2012
  • 23 : 21 décembre 2012. Un rafraîchissement des données un peu plus percutant.
  • n°24 : 22 janvier 2013
  • n°25 : le 14 mars 2013. Cette mise à jour a été annoncée à l’avance, et les outils suggèrent qu’elle a eu lieu à peu près ce jour-là. Cutts semblait suggérer que ce serait la dernière mise à jour avant que Panda ne soit incorporé directement dans l’algorithme de Google, bien qu’il soit apparu plus tard que ce n’était pas tout à fait ce qui se passait.
  • “Danse” : 11 juin 2013. Ce n’est pas la date d’une mise à jour, mais le jour où Cutts a précisé que Panda ne serait pas directement intégré dans l’algorithme, mais plutôt qu’il serait mis à jour tous les mois avec des déploiements beaucoup plus lents, plutôt que les rafraîchissements abrupts de données du passé.
  • “Récupération” : 18 juillet 2013. Cette mise à jour semble avoir été un ajustement pour corriger une activité trop sévère de Panda.
  • 4.0 (#26) : 19 mai 2014. Une mise à jour majeure de Panda (impactant 7,5 % des requêtes) a eu lieu à cette date, et la plupart des acteurs du secteur pensent qu’il s’agissait d’une mise à jour de l’algorithme de Panda, et pas seulement d’un rafraîchissement des données, surtout à la lumière des déclarations de Cutts sur la lenteur des déploiements.
  • 4.1 (#27) : 23 septembre 2014. Une autre mise à jour majeure (impactant 3 à 5 % des requêtes) qui inclut quelques changements de l’algorithme de Panda. En raison de la lenteur des déploiements, la date exacte n’est pas claire, mais l’annonce a été faite le 25 septembre.
  • 4.2 (#28) : 17 juillet 2015. Google a annoncé une mise à jour de Panda qui prendrait des mois. En raison de la lenteur du déploiement, on ne sait pas exactement quelle a été l’ampleur de l’impact ni quand il s’est produit. Il s’agissait de la dernière mise à jour confirmée de Panda.
  • Incorporation de l’algorithme de base : 11 janvier 2016. Google a confirmé que Panda avait été incorporé dans l’algorithme de base de Google, manifestement dans le cadre du lent déploiement du 17 juillet 2015. En d’autres termes, Panda n’est plus un filtre appliqué à l’algorithme de Google après qu’il ait fait son travail, mais est incorporé comme un autre de ses signaux de classement de base. Il a toutefois été précisé que cela ne signifie pas que le classificateur Panda agit en temps réel.