Pinterest + SEO : Comment votre trafic gratuit va Exploser ?

Pinterest + SEO : Comment votre trafic gratuit va Exploser ?

En 2016, si vous nous aviez dit que Pinterest allait devenir la prochaine façon de se classer sur les moteurs sociaux, nous aurions dit que vous étiez fou. Avancez jusqu’en 2018 et nous voilà, dépendants et dépendants de Pinterest. Que nous est-il arrivé à Aston Social ?

Pinterest a définitivement fait un long chemin. D’un média social en pleine expansion pour les planches de mariage et les vêtements, Pinterest est maintenant la nouvelle tendance dans le marketing des médias sociaux que certains propriétaires d’entreprises sont encore réticents à utiliser.

Nous ne pouvons pas reprocher aux entreprises de penser que Pinterest n’est peut-être pas aussi fructueux qu’on le dit, mais les faits suivants ne sont pas réels et c’est avec ces faits que l’on constate que Pinterest a effectivement pris le dessus sur les médias sociaux.

Maintenant, notre Formation Pinterest aide des centaines d’entreprise a exploser leurs trafic organique (SEO).

Vous vous demander comment obtenir du trafic gratuit sur votre boutique shopify ? nous avons une solution !

Fait 1 : Le marché cible que tout le monde utilise.

Saviez-vous que plus de 100 millions de personnes sont sur Pinterest ? C’est vraiment beaucoup et ce nombre s’accompagne de catégories d’utilisateurs : femmes, hommes, mariées, gastronomes, photographes, médecins, avocats, vous nommez la cible et Pinterest l’a certainement.

Fait 2 : Les Pinners ont d’abord engagé des entreprises sur Pinterest.

Les tout premiers pinners sont ceux qui ont eu l’idée d’accompagner les entreprises. Cela signifie que le marché exige vraiment que les entreprises soient présentes sur Pinterest et que vous n’aurez pas l’impression de forcer le client à s’engager avec vous. C’est l’inverse.

Fait 3 : Les épingles sont éternelles.

Comme la plupart des experts des médias sociaux le soulignent, tout ce que vous mettez en ligne reste en ligne. Qu’il soit indiqué que la publication ne durera que quelques heures ou que vous ayez déjà supprimé les messages ou non, les messages sont éternels.

Pour les entreprises, c’est une bonne chose, car l’effet marketing est vraiment important, et même éternel.

Fait 4 : L’intérêt affecte le trafic de votre site web, que vous le vouliez ou non.

Quelle que soit la manière dont nous le disons, l’intérêt affecte le trafic du site web et c’est maintenant la réalité du monde. En tant que chef d’entreprise, vous devriez donc veiller à vous donner, à vous et à votre entreprise, au moins une chance de vous faire des adeptes.

Conseil de pro : Il n’y a vraiment rien à perdre en matière de médias sociaux. La création d’un compte est gratuite. Nous ne le répéterons jamais assez. Tout ce qu’un propriétaire d’entreprise doit pouvoir faire, c’est créer un compte et donner quelques minutes de son temps avec cette plateforme, elle grandit avec vous.

Avec Pinterest, les propriétaires d’entreprises n’ont rien à perdre et tout à gagner et pour nous, c’est une grande opportunité qui ne doit pas passer.

Savez-vous comment utiliser stratégiquement Pinterest pour améliorer le classement SEO de votre site web ? Vous voulez augmenter le trafic de votre site web ? Voulez-vous créer un suivi en ligne actif pour votre entreprise ? Chez seoarmy, nous vous aidons à trouver une solution à vos problèmes, en particulier lorsqu’il s’agit de vos besoins en matière de médias sociaux.

mise à jour correspondance exacte de domaines de Google

mise à jour correspondance exacte de domaines de Google

L’EMD, ou Exact Match Domain update, était une mise à jour de l’algorithme de Google de 2012 qui visait exactement ce qu’il est nommé : les noms de domaine à correspondance exacte. 12

L’intention derrière cette mise à jour n’était pas de cibler exclusivement les noms de domaine à correspondance exacte, mais de cibler des sites avec la combinaison suivante de tactiques de spam : des domaines à correspondance exacte qui étaient également des sites de mauvaise qualité avec un contenu mince.

Il n’y avait pas vraiment d’autres surnoms pour cette mise à jour. Elle a été remplacée par la mise à jour de l’EMD, ou Exact Match Domain.

La principale faiblesse de ces sites était le fait que les SEO achetaient des domaines avec des phrases de mots clés correspondant exactement, construisaient un site, mais avaient un contenu extrêmement mince avec peu ou pas de valeur. C’était extrêmement facile à faire. Tellement facile, en fait, que c’était presque comme prendre des bonbons à un bébé en termes de gains de référencement facile.

Avant la mise à jour, Matt Cutts de Google a averti l’industrie que cela allait faire l’objet d’une future mise à jour dans une vidéo du webmaster publiée le 7 mars 2011.

Le Dr. Pete Meyers de Moz a publié un article juste avant la publication de la mise à jour sur les EMD, demandant si les EMD étaient en déclin. Les données qui l’accompagnent montrent une forte diminution de l’influence que les domaines de correspondance exacte ont sur les classements réels.

La conclusion finale après la mise à jour est que, dans l’ensemble, les domaines non .com ont subi une punition plus sévère que leurs homologues .com, qui étaient des concurrents plus forts et ont mieux survécu à la mise à jour.

Cutts a annoncé la mise à jour de l’EMD sur Twitter le 28 septembre 2012 :

matt cutts parle des exacte match domain

La mise à jour de l’EMD devait être effectuée périodiquement

Danny Sullivan de SearchEngineLand a écrit que Google a confirmé que l’algorithme EMD sera exécuté périodiquement, de sorte que ceux qui ont été touchés restent filtrés ou ont une chance d’échapper au filtre. Ceci est également en place pour que Google puisse attraper ce qu’ils ont pu manquer lors de la dernière mise à jour.

Les sites de spamming et les contenus légers ont été très visités

L’objectif de cette mise à jour était de cibler les sites de spam et les sites ayant une quantité importante de contenu mince n’ayant que peu de valeur au-delà des mots de correspondance exacts dans le domaine. Les sites ayant une plus forte reconnaissance de la marque et un contenu de haute qualité étaient moins susceptibles d’être touchés.

Et si vous étiez touché par la mise à jour de l’EMD ?

Si vous avez été touché par la mise à jour et que vous vouliez vous en remettre, le consensus général sur le plan d’attaque approprié était très similaire à celui de Panda

  • Vous voudriez vous débarrasser et/ou améliorer le contenu de mauvaise qualité. Veuillez noter : Google a officiellement recommandé que l’amélioration du contenu de mauvaise qualité soit la meilleure solution, par opposition à la suppression totale des pages de mauvaise qualité.
  • Un audit du profil des liens serait utile pour identifier les liens entrants spammeurs qui ont des signaux de confiance faibles, et s’engager dans une campagne de remédiation/suppression des liens pour les supprimer.
  • Ensuite, révisez votre routine pour ajouter chaque jour un nouveau contenu personnalisé et étonnant à votre site.
  • Et enfin : engagez-vous dans une campagne d’acquisition de liens SEO pour accroître la confiance et l’autorité de votre site web. Après la suppression des mauvais liens, il sera nécessaire de poursuivre l’acquisition.

Les sites touchés par cette mise à jour présentaient-ils un modèle ?

Le Dr. Pete de Moz a publié une étude détaillée sur cette mise à jour. D’après ses mesures des personnes touchées, environ 41 EMD sont tombés dans le top 10, avec un changement net d’environ 36 domaines après l’entrée de 5 nouveaux EMD dans le top 10). Un exemple de site qui est tombé dans le top 10 avait un domaine de correspondance exacte. Ce n’était pas exactement un site de spam, mais un site assez décent dont le seul crime a été de choisir un domaine riche en mots-clés plutôt qu’un domaine de marque.

La majorité des sites de ce mélange semblent avoir davantage de signaux qui communiquent une qualité inférieure – des choses comme une faible autorité, l’acquisition de liens spammy, l’utilisation agressive de mots-clés, etc. – et ils semblaient être classés simplement parce qu’ils avaient un EMD.

Il n’y avait pas de modèle clair discernable par les données du Dr. Pete, et donc la plupart des SEO ont été obligés de supposer que de multiples facteurs non identifiés publiquement par Google étaient pesés par eux.

Mises à jour de Google depuis 2012

Les domaines de correspondance exacte aident-ils ou nuisent-ils au classement Google ? John Mueller pèse le pour et le contre.

Mythes et idées fausses sur la mise à jour de l’EMD

Domaines de correspondance exacte Faits et mythes

Malgré la position publique de Google concernant la mise à jour de l’EMD qui comble la faille de l’optimisation des noms de domaine à correspondance exacte, certaines idées fausses subsistent quant au fait que l’achat de domaines à correspondance exacte fonctionne réellement.

Eh bien, c’est le cas, jusqu’à un certain point.

La plupart des webmasters ont aujourd’hui de bonnes intentions lorsqu’ils achètent un nom de domaine à dénomination exacte. Ils ont des normes de qualité plus élevées lorsqu’il s’agit de créer des sites web. Ils ont appris de leurs erreurs, et il n’y aura pas toujours des situations où ces sites sont construits juste pour le bien de l’EMD.

Cet auteur pense que la situation où vous avez un vrai chapeau gris SEO allant après les domaines de correspondance exacte avec l’enthousiasme est quelque chose qui est extrêmement rare de nos jours. Le filtre a été mis en place, (presque) tout le monde a appris de ses erreurs, et la plupart (sinon tous) les webmasters veulent rester du bon côté de Google. Cet auteur pense qu’il y a moins de malentendus de nos jours qu’autrefois.

À l’époque, la plus grande erreur était de croire que Google s’en prenait à tous les domaines de correspondance exacte. Ils avaient en fait déclaré qu’ils cherchaient des domaines de faible qualité, et tous les domaines de correspondance exacte n’ont donc pas été affectés par cette mise à jour. Il est important de définir la distinction ici, car cette idée fausse persiste encore.

Comment la mise à jour de l’EMD a-t-elle modifié le référencement ?

Qu’est-ce que la mise à jour de l’EMD a changé en matière de référencement ?

Même en 2012, l’utilisation de domaines à correspondance exacte n’a jamais été une technique valable selon les directives de Google pour les webmasters. C’était considéré comme un chapeau gris, parce que vous manipuliez techniquement les résultats de recherche même si cela n’a jamais été clairement un chapeau noir.

En raison de la prévalence de cette technique à cette époque, Google a estimé qu’il était nécessaire de combler cette lacune.

Panda a tenté de résoudre de nombreux problèmes concernant les sites dont le contenu était de mauvaise qualité. Mais lorsqu’il s’agissait de faire correspondre exactement des domaines, Panda ne faisait pas un très bon travail.

L’arrivée de la mise à jour de l’EMD signifiait que les OMR ne pouvaient pas simplement acheter un site avec des domaines à correspondance exacte, créer un contenu de mauvaise qualité et le laisser s’arrêter là pour un jour.

Cette mise à jour signifiait que le référencement allait devenir plus complexe, pas aussi facile, et tout le monde savait que les gains de classement facile pour les clients étaient terminés. Maintenant, il fallait tout prévoir : le référencement des pages, le marketing de contenu, l’acquisition de liens, tout. Ce ne serait pas aussi simple que de créer un site instantanément et d’en tirer des avantages presque immédiats en termes de classement.

En fin de compte, cela a été de bon augure pour un meilleur référencement, car les webmasters se sont plaints à l’époque qu’un avantage injuste était accordé aux domaines à correspondance exacte. Heureusement, dans ce cas, Google a écouté, et l’optimisation des moteurs de recherche dans son ensemble est de meilleure qualité. Cela signifie que les webmasters seront moins enclins à construire des sites de mauvaise qualité uniquement pour le bénéfice du classement.

La mise à jour Payday de Google

La mise à jour Payday de Google

En 2013, la principale mise à jour de l’algorithme qui a fait parler d’elle a été la mise à jour du prêt sur salaire. Cette mise à jour a été importante et a eu un impact sur environ 0,3 % des requêtes aux États-Unis.

A l’époque, Matt Cutts, responsable de l’équipe webspam de Google, avait déclaré que l’impact avait atteint 4 % pour les requêtes turques. Le raisonnement est que ce type de requêtes est associé à un plus grand nombre de spams.

Il s’agit de l’une des mises à jour les plus importantes de Google, qui cible les requêtes spammeuses principalement associées à des industries louches comme les prêts à taux d’intérêt et les prêts sur salaire super élevés, le porno et d’autres requêtes fortement spammées.

Les réductions ont indiqué que les prêts sur salaire, les casinos et les sites de consolidation de dettes seraient touchés. D’autres niches fortement spammées comme les produits pharmaceutiques, les casinos, et d’autres domaines financiers comme les hypothèques et les assurances ont également été touchées.

Lorsque Cutts a annoncé ce changement dans une vidéo du webmaster en mai 2013, il a déclaré que “certaines requêtes qui ont tendance à être de nature spam, comme les prêts sur salaire ou certaines requêtes liées à la pornographie, étaient un peu moins susceptibles d’être une cible pour l’équipe spam de Google”. Il a déclaré que “Google est plus susceptible de se pencher sur ce domaine dans un avenir proche”.

Deux choses ont été affectées par les mises à jour des prêts sur salaire : les requêtes spammées et les sites spammées.

Plus précisément, Cutts a déclaré que Payday Loan 2.0 ciblait les sites spammeurs, et que 3.0 ciblait les requêtes spammeuses.

La mise à jour de l’algorithme de Payday Loan a été déployée sur une période de 1 à 2 mois. La première mise à jour de l’algorithme de prêt sur salaire a eu lieu en juin 2013. La mise à jour 2.0 a eu lieu le 16 mai 2014, et la mise à jour 3.0 a suivi peu après, en juin 2014.

La mise à jour 3.0 de Payday Loan a également inclus une meilleure protection contre les attaques SEO négatives.

Les sites contrefaits ont également été inclus dans la mise à jour. Toutefois, M. Cutts a indiqué qu’il s’agissait d’un effet secondaire et non de l’intention initiale derrière la mise en œuvre de la mise à jour.

Recherches affectées par la mise à jour 2.0 de l’algorithme Payday :

La mise à jour de Payday Loan 2.0 était davantage basée sur des liens et se concentrait sur un volume de recherche élevé + des mots-clés CPC dans lesquels le potentiel de spam est susceptible d’être extrêmement élevé

Selon M. Cutts, les recherches concernées aux États-Unis ne représentent qu’environ 0,3 %.

Le 11 juin 2013, Cutts a officiellement annoncé la mise à jour 1.0 de Payday Loan sur Twitter :

mise a jour payday
mise a jour payday

Comment le référencement a-t-il évolué depuis la mise à jour Payday ?

Plus que jamais, les professionnels du référencement ont commencé à accorder plus d’importance aux directives pour les webmasters de Google, et plus de risques ont été associés aux techniques de référencement en chapeau gris/noir.

La morale de l’histoire ?

Ne pas enfreindre les règles de Google pour les webmasters. Ne soyez pas méchant et ne soyez pas prédateur. Utilisez toujours des stratégies holistiques, centrées sur le chapeau blanc, pour le contenu, l’expérience utilisateur et l’acquisition de liens.

Avant cette mise à jour, le référencement était largement axé sur des manipulations massives. Bien que la manipulation se produise encore aujourd’hui, et qu’il existe certaines techniques pour passer sous le radar de Google, il est plus facile que jamais de se faire prendre si vous ne faites pas attention.

La meilleure idée ? Ne faites pas ces techniques sur votre site en premier lieu, et assurez-vous que la technique que vous envisagez n’est pas vraiment contraire aux directives pour les webmasters de Google.

L’auteur a souvent vu quelqu’un parler d’une technique qui faisait partie des lignes directrices de Google à l’intention des webmasters, et Google a poursuivi cette technique, alors qu’elle n’a jamais vraiment fait partie de ces lignes directrices.

Regardez avant de sauter, et vérifiez toujours vos sources avant de mettre en œuvre des techniques de référencement qui peuvent autrement être nuisibles à vos efforts de référencement en général.

Mise à jour de Google Pigeon

Mise à jour de Google Pigeon

L’une des mises à jour de l’algorithme ayant le plus grand impact de Google a été mise en œuvre dans l’intérêt des résultats de recherche locaux, et les entreprises locales ont généralement constaté les effets de la mise à jour dans les données d’analyse de leur site web.

Les utilisateurs de Google ont certainement vu l’impact, eux aussi, et cela s’est traduit par une expérience de recherche différente, et finalement meilleure, en termes d’entreprises locales et d’informations relatives à ces entreprises.

Estimée avoir été lancée le 24 juillet 2014 ou aux alentours de cette date – et considérée comme la mise à jour “Pigeon” peu après par Search Engine Land – cette mise à jour de l’algorithme de recherche de Google visait à offrir de meilleurs résultats de recherche locale en récompensant les entreprises locales qui ont une forte présence organique avec une meilleure visibilité dans la recherche traditionnelle, similaire à la visibilité qu’une entreprise peut avoir vue précédemment dans Google Maps.

L’idée selon laquelle les petites entreprises dont l’emplacement est pertinent au niveau local (pensons aux “magasins familiaux”) méritent autant d’apparaître dans la recherche que les autres entreprises de la région, indépendamment de leur taille ou de la popularité de leur marque, est tout à fait logique si l’entreprise bien classée dans les résultats fournit ce que la requête de recherche suggère.

Ce qui a changé exactement avec la mise à jour Google Pigeons

Afin d’améliorer ses capacités de recherche locale, Google a amélioré des centaines de signaux de classement pour Google Search et Google Maps. Cela signifie également que les paramètres de classement de Google en fonction de la localisation et de la distance ont été améliorés afin de mieux fournir aux utilisateurs des résultats locaux et pertinents en fonction de la proximité.

Et cela a été le cas, pour la plupart, surtout à long terme.

La recherche locale s’est considérablement améliorée depuis juillet 2014, date du lancement initial de Pigeon, mais il est également largement admis qu’une série de mises à jour de Pigeon ont été utilisées depuis lors. Et cela expliquerait certains des hoquets du début du lancement de la mise à jour de l’algorithme qui ont finalement été corrigés.

Un exemple populaire, juste après le lancement initial de Pigeon, est celui du site de réservation d’hôtels Expedia qui est apparu dans le carrousel de l’hôtel comme s’il s’agissait d’un hôtel ordinaire de New York accueillant des clients. Il y a également eu des problèmes avec des propriétés spammy utilisant des mots-clés à correspondance exacte pour tromper l’algorithme local et faire en sorte que leurs pages soient mieux classées dans les résultats, y compris dans le “pack local” de Google (plus d’informations à ce sujet plus tard).

Le premier lancement de Pigeon a donné lieu à un certain nombre d’autres pépins, mais ils ont été rapidement corrigés. La première mise à jour de Pigeon par rapport au lancement initial semble avoir eu lieu vers le 1er août 2014 et a permis de remédier à certains des problèmes.

Et c’est pourquoi il n’est pas exagéré de penser que plusieurs mises à jour de Pigeon ont été lancées depuis le déploiement initial de juillet 2014. Il est courant qu’un changement majeur d’algorithme soit suivi d’une série de mises à jour.

Pigeon a été largement cité comme la mise à jour d’algorithme local la plus impactante jamais réalisée, et certainement la plus impactante depuis la mise à jour de Google Venise en 2012.

Ce que Google a dit sur Pigeon

Google est correcteur sur la plupart des mises à jour. Pigeon n’est pas différent.

Après avoir fait quelques commentaires généraux sur le lancement initial de Pigeon et sur ce qui a été spécifiquement (en quelque sorte) mis à jour, il n’avait rien à dire sur les mises à jour qui ont très probablement suivi.

Après avoir déclaré que la mise à jour de Pigeon était plus profondément ancrée dans les capacités globales de recherche sur le web de Google, y compris les nombreux signaux de classement qu’il utilise dans la recherche sur le web et d’autres caractéristiques importantes qui ont amélioré l’expérience globale de recherche (graphique de connaissances, corrections orthographiques, synonymes, variations, etc.

Google a déclaré à Barry Schwartz qu’il ne confirmerait ni ne refuserait aucune des mises à jour de Pigeon après le lancement initial et qu’il “ne détaillera probablement pas tous les changements apportés aux algorithmes de recherche locale au fur et à mesure”.

Il est donc presque garanti qu’il y a eu une mise à jour, et il est également assez probable qu’il y ait eu plus d’une mise à jour de l’algorithme Pigeon au cours des dernières années.

Changements de Pigeon sur les SERPs de Google
Avant Pigeon, les résultats de recherche sur Maps étaient sensiblement différents de ceux de la recherche traditionnelle. L’expérience de l’utilisateur était également très différente.

Désormais, les résultats de recherche et l’esthétique de la page de résultats du SERP (Search Engine Results) pour la recherche sur Google Search et Google Maps ont une apparence et une fonctionnalité plus uniformes (voir ci-dessous).

Recherche traditionnelle :

mise a jour google pigeon
mise a jour google pigeon

Outre l’amélioration de l’intégration des signaux de classement local, Google a également mis à jour la manière dont il traite les “annuaires” locaux axés sur les consommateurs, comme Yelp, Home Advisor, etc.

Avant le lancement de Pigeon, une présentation interne à Yelp a fait l’objet d’une fuite, puis a été publiée, détaillant la manière dont Yelp estimait que Google maltraitait le principal site de révision et favorisait son propre contenu dans la recherche. Yelp a affirmé qu’il était surclassé par les critiques de Google même lorsqu’un utilisateur inclut spécifiquement ” yelp ” dans ses requêtes de recherche, ce qui n’aurait clairement aucun sens en tant que recherche impartiale.

Après le lancement de Pigeon, Yelp et d’autres annuaires locaux basés sur le contenu des utilisateurs et les avis des clients ont été traités plus favorablement et mieux classés dans les recherches, comme ils auraient dû l’être.

Changements de pigeon dans le pack local

L’une des différences les plus notables pour les utilisateurs qui recherchent des entreprises locales dans les résultats de Google est le changement du pack local.

Avant Pigeon, le pack local incluait 10 ou 7 entreprises dans la répartition spéciale de la recherche traditionnelle, offrant ainsi plus de possibilités aux entreprises de bien se classer et d’apparaître sur la page 1 du SERP.

Un an après le lancement de Pigeon, le nombre d’entreprises du pack local est passé à ce qu’il est aujourd’hui en 2017, le pack 3 (voir ci-dessous).

mise a jour google pigeon
mise a jour google pigeon

L’objectif de Pigeon, confirmé par Google, était de faire en sorte que la recherche locale ressemble le plus possible à la recherche organique traditionnelle, tout en se comportant de manière similaire.

Les effets immédiats que les entreprises locales ont pu ressentir dépendent de leur positionnement avant Pigeon, et de la manière dont elles ont pu bénéficier ou souffrir du bouleversement des classements locaux.

Les effets plus permanents peuvent avoir été une augmentation ou une diminution des visites de référencement sur le web, ainsi qu’une augmentation ou une diminution des KPI comme les pistes et les conversions (comme “Get Directions” ou “Call Now”).

Non seulement Google a modifié le classement de nombreuses entreprises et leur visibilité, mais il visait également à donner aux utilisateurs les informations qu’ils souhaitaient en encore moins d’étapes. L’intention de Pigeon était de servir les résultats les plus pertinents et les plus utiles aux utilisateurs dans un cadre local en favorisant ceux qui se trouvent dans un certain rayon et la pertinence de la recherche d’un utilisateur.

Fondamentalement, Google pouvait désormais fournir directement aux utilisateurs les informations recherchées sur une entreprise locale spécifique plus rapidement et plus facilement que jamais auparavant. Mais ces utilisateurs risquent de ne jamais arriver sur votre site si Google leur propose des informations essentielles (numéro de téléphone, adresse, horaires, etc.), ne les obligeant plus à chercher plus loin.

Google a “aidé” les utilisateurs en leur offrant les informations dont ils avaient besoin en moins de clics, mais cela s’est souvent fait au détriment du trafic de ces sites.

Il ne fait aucun doute que ce type de changement va se poursuivre – et pas seulement dans un cadre local – où Google gratte essentiellement le contenu des marques et le sert directement aux utilisateurs sur le SERP Google. C’est là que la recherche se dirige depuis des années.

Si votre marque est toujours bien classée, et que les clients continuent de trouver votre entreprise et les informations pertinentes qui y sont liées, est-ce toujours une victoire marketing ?

À ce stade, il semble que ce soit notre seul choix.

[Colibri] La mise à jour de Google “Hummingbird”

[Colibri] La mise à jour de Google “Hummingbird”

google colibri
google colibri

Depuis l’automne 2013, l’algorithme Google Colibri “Hummingbird” a laissé son empreinte sur les résultats de recherche pour des milliards de requêtes et a permis aux utilisateurs finaux de faire un petit pas de plus vers une page de résultats de moteur de recherche plus intime et personnelle.

Il est facile d’oublier que les micro-moments actuels et le fait que Google réponde à des questions contextuelles constituent un changement massif par rapport aux 20 premières années de recherche, où des mots clés spécifiques dictaient les résultats plutôt que de prendre en considération l’ensemble de la requête.

Pour bien saisir l’importance de la mise à jour du Hummingbird, voyons comment se déroulait la recherche avant la sortie du Hummingbird, ce pour quoi il a été conçu et pourquoi il a vraiment changé nos vies.

Comment était la recherche avant colibri

À l’été 2013, les bases du référencement étaient encore plus ou moins les mêmes qu’aujourd’hui.

Nous vivions encore à une époque de “grand contenu” et d’encouragement à gagner des liens (plutôt qu’à les acheter ou à comploter pour les obtenir), et l’objectif était toujours de pouvoir répondre aux questions qui intéressaient les gens.

Cependant, le paysage des résultats de recherche était radicalement différent, même un an avant le lancement de Hummingbird.

2012 : Les débuts du graphique des connaissances

Un an avant Hummingbird, les résultats de la recherche vous donnaient exactement ce que vous aviez mis – que ce soit un seul mot (“games”), une longue chaîne de caractères (“who is the mayor of Burlingame, CA ?”), ou même une abréviation bien connue (“NBA”).

Il y avait là un piège. Les résultats étaient souvent à la traîne, ne fournissant aucune réponse approfondie ou ressource sur la question.

L’analyse de l’intention était toujours un défi pour Google, surtout lorsqu’il s’agissait de distinguer deux requêtes similaires mais différentes.

Un bon exemple concerne la musique et le théâtre. Si je demande maintenant à Google de me parler du “Globe”, j’obtiens des informations sur le célèbre Globe Theatre associé à William Shakespeare.

Si vous aviez fait cette recherche en 2010, vous auriez peut-être reçu des informations sur les globes terrestres ou la page d’accueil de l’initiative “Global Learning and Observation to Benefit the Environment” (GLOBE).

Heureusement, c’est à cela que ressemble la recherche aujourd’hui.

Mais disons que je ne suis pas un grand fan des acteurs, et que ce que je cherche vraiment, c’est des informations sur une chanson de 1991. Aujourd’hui, je peux simplement affiner ma recherche et Google récupérera les informations qui répondent à ma question.

Si cela avait été le cas il y a cinq ans, il y a de fortes chances que des erreurs de clics et des requêtes supplémentaires aient été nécessaires pour obtenir les bons résultats centrés sur Big Audio Dynamite II.

Mieux encore, ce grand saut dans la compréhension du contexte a fait que lorsque vous cherchiez une réponse précise, Google vous la donnait.

Ne posez pas de question stupide comme “Quelle voiture conduit Jésus”, sinon vous risquez de recevoir une mauvaise réponse (et une leçon d’anachronisme).

Lorsqu’il a été annoncé en mai 2012, l’idée générale derrière le Knowledge Graph était qu’en fournissant des informations avec le contexte “Paris Hilton Lodging”, vous recevriez des informations sur la disponibilité des hôtels Hilton sur la Seine (plutôt que des résultats centrés autour de l’héritière d’un nom similaire).

Ce qui rend le Knowledge Graph remarquable, c’est qu’il est le signe avant-coureur du désir du Colibri de répondre aux questions d’une manière “de choses et non de ficelles”, la prochaine étape logique dans une longue série de mises à jour du géant de la recherche.

2011-2014 : Google Authorship

Au début de Hummingbird, on répondait aux questions du mieux possible compte tenu du contenu disponible.

Alors que le Knowledge Graph avait été lentement mis en place pendant plus d’un an avant Hummingbird, il est également apparu à une époque où Google expérimentait le pointage des résultats de recherche vers des contenus écrits par des sources de confiance sur la base de son brevet Agent Rank de 2009, qui, associé à un balisage de données structuré, nous a donné un bref programme connu sous le nom de Google Authorship.

La mise à jour de la paternité de Google a été mise en ligne pendant la même période que Google+, permettant aux créateurs de contenu d’utiliser un système interne pour relier les éditeurs à leurs publications. Le fait de pouvoir identifier les associations sur la base des profils Google+ et de la balise rel=”author” a permis d’identifier plus facilement les auteurs et de gagner la confiance de ceux qui ont produit des contenus ayant fait l’objet d’un engagement accru.

Pour savoir pourquoi la paternité d’un article est progressivement tombée en désuétude en 2014, il faudrait un article à part entière. La plupart des experts du secteur et des initiés de Google soulignent les faibles taux d’adoption, les changements marginaux dans le comportement des utilisateurs finaux sur les SERP, et le fait que Google teste toujours les raisons pour lesquelles la paternité s’est effacée.

Quels étaient les objectifs de la mise à jour de Google Hummingbird ?

La mise à jour du Hummingbird – qui a été annoncée le 26 septembre 2013, mais qui avait en fait été lancée le mois précédent – était la prochaine étape de l’évolution après la mise à jour de 2010 caféine et d’autres changements importants qui ont influencé la façon dont les utilisateurs répondent et s’engagent dans les résultats de recherche.

Hummingbird a marqué un énorme progrès dans la technologie de recherche de Google. Il a eu un impact sur environ 90 % des recherches dans le monde.

L’attention de Hummingbird s’est concentrée sur trois éléments clés :

Recherche conversationnelle

En utilisant le traitement du langage naturel, les résultats de la recherche pourraient récupérer des résultats de niche pour les requêtes tant au niveau de la tête que de la queue.

En étant capable d’évaluer l’intention d’une manière sémantique, Hummingbird voulait permettre aux utilisateurs de rechercher en toute confiance des sujets et des sous-sujets plutôt que de devoir concevoir des requêtes à l’aide de Google-fu.

Recherche humaine

Si vous avez utilisé un moteur de recherche dans les premiers temps de l’Internet, vous vous souviendrez qu’il pouvait être difficile de trouver ce que vous cherchiez lorsque vos connaissances sur un sujet particulier étaient insuffisantes.

Hummingbird a cherché à résoudre ce problème en se concentrant sur les synonymes et les sujets liés au thème.

Bien sûr, l’Angleterre n’a pas de président, mais elle a à la fois un chef d’État (monarque) et un chef de gouvernement (premier ministre), comme d’autres nations (la France a à la fois un chef d’État présidentiel et un premier ministre comme chef de gouvernement) mais différemment des États-Unis, où le président occupe les deux rôles.

En permettant aux gens de savoir ce qu’ils ne savent pas et en créant des résultats qui aident les utilisateurs à trouver ce qu’ils cherchent, Hummingbird a contribué à faire avancer Google d’un pas vers une plus grande humanité.

Les fondements de la recherche vocale

À mesure que le Colibri utilisait le contexte et l’intention de fournir des résultats qui correspondaient aux besoins de l’utilisateur, les résultats locaux devenaient plus précis.

Si vous cherchiez à trouver un grand restaurant vietnamien dans une ville américaine à l’époque, vous deviez choisir vos noms avec soin et éviter les expressions familières, sinon vous obteniez des résultats pour Ho Chi Minh Ville et Hanoi !

À première vue, ce sont par défaut de grandes villes pour la nourriture vietnamienne, mais est-ce bien ce que vous recherchiez au départ ? Bien sûr que non ! Parce que la “nourriture” est servie dans un “restaurant”.

La combinaison du traitement du langage conversationnel et de la compréhension de l’intention humaine basée sur les données de localisation signifie que ce que nous prenons pour acquis aujourd’hui est le résultat d’années de transformation du rêve de la recherche sémantique en réalité.

Améliorer la recherche locale

En utilisant la recherche sémantique et le traitement du langage naturel qui prennent en compte la façon dont les humains pensent, désirent et utilisent les moteurs de recherche pour trouver ce qu’ils cherchent, l’ancienne pratique consistant à parler aux mots clés du titre et des méta descriptions d’un site web commercial local est devenue un peu moins importante.

Cela signifie que la pratique de longue date consistant à spammer une page avec des mots clés et de faux noms d’entreprises a été affaiblie une fois de plus, bien que cette pratique soit encore utilisée (souvent avec succès) à ce jour.

Pour les pessimistes, il s’agissait d’une caractéristique considérée comme un bogue, ce qui a permis de blâmer l’algorithme pour avoir puni les entreprises qui ont utilisé des tactiques de valeur nominale pendant des années. Pour les optimistes, cela signifiait une chance d’utiliser plus de mots dans le dictionnaire, en précisant Qui/Quoi/Pourquoi/Où/Comment – comme le font les humains.

L’héritage du colibri Hummingbird

La mise à jour de Hummingbird a la réputation d’être le plus grand changement de jeu que Google ait fait lors de sa sortie.

Mais était-ce le cas ?

Cela dépend de la façon dont vous le regardez, et de ce qu’il a réellement fait pour les utilisateurs et le monde de la recherche organique.

La mise à jour elle-même n’a pas causé de dégâts aux SERPs comme l’avaient fait ses prédécesseurs Panda et Penguin, ni n’a été la première étape dans l’utilisation d’une approche liée aux données pour fournir des résultats fiables pour les requêtes. Ce n’était même pas la première étape importante dans l’amélioration de l’indexation des informations.

Le colibri n’a peut-être pas été le changement de mer que beaucoup lui ont attribué, mais cela ne signifie pas que son importance doive être diminuée.

Le Colibri s’est appuyé sur la caféine, la mise à jour du Knowledge Graph et l’abandon de l’idée de paternité, ce qui a abouti à ce que beaucoup considèrent comme une révision majeure de l’algorithme de base de Google plutôt qu’un ajout.

Google n’a pas remplacé le filtre à air du moteur de recherche. Il a remplacé l’ensemble du bloc moteur.

La volonté de Google de fournir des résultats qui répondent à l’aspect humain de l’intention de l’utilisateur s’est fait sentir tant au niveau des requêtes de tête que des requêtes à longue queue, et jusqu’à ce jour, lorsqu’un utilisateur cherche à tirer parti de “micro-moments” qui couvrent des sujets à faire/à connaître/à aller, le Colibri mérite sa juste part de remerciements.

Voila de quoi en apprendre plus afin de vous aider au avoir du trafic gratuit !