Pour proposer des résultats pertinents dans son moteur de recherche, Google utilise des algorithmes. Ils en existent officiellement une vingtaine avec des fonctionnalités plus ou moins spécifiques. Il y a :

  • Les algorithmes dit « globaux », vont permettre de classer de manière pertinente l’ensemble des résultats présents dans l’index du moteur de recherche.
  • Les algorithmes dit « locaux », vont vous proposer des résultats autour de votre lieu de recherche (résultats de proximité).

Nous allons nous intéresser dans cet article aux algorithmes globaux, plus spécifiquement à 3 d’entre-eux qui ont un impact important sur le classement. Il s’agit de Pingouin, Panda et Colibri.

Colibri, Panda, et Pingouin des noms d’animaux pour désigner les algorithmes Google


Pingouin (Penguin)

Cet algorithme déployé en avril 2012 agit en temps réel, il repère le référencement abusif ou forcé des webmasters pour mettre en avant leur site, par rapport à leurs concurrences, qui va à l’encontre des lignes directrices pour les webmasters (Google’s Webmaster Guidelines). Depuis la version 4.0, il pénalise les pages concernées et non plus le site web en entier.

Penguin va vérifier la pertinence d’une page web par rapport à son contenu à ses liens et procédera au déclassement voire la désindexation de son moteur de recherche des contenus sur-optimisés.

Pingouin algorithme google

Dans un premier temps, il analyse la quantité et la qualité des mots clefs, contenu dans une page web et dans sa méta description. C’est le « keyword stuffing ou remplissage de mot-clé ».

Il va ensuite s’intéresser aux versions que possèdent une page web. En effet, le site web peut générer des versions différentes pour une même page, en fonction du profil de l’internaute qui consulte le site. Partant de ce principe, lorsque que le robot d’exploration consulte la page, il va en réalité parcourir une page sur-optimisée, créée spécifiquement pour lui. C’est le cloaking

Lorsque l’algorithme parcourt la page d’un site, il va déterminer la pertinence du contenu lors de la recherche d’un internaute sur son moteur. S’il juge d’une mauvaise expérience utilisateur, la page web sera soit positionné plusieurs rangs après, ou supprimée de son index.

Puis, il parcourt les liens présents dans la page web pour en vérifier leurs qualités et leurs pertinences. Il va ainsi détecter les spams. La technique de ce type de référencement naturel est appelée hacking. C’est un excellent tremplin lorsqu’un site web très populaire et de qualité pointe un site, il bénéficie ainsi d’une remontée dans les résultats de moteur de recherche.

Donnez du sens à vos liens (et évitez Penguin !) Vidéo SEO Abondance

Donnez du sens à vos liens  (Vidéo SEO Abondance)


Panda

Déployé en février 2011, il analyse les contenus de faible qualité d’un point de vue éditorial. Il semblerait que son action soit en temps réel, mais ce n’est pas certain. Il est à priori lancé manuellement.

Panda analyse d’abord l’intégralité d’un site en vérifiant la pertinence, la cohérence et les similitudes des pages et ou des articles entre eux.

Panda algorithme Google

Ensuite, si un blog comporte beaucoup d’articles avec un contenu inférieur à 300 mots (c’est la limite basse de la longueur d’un article, que Google considère pour qu’il puisse susciter l’intérêt à un internaute pour qu’il trouve l’Information recherchée). Il y a peu de chance que l’algorithme le considère.

Même chose, si le blog est un blog « fourre-tout » dont le seul but est de se référencer sur tous les sujets possibles et s’il contient des publicités (ferme de contenu), l’ours blanc et noir ne sera vraiment pas content.

Et encore, comme vous le savez, les algorithmes se comportent comme des humains. De ce fait si l’article est rempli de fautes d’orthographe, il y a fort à parier que panda ne termine pas la lecture.

Enfin, il compare les pages web entre elles pour trouver celles qui ont les contenus dupliqués, le plagia. Comme Google cherche sans cesse à améliorer l’expérience utilisateur de son moteur de recherche, les contenus identiques ne seront pas affichés dans ses résultats.

Colibri (Hummingbird)

Déployé en août 2013, il parcourt vos pages pour y analyser votre style d’écriture, la manière dont vous utilisez la langue dans laquelle vous rédigez vos pages, vos articles à la recherche de synonymes, de termes connexes, des chants lexicaux et la sémantique.

Lorsque qu’un internaute effectue une recherche depuis un ordinateur, il rédige généralement sa recherche comme il parle. C’est d’autant plus vrai lorsque l’on « parle » à son téléphone.

Colibri algorithme google

Cette requête composée de plusieurs mots clef (longue traine).

« Comment faire … »

Il est donc essentiel, d’être le plus proche de l’internaute dans sa rédaction.

Colibri va analyser le sens de la requête puis en s’appuyant sur l’historique personnel de navigation et les recherches mondiales, il va vous afficher des prédictions, puis un résultat qui vous ressemble.

L’ordre des mots n’a pas d’importance pour lui (dans une certaine limite de sens) et nous pouvons le constater en pleine action, il va de lui-même exclure des mots « terme manquant : mot »

De manière plus précise, il va analyser 3 types d’intentions :

  • La recherche d’une information sur une entreprise, c’est l’intention de transaction.
  • La recherche d’une information sur un site institutionnel, c’est l’intention de navigation.
  • La recherche sur une personne ou la préparation d’un gâteau, c’est l’intention d’information.

Nous venons de décrire les 3 principaux algorithmes de Google, qui agissent dans la pertinence des résultats. Lorsqu’un internaute effectue une recherche dans le moteur de recherche Google. Il en existe d’autres qui ont des fonctionnalités plus techniques ou complémentaires. Nous les aborderons lors d’un prochain article.