La nouvelle stratégie de Google pour lutter contre le spam

Stratégie référencement Google Dernière mise à jour le 15 mars 2013 à 10h44

Ça se confirme en ce moment sur la toile, Google change de plus en plus les règles. Le moteur de recherche numéro 1 mondial l’a bien compris, les référenceurs sont intelligents, actifs et prolifiques. Dans la guerre qui se déroule depuis plusieurs années entre lui et les SEO, on peut dire que ces derniers ont toujours eu plusieurs longueurs d’avances. Pour pallier cela, Google fait preuve d’imagination et de subtilité. Les équipes de Matt Cutts ont su observer les comportements ennemis pour mieux riposter. Résultat, Google brouille les pistes avec l’objectif de troubler son ennemi…

Google Panda

Le principe du classement de Google est simple. Afin de savoir si un site est important, on évalue sa popularité sur l’Internet en observant tout simplement qui parle de lui. Par qui, j’entends quels sites en prenant en compte divers critères comme la thématique, la popularité, la volumétrie, … En gros, plus il y a de sites qui parlent d’un autre site, plus ce dernier a l’air d’être “cool”. Ayant très bien compris ce principe, les malins petits SEO ont alors créé des fermes de contenu.

On en reparlera plus tard dans un article plus précis, mais rapidement, une ferme de contenu représente un ou plusieurs sites dont le contenu est inutile. Ce contenu a bien souvent été généré automatiquement, parfois manuellement pour celles de “meilleure qualité”, et n’apporte aucun intérêt à l’utilisateur. Souvent même, il ne veut rien dire car constitué via des techniques de scrapping. L’unique but de ses fermes de contenus est de créer des sites factices, gigantesques sources de liens faciles.

Du fait que Google et la sémantique ne font pas encore un, nombre de SEO ont revêtu le chapeau noir : le “Black Hat”. Ces derniers pensaient pouvoir se permettre de manipuler les SERP en créant des fermes de contenus, des splogs, en spammant les blogs et annuaires, … Bref, les méthodes ne manquent pas ! Cela a été vrai pendant longtemps, ça l’est d’ailleurs toujours je pense, mais beaucoup moins. Même si Google ne détecte certainement pas encore ce genre de sites totalement automatiquement, il y a toujours le Spam Report et les Quality Raters qui sont là pour l’y aider.

Afin de contrer les techniques de fermes de contenus, de scrapping et autres, Google Panda a été lancé début 2011. A la suite de son lancement, de nombreux updates ont vu le jour.

En plus des sites visant uniquement à améliorer le référencement d’autres sites, un autre type de site a été impacté : les comparateurs de prix. Si l’on réfléchit bien, ce genre de site n’est bien souvent rien d’autre qu’un gros script de scrapping qui effectue un classement en fonction des prix. Aucun contenu original donc…

Google Pingouin

Il faut croire que les équipes de Google aiment les animaux noir et blanc puisqu’après Google Panda, Google Pingouin a fait son apparition. Dans la lignée de son grand frère, le Pingouin a eu pour but de lutter contre le webspam. Le principe, observer des signaux comme le taux d’ancres similaires, le ratio de liens nofollow/dofollow, … Lorsque Google Panda a majoritairement impacté des sites non qualitatifs, Google Penguin lui a touché tout le monde. En effet, cet algorithme a pénalisé tout site utilisant des techniques de manipulation des résultats de recherche. Entre autre, il a su détecter avec plus ou moins de réussite les liens factices créés en masse, même de façon manuelle.

De nombreux sites de communiqués de presses et digg like ont été pénalisés par le pingouin. Par effet de ricochet, les sites ayant massivement utilisé ces plateformes ont perdu du trust aux yeux de Google et se sont vu écarter des SERP. Certains estiment que 65% des SEO ont été touchés par cet algorithme.

Pour le moment, une des clés pour sortir d’une pénalité de Google Pingouin serait de diluer les liens utilisant des ancres optimisées afin de faire baisser le ratio de similarité des ancres.

Google le malicieux

Le passe temps numéro 1 des référenceurs, c’est le checking de positions. Pour cela, il existe de nombreuses solutions, gratuites et payantes. Tout SEO qui se respecte se doit de vérifier la progression de son travail et donc de vérifier son positionnement. Or, depuis plusieurs mois, les SERP sont instables. On obtient des résultats différents selon les Data Center que l’on observe, d’un jour à l’autre on peut se retrouver en 3e puis en 12e position, … Comme beaucoup le disent, les SERP font le yoyo.

Certains ont pensé que Google était simplement à la masse dans un premier temps, puis après l’arrivée de Pingouin, il s’est dit que ces fluctuations étaient l’effet de la prise en compte de certains signaux… Or, la vérité a éclatée il y a peu, Google se joue des SEO ! Sûrement lassé de toujours avoir quelques métros de retard, Google a décidé de la jouer au plus malin ! En effet, la nouvelle tactique du moteur de recherche est de semer volontairement le trouble dans le positionnement d’un site qu’il soupçonne d’utiliser des techniques non conformes aux guidelines. En faisant cela, il s’attend bien évidemment à ce que le SEO qui gère le site agisse. Si des modifications conséquentes et suspectes sont apportées durant cette phase de yoyo, alors c’est une confirmation. Le site doit être pénalisé. Sinon, c’est que le site est à priori clean.

Donc, lorsque vous lisez que pour sortir de Pingouin, la solution miracle et de faire ci et ça et puis ça aussi… Prenez-le avec des pincettes car Big G vous surveille ! Il attend que vous fautiez pour vous prendre sur le fait et vous pénaliser ensuite.

Pour en savoir d’avantage sur cette nouvelle approche de Google, je vous conseille cet article de SEO by the sea, en Anglais, et pour ceux qui sont fâchés avec la langue de ShakeSpeare, vous pouvez toujours consulter la version de GasyMagnifik.

La fin des haricots pour les chapeaux

C’est la fin des chapeaux, ou la fin des haricots pour les chapeaux. Bref, on a beaucoup catégorisé les référenceurs en White Hat, Grey Hat et Black Hat. Les changements fréquents de Google risquent fort de mettre fin à ces couleurs de chapeaux pour ne faire place qu’à la toile ! Un monde où des personnes créent des sites et tentent de les rendre populaires sans utiliser de méthodes trop violentes.

Dans le futur, les référenceurs frôleront sûrement avec le borderline, mais ne se risqueront peut être plus autant à franchir les limites. Si on veut un site qui tient la route dans le temps, mieux vaut miser sur le contenu et la récupération de liens via ce biais. En effet, la meilleure façon d’obtenir des liens de qualité reste de créer un véritable intérêt pour les utilisateurs, de façon à ce qu’ils partagent ce contenu.

Utiliser une faille pour augmenter sa visibilité sur l’Internet fonctionnera à tous les coups, puisque c’est une faille. Mais tôt ou tard, une faille se comble. Et même s’il y aura toujours des failles, les pénalités imputées lors des correctifs de failles peuvent parfois être définitives.

La nouvelle stratégie de Google pour lutter contre le spam, 4.7 out of 5 based on 3 ratings

Réagissez à cet article

Données obligatoires