Ne pas mélanger les torchons et les serviettes

Dans le monde idéal de la recherche d'information, quand les intérêts commerciaux n'existaient pas dans l'index, les moteurs de recherche pouvaient utiliser des algorithmes simplistes pour retourner des résultats de recherche de grande qualité.

Aujourd'hui ce n'est plus la même histoire. Les intérêts commerciaux présents dans les résultats de recherche sont un souci constant pour les moteurs de recherche. En fait, des milliers de référenceurs manipulent les paramètres propres au référencement pour prendre position en tête de résultats.

La pire espèce de résultat est le "webspam" qui consiste à présenter des pages sans contenu de valeur, mais qui redirige vers d'autres pages, principalement commerciales. Le contenu de ces pages cachées peut être simplement une liste de lien, du contenu repiqué ailleurs, du contenu optimisé pour des mots clés, etc...

Le jeu du chat et de la souris

Les moteurs essayent de les retirer de l'index, mais c'est un peu le jeu du chat et de la souris. Naturellement, les possibilités de gain monétaire sont un attrait non négligeable. Cela encourage à tenter de profiter des faiblesses algorithmiques; même si cela devient de moins en moins facile.

Si cette facette du référencement vous intéresse, il faut creuser le sujet du Black Hat SEO.
D'autres formes de spam peuvent être moins évidentes, concernant des sites qui ne sont pas forcément des "tricheurs", mais qui proposent du contenu de basse qualité, visant à nourrir les moteurs plutôt qu'intéresser les humains.
Le but avoué est ensuite de faire cliquer le visiteur sur de la publicité ou des liens d'affiliation.

Les moteurs préféreraient aussi ne pas indexer ces sites. En fait, les moteurs de recherche focalisent sur le nettoyage en profondeur de tout type de manipulation et ils espèrent, un jour, proposer des algorithmes organiques parfaitement pertinents pour déterminer le classement des résultats de recherche.
Malgré les progrès des moteurs et Google en particulier, nous sommes encore très loin d'un Web de qualité remarquable. La majorité des pages Web est encore très médiocre à tous niveaux.

L'étau se resserre

La situation est devenue un peu plus complexe aujourd'hui avec l'apparition de nouveaux filtres, qui ne se contentent pas de combattre les véritables spammeurs, mais s'attaquent aux sites qui ont été simplement un peu trop agressifs dans leur stratégie de référencement.

Ce guide n'explique pas comment manipuler les résultats de recherche afin d'obtenir un bon positionnement, mais plutôt sur la façon de concevoir un site que les moteurs de recherche et les utilisateurs vont être ravis de voir positionné en permanence dans les meilleurs résultats de recherche grâce à leur pertinence, la qualité de contenu et leur ergonomie.

Continuer la lecture