Panda : révolutionnaire du SEO ou simple farce ?

La pénalité Panda par GoogleUn lien que j’ai fait passer sur Twitter a interpellé de nombreuses personnes. Il s’agit d’un éventail des tarifs pratiqués pour la rédaction de contenu en France.

Au-delà de la valeur du contenu, quels sont les enjeux actuels de la fameuse qualité revendiquée par le Panda de Google ?

Contenu en or ou en foin

Aujourd’hui, un feuillet peut coûter de 5 à 500€, donc difficile de se raccrocher à un cadre strict. Les tarifs de rédaction Web 2012 que j’ai partagé est sans appel sur la réalité des prix qui sont derrière un contenu prétendu de qualité.

Pourtant, c’est parfaitement logique qu’un texte de taille identique puisse coûter d’une poignée à quelques centaines d’euros.

Je ne vais pas m’étendre sur l’expérience, le temps passé et les frais d’un rédacteur professionnel en France qui va conduire des recherches pour rédiger un feuillet qui ait le standard pour figurer dans une publication réputée. De nos jours, je vois même passer des services où un certain niveau de promotion est assigné à ce contenu, donc 500€ pour 250 mots ne m’étonne pas du tout. Ou alors un rédacteur qualifié pourrait bosser pour moins de 50€/heure en France et nous serions devant un réel problème. En dehors des frontières hexagonales, c’est la jungle aux bas salaires qui permettent de tarifer 10 à 100 fois moins cher.

Maintenant, vous connaissez tous les filons pour trouver des textes à moins de 10€. Après tout, peu importe puisque ce n’est pas en contenu dupliqué et c’est parfaitement lisible. Cela serait vraiment idiot de dépenser 500€ quand je peux m’en tirer avec 5. Google veut du contenu, alors publions beaucoup pour pas cher !

En passant, ce même calibre de rédacteurs qui étaient payés 5$ + 25% des clics dans les fermes de contenu n’ont pas chômé longtemps puisque c’est la même espèce qui travaille dans les coulisses d’une plate-forme d’achat de contenu au rabais.

J’avais déjà exprimé ce sentiment dans mon billet « l’invasion des fermes de contenu » où j’explique que le Google Text (contenu destiné purement aux moteurs de recherche) a maintenant accentué sa propagation dans le Web de l’ère post-Panda. Parmi les meilleurs exemples, voir les sites e-commerce qui transforment leurs fiches produits en pseudo-Wikipedia rassis.

Google et la qualité

Juger de la qualité d’un contenu, au-delà de son taux de duplicate, ainsi qu’un respect minimum des règles de grammaire et d’orthographe, demeure l’enjeu.

Partant du principe qu’un moteur est idiot puisqu’il ne comprend pas ce qu’il lit, je veux bien que l’arrivée de Google Panda prétende juger de cette qualité, mais dans la réalité c’est toujours la même soupe qui est servie à tort et à travers. Les sanctions de Google n’ont pas vu surgir des sites remarquables à la place des comparateurs, agrégateurs et autres tombés au combat. D’autres ont pris les positions laissées  vacantes, mais rien de notable n’a changé.

D’ailleurs, si Google devait être vraiment sévère au sujet de la qualité, resterait il grand chose au sein de ses résultats de recherche ?

Lors de mon dernier podcast, j’ai partagé mon sentiment troublé à propos de ce filtre nouvelle génération. Après avoir traité plusieurs cas de sites griffés par Google l’été dernier, je vois bien des faiblesses latentes, mais ce n’est pas non plus outrageant.

Mon problème se pose plutôt par rapport aux conseils prodigués par Google afin de rentrer dans les clous. Pour être clair, je ne vois toujours pas comment ce moteur pourrait faire autrement que se baser majoritairement sur des évaluations humaines afin de dresser les listes de sites flaggés. Je ne dis pas non plus que l’algo a laissé la place à l’humain, mais l’arrivée du Machine Learning  ne me contente pas comme excuse pour transformer tout d’un coup Google en moteur capable de comprendre.

Je suis encore plus étonné quand Google annonce fièrement que les validations algorithmiques sont en parfaite corrélation avec les évaluations des Quality Raters.
Non seulement Google aurait intégré le Machine Learning, mais en plus c’est devenu plus pertinent que toutes les expériences scientiques dans le domaine.

Étrange tout de même lorsqu’on sait comment le moteur est finalement bricolé depuis 1996.

Parmi les hypothèses, certaines vont jusqu’à suggérer que les listes de sites compilées, majoritairement manuellement, débouchent sur les fameuses mises à jour du filtre qui seraient finalement de simples lâchers de ces listes. Cela n’empêche pas de prétendre quelques réglages techniques, mais les wagons de sites dézingués ne seraient pas forcément affligés de manière algorithmique. Le souci est que la position de Google est très claire afin de favoriser la solution algorithmique ; malgré cela ce n’est pas très difficile d’imaginer que l’intrusion manuelle au niveau des pénalités soit plus aisée à gérer. En tout cas, cela serait une grosse farce si finalement ce filtre ne serait qu’un aveu final de faiblesse devant la médiocrité du contenu sur le Web.

Sortir des griffes du Panda

Fondamentalement, ce qui me dérange le plus à propos de cette pénalité concerne les efforts pour en sortir. Depuis la fin de l’été dernier, j’ai opéré sur plusieurs sites afin de les sortir du marasme.

Au final, les sites qui sont repartis au firmament des tops positions ont effectivement reçu un nettoyage en profondeur et une amélioration de l’architecture. L’omniprésence de la publicité est également mise en retrait, ainsi que les éléments de performance passés en revue et même l’usabilité qui est mise en avant.
Par contre, la soi-disant qualité du contenu n’est pas révolutionnaire. Dans ce sens, on ne passe pas d’un comparateur ou agrégateur à un portail scientifique ou même un média citoyen. Cela reste du contenu basique qui ne casse pas trois pattes à un canard. Cependant, le signal envoyé suffit habituellement pour rétablir la situation. Le plus étrange est qu’en opérant les mêmes actions sur différents sites, la réaction n’est pas identique au niveau du moteur.

Un autre symptôme qui me tracasse se rapporte à la manière dont un site se retrouve affligé par le filtre. Notamment sur des sites imposants avec des strates différentes de contenu, l’ensemble est touché de manière assez anarchique. C’est quasiment impossible de trouver une logique dans ce qui est touché et ce qui ne l’est pas.

Regardez de plus près les éléments plausibles de red flags Panda. C’est assez flagrant d’observer qu’il s’agit principalement de facteurs qui n’ont rien à voir avec la qualité intrinsèque d’un contenu.

D’un côté, Panda pourrait être un réel tour de force (sorti soudainement de nulle part quand même) de la part des techos Google ; d’autre part cela pourrait aussi être la plus grosse arnaque à laquelle nous sommes confrontés depuis l’apparition des moteurs de recherche.

Vos avis m’intéressent car je n’ai pas réellement formalisé ma pensée à propos de Panda. Surtout, il n’y a pas de méthode éprouvée pour sortir de la pénalité et c’est la première fois qu’on se retrouve aussi démuni. Cela m’agace de manquer d’éléments pour cerner ce défi; c’est même la première fois que cela arrive.