L’invasion des fermes de contenu !

Le filtre Panda de GoogleNous sommes dans l’ère Post-Panda de Google où la terreur est instaurée par rapport au contenu dupliqué, à l’agrégation et surtout au soi-disant contenu de mauvaise qualité.

Les morts sur le champ de bataille Panda et ceux qui pensent se prémunir foncent sur la publication de texte en remplacement des fragments ou même microbes de contenu pertinent qui sont déjà en ligne.

À l’annonce des réductions d’effectifs pour les sites de contenu à la demande (ex: Demand Media), comparateurs et autres modèles pris en flagrant délit par le filtre Panda, une pensée est allée vers les besogneux de la page Web à 5$ plus 25% des clics publicitaires.

J’avais tort de les plaindre car ils ont retrouvé du boulot illico grâce aux plates-formes d’achat de contenu. Enfin bon, leurs salaires n’ont pas augmenté, mais la course au contenu ne fait que commencer.

En fait, la « mauvais qualité » visée par les Ayatollah du sacro-saint contenu (ex: journalistes, blogeurs et WC3 afficionados) n’est pas éliminée, mais elle envahit le Web par tous les trous.

Les responsables de sites Web, effrayés par l’impératif éditorial imposé par Google, remplissent des wagons de texte qui passera le fatidique test de contenu dupliqué. Aucune espèce d’importance que ce contenu acheté à bas prix soit une paraphrase rapide de Wikipedia ou n’importe quelle source pêchée sur Internet.

Le premier réflexe que j’observe en ce moment pour se protéger de la sentence d’une pénalité Google consiste simplement à adopter le modèle ferme de contenu pour un besoin spécifique. Au lieu d’être concentré sur un type de site bien particulier, ces contenus au mérite questionnable se retrouve désormais éparpillé partout et n’importe où.
Les responsables de sites e-commerce transforment les catalogues en déjection de Wikipedia et le sentiment général suggère « ouf! on n’a plus de contenu dupliqué, donc tout est ok. »
En passant, le contenu dupliqué n’est pas une pénalité !

Finalement, je ne pense pas que Panda ait changé les mentalités. La problématique « qualité » (j’insite sur les guillemets) reste un obstacle de plus à surmonter avec le meilleur ROI ou tout du moins avec le moins de surcoût et tracas.

Désormais, les fermes de contenu sont partout!

46 réflexions sur “L’invasion des fermes de contenu !”

  1. Tres juste comme raisonnement – maintenant au lieu de trouver de gros sites qui faisait du contenu a gogo mais sur un seul domaine, la plebe a commencé a publier du contenu de qualité discuttable mais par contre ca arrive de partout…

  2. Et encore…on peut observer un lourd intérêt pour le spin style désormais…c’est moins onéreux..que textmaster ou autre

  3. Hello tu dis »je ne pense pas que Panda ait changé la moindre mentalité »
    et bien je ne suis pas d’accord, je dirais que parfois c’est pire qu’avant.
    Certains commande du contenu de basse qualité comme tu dis juste pour passer ce satané filtre mais oublient totalement qu’au travers de ce texte c’est toute l’image de leur site et de la société qui va en être impactée.
    Certains en oublient même l’objectif premier à savoir convertir mais comme tu le dis « ouf on a plus de duplicate!!! »

  4. ahah « subversif » mais tellement vrai. Dans la lignée, c’est aussi pour ça que je pense que le métier de journaliste presse n’est pas mort

  5. Oui c’est malheureusement le constat amère actuel du passage du Panda.

    Les SERPs se sont sensiblement « dégradés » d’après mes observations et les retours que j’ai lu ci et là.

    Est-ce que finalement Google serait devenu un média de plus qui nous déverserait les immondices de l’espèce humaine au même titre que les programmes tv ? Une sorte de constat d’échec ?

    D’après moi, il était largement prévisible que l’effet « actualité » et profusion de contenu non dupliqué allait produire une sorte de perversion du système, non ?

  6. les prix du contenu sur ces plateformes descend tellement bas que je me demande parfois si sa vaut le coup de faire du spin dans le but de faire des articles lisible, surtout que sur le long terme il n’est pas impossible que google puisse détecter un texte spinné.

  7. C’est justement ce que j’essaie d’éviter pour mes clients. A part quelques recommandations éditoriales supplémentaires, j’ai calmé les ardeurs sur le fait « d’écrire pour Google » car on sait tous que ce n’est pas la bonne façon de penser ;).

    Mais si en France ça se passe comme ça, effectivement, Google a encore du ménage à faire =)

  8. Un des problèmes avec tout ça, c’est que les termes « rédacteur » et « journaliste » ont été tellement galvaudés que quiconque sait écrire croit qu’il peut également rédiger.

  9. Franchement, qu’on parle de Textbroker, textmaster ou autre plateforme de génération de contenu, le problème ne vient pas du contenu mais de la personne qui le prend sans vérifier si c’est lisible et vendeur.

    Je peux te montrer du textbroker sans que tu te rendes compte que c’en est et te montrer du texte « bien rédigé de manière humaine » où tu crieras au scandale et au plagiat.

    Après tout un « rédacteur » textbroker est bon pour rédiger un « communiqué de presse ». Comme dit plus haut dans les commentaires c’est galvaudé…

    Désolé mais ceux qui pensent que Textbroker est un amas à contenu de faible qualité ne savent pas se servir de l’outil. Il faut prendre plusieurs textes à 4 étoiles minimum, se créer un pool de rédacteurs compétents et connaissant le domaine que tu cherche puis créer des team orders ou des direct order en ne travaillant qu’avec des personnes compétentes et là ça ne coûtera pas que quelques centimes mais ce sera hyper qualitatif. Après faire 500 mots sur comment lacer ses chaussures, on est d’accord du faible intérêt (cf première phrase).

    Bon par contre je parle bien du web français. Outre Atlantique, c’est déjà cause perdue…

  10. Je suis assez d’accord avec toi Ramenos sur le fait d’éviter de penser à l’écriture pour GG. Cela dit, les habitudes s’instaurent en matière de rédaction web et il est vrai que l’utilisation du spin est de plus en plus utilisé et à la mode. Du coup, plus ca va plus on a de chances de tomber sur un contenu spinné. Je me pose toujours la question quand je tombe sur un article …

    Les machines auront notre peau 🙂

  11. J’ai le sentiment que le système Google se pervertit de lui-même. Avant, j’étais un référenceur, j’optimisais mes pages avec des mots clés choisis. J’étais vigilant sur la qualité de mes backlinks, j’avais quelques fines astuces dans ma besace qui me permettait de bien faire mon boulot, de me distinguer des autres et de trôner en première page de Google. Désormais, je suis devenu un laborieux de la publication de contenu, une sorte de rédacteur web SEO. Et puis, j’ai dû aussi me coltiner les réseaux-sociaux, là aussi c’est pas mal pollué. Tout change…

  12. Ce qui a été soulevé est très juste, de plus en plus on va se retrouver avec des contenus de basse qualité, en masse.

    De même, je pense qu’il est important pour tout rédacteur web de ne pas trop se focaliser sur la rédaction pour Google, mais plutôt penser à faire un article de qualité pour les lecteurs.

  13. Il faut croire que c’est une constante : les remèdes sont souvent pires que les maux. Et c’est marrant parce que j’en suis venue un peu à la même idée en faisant quelques tests de référencement, genre une grande quantité d’articles sur divers types de supports pour voir. Et en faisant cela, par déformation professionnelle sans doute 🙂 je ne pouvais pas m’empêcher d’observer les sites que j’utilisais, en même temps que je fabriquais des contenus parfaitement uniques, mais pas vraiment révolutionnaires non plus… Quelle masse de textes et de textes qui ne servent à rien et ne disent rien… et en plus, personne ne les lit ces textes, à part leur auteur, et encore pas toujours… Une grosse machine qui grossit grossit sans rien fabriquer, attention à ne pas vous faire avaler surtout 🙂

  14. C’est à dire que quand on voit le tas de daubes que Google propulse en page 1 depuis Panda, on se dit qu’on aurait tort de se fatiguer à faire du joli contenu ! A l’heure actuelle, le contenu de qualité existe, et Google est tout simplement incapable de le mettre en avant.

    Le filtre récent sur la prime à la fraicheur n’arrange vraiment rien, au contraire. A mon avis, les Serp sont encore plus moches qu’avant Panda.

    Concernant les e-commerçants dont tu parles, ils devraient plutôt donner à leurs textes de objectifs de transformation plutôt que de ranking 😉

  15. oui … les fermes de contenu… au risque de ne pas être d’accord avec pas mal de monde ici 🙂
    je trouve la mise à jour panda logique. Après caféine ou google avait ouvert grandes les portes de son index pour cesser d’être à la remorque sur les buzz il était évident qu’un jour il faudrait commencer à faire du tri ! alors oui tu as raison Laurent, le contenu de qualité c’est subjectif mais quand je suis quasi sur que si demain une ferme de contenu commence a écrire sur du seo et toutes ses thématiques je continuerai a venir lire mes articles ici. Pas seulement car tu écrit des choses censées et que j’aime bien tes pétages de plomb 🙂 Mais aussi et SURTOUT car je n’ai JAMAIS VU une ferme de contenu écrire quelque chose d’utile…. Etre utile ça compte non ??

  16. Je suis d’accord avec Vincent. En ce qui me concerne, c’est TextMaster qui m’a convaincu.

    Même si effectivement, le contenu que j’achète me sert pour l’instant uniquement pour mon netlinking et non pas pour atterrir sur les money sites, j’avoue parfois être agréablement surpris de la qualité de certains textes. Dans ce cas là, l’auteur passe directement dans mes favoris.

    Parfois, à l’inverse, les textes sont bourrés de fautes d’orthographe, syntaxiques, avec le style « je paraphrase les sites de référence du domaine »… Pas de soucis ! Je signale l’auteur, je demande une révision de ma fiche et on avance 🙂

    Cela n’empêche que, je suis entièrement d’accord avec ton billet. Et ce qui me fait le plus peur dans tout ça, c’est que Panda n’est qu’un filtre algorithmique de plus, qui permet seulement de reculer pour mieux sauter. Pourquoi ? Car un jour, malgré les compétences des ingénieurs Google, on réalisera qu’il n’y a aucune recette miracle, aucun algorithme qui pourra satisfaire tout le monde, mais surtout, qui ne pourra pas être compris et déjoué par nous, les SEO. Conséquence, il y aura toujours de plus en plus de spam dans les SERPs, inéluctablement. A terme, on peut imaginer un scénario catastrophe avec un abandon des moteurs de recherche, lent mais sûr, de la part des internautes.

  17. La meilleur solution reste la validation manuel. Bientôt google ne sera plus qu’une armée de pakistanais, indiens … qui parlent 5 langues et passent 12heures par jours a noter la qualité des sites, et les 12 heures suivantes a écrire des textes pour les plateforme de vente de contenu en ligne. Plus sérieusement ce que je fais : le texte d’accroche, court et vendeur et fait par le client ou quelqu’un de spécifique. Le texte secondaire, celui que personne ne lis mais qui donne plus de contenu à la page il peut bien venir de n’importe quel plateforme du moment qu’il est unique et un minimum propre.

  18. Très bon article.
    Je voudrais rebondir sur une chose:

    « En passant, le contenu dupliqué n’est pas une pénalité ! »

    nb de Google parlant du duplicate content: « Cependant, si nous estimons qu’il s’agit de pratiques trompeuses et retirons en conséquence votre site de nos résultats de recherche, revoyez votre site. »

  19. Personnellement, je continue à écrire tous les articles moi-même (1 article = 1 à 2 heures de taf) et pourtant mon site a été sanctionné (certainement dû à des articles trop courts et pourtant vraiment utiles et pertinents). Mais, je vois mes concurrents, depuis Panda, arrivent à publier plus d’une vingtaine d’articles par jour (contre 1 à 2 par jour avant Panda). Cela ne fait aucun doute qu’ils utilisent des services extérieurs. Je ne peux plus lutter contre une telle production de contenu.

    Panda a été lancé pour lutter contre les sites qui produisaient du contenu en masse de mauvaises qualités (A la base c’est un bon principe). Panda souhaite de gros articles étoffés car ce serait un signe de qualité ? pour moi, c’est une première erreur de la part de Google. L’amélioration de la visibilité des contenus récents est la seconde erreur. Cela oblige les sociétés à faire de la rédaction de masse. Je rejoins donc l’idée de ton article, les fermes de contenus fleurissent de partout maintenant. Je commence même à tomber sur des articles spinnés dans les premiers résultats lors de mes recherches en tant qu’internaute.

    Regardez la courbe Alexa pour Textbroker et Textmaster !

    Les BH sont en train de vendre leurs solutions pour faire du spin, le marché est énorme « grâce » à Panda (vaut mieux être le vendeur de pelles que le chercheur d’or).

    Google aurait dû sanctionné manuellement les grosses fermes de contenus qui ont pignon sur rue.

  20. Bonjour Laurent,

    La question que je me pose quant cette fameuse nouvelle politique panda, est « qu’en est-il des sites, qui justement n’ont pas de contenu fraichement mis à jour, car se sont des sites vitrines », du style le gars qui propose des services, va-il forcément devoir faire du contenu, histoire de préserver son positionnement ? avec caféine, c’était le course à la vitesse, maintenant c’est la course au contenu…

    Yvan

  21. Je suis tout à fait d’accord sur cette surabondance de contenu.
    Il y a eu la période backlinks à mort en provenance de sites plus que douteux et maintenant c’est l’ère du contenu éditorial off-shore.
    Quand je vois des sites qui utilisent des textes dynamiques à outrance uniquement pour rajouter du texte et faire plaisir à Google, je me dis que Panda n’est pas forcément une aubaine pour l’expérience utilisateur.
    En ce qui concerne le duplicate content, j’ai un site « labo » entièrement automatisé sans contenu unique qui rank bien.
    Amicalement

  22. @Le Juge : je suppose que chez toi, aux USA, ça doit être gigantesque.
    Déjà que je vois les secousses depuis mon petit bout de la lorgnette, alors la globalité doit être assez effrayante.

    @Aline : oui et non car le spin n’a pas véritablement de futur dans les configurations habituelles.

    @Raph : c’est vrai que finalement c’est pire qu’avant – remarque très juste !

    @Bombo : concernant les journalistes, j’ai l’appellation « AFP Rewriting » en pensant à la quantité astronomique de sources qui remâchent un petit paragraphe issu d’une dépêche AFP. Même principe lorsqu’un iBidule sort ou même dès le moindre battement d’aile en relation avec Apple.

    @Ramenos : je n’ai rien contre les stratégies éditoriales massives et même contre les fermes de contenu. Comme toujours, c’est plutôt de croire au Père Noël qui me dérange.

    @Mélanie : c’est sans doute le fond du problème, mais les journalistes se sont mis eux-mêmes dans une sale situation en ne sachant pas comment aborder la problématique Internet.

    @Vincent : j’aimerai bien savoir quelles sont les proportions de textes +4 étoiles commandés. Je connais des agences 500€/page, mais ça m’étonnerait qu’ils voient un jour débarquer un client qui veut du « contenu non dupliqué » pour son catalogue de 3000 produits.

    @décoration d’intérieur : bah je peux t’annoncer sans prendre de risque que le spinning, tel qu’il est pratiqué actuellement, n’ira pas bien loin.

    @Philippe : le métier est effectivement composé de multiples facettes, mais je t’avoue ne pas ressentir la même chose.
    En fait, la majorité de mon taf consiste à recentrer sur des fondamentaux qui sont établis depuis toujours. Tout cela s’est perdu en cours de route, notamment grâce à la facilité du dynamique.

    @Matt : ils se lèchent les babines !

    @Guide Thailande : c’est une utopie de croire qu’on peut occulter Google. Sinon, c’est clair que la finalité est d’être pertinent pour les moteurs ET intéressant pour les visiteurs humains.

    @El-annuaire : on est dans une sorte de cloaking ergonomique. Du genre, je planque le contenu sous des onglets, un bouton « plus d’infos » ou en le repoussant bien loin en dessous de la ligne de flottaison.

    @L’autre consultant : Google ne pourra jamais rendre ses SERPS hyper quali. En plus, le conseil d’administration post-Panda a été houleux puisque la portion des revenus émanant des sites éditeurs a dégringolé. On ne change pas un modèle économique dans de telles proportions sans conséquences auprès des investisseurs. La seule arme qui reste à Google et la détention d’une portion gigantesque des revenus publicitaires – la moitié si j’en crois l’info qui a circulé hier.

    @Azurlingua : je ne serais pas aussi vindicatif à propos des fermes de contenu puisqu’elles générait du contenu à la demande. Ainsi, ces pages correspondent bien à des réalités de requêtes utilisées par l’internaute.
    Maintenant, j’adore le sujet « comment faire ses lacets » qui est devenu le symbole de l’article inutile pondu par une ferme de contenu. Manque de bol, je suis tombé sur une présentation remarquable de Terry Morre via Ted.com qui traite justement du sujet « comment faire ses lacets » http://www.ted.com/talks/terry_moore_how_to_tie_your_shoes.html

    @Consultant : c’est effectivement du contenu lisible et qui n’est pas en duplicate. Est-ce que cela donne une véritable valeur ajoutée pour autant ? Puis surtout, n’y a t’il pas un autre niveau de duplicate qui tient plus aux champs sémantique et lexical ?

    @mirage : le principal est d’avoir conscience de ce qu’on a entre les mains. Ta méthode semble déjà aborder cette nécessité. C’est important et ça manque sur la vaste majorité des cas que je peux observer.

    @Sellerie : Google parle d’actes de tricherie. Ce n’est pas parce que ta fiche produit est la même que 25 000 autres sites qu’il y a pour autant un risque de pénalité. Je lis partout que « mon site est pénalisé. C’est faux car il y a une différence entre une pénalité et une non-pondération.

    @Kmenslow : c’est tout mon propos de suggérer qu’il existe une possibilité de similitude trop proche entre les contenus, dépassant la simple mesure utilisée actuellement.

    @YvanDupuy : franchement, Google ne peut pas bouleverser sa manière de faire. L’effet d’annonce ne va rien changer à la stabilité des SERPS. Le paramètre fraîcheur ne va pas empêcher de monter et rester en haut pour des pages solides par ailleurs. Il y a d’autres paramètres plus puissants.

    @Loïc : oui c’est assez rigolo de voir que toute cette histoire émane de glorieux défenseurs du sacro-saint contenu et finalement qu’on va se retrouver avec la même chose dispersée au sein du Web au lieu d’être focalisé sur certaines plates-formes.

  23. tout à fait
    et lme nombre d’annonces de poste pour être rédacteur web a explosé il n’y a pas que text broker remplit ses bons de commande
    🙂

  24. Mon seul constat est que la notion de « qualité google » c’est du contenu lisible avec un intérêt pour l’utilisateur (qualitatif) avec une contrainte quantitative (un chiffre au pif: 150 mots).

  25. @Eric : le biz est florissant. Tant mieux pour eux 😉

    @Yassine : « être pertinent pour les moteurs et intéressant pour les visiteurs »

    @Pagetronic : y a contenu et CONTENU ! Tes bons de commande ne sont pas en hausse ?

    @Christophe : j’en vois une poignée qui ont pigé le truc et essayent d’aller plus loin que les systèmes basiques où les variables sont de simples synonymes ou équivalent. Ce n’est pas le sujet de mon billet, mais les notions à intégrer sont bien plus denses qu’il n’y parait.
    Surtout, ceux qui pensent gagner du temps oublient les capacités à coder et utiliser un outil pour qu’il soit viable. Acheter une licence et utiliser l’outil par défaut ou presque n’ira jamais bien loin.

  26. Tes articles sont toujours intéressants car ils apportent un point de vue différent.
    Je vois bien depuis quelques temps que la production de contenu augmente de façon exponentielle… dans un seul but de net linking. A terme le web risque de devenir une gigantesque poubelle de contenu spinné ou produit à la chaine.
    Face à cette déferlante, qu’elles sont les solutions pour maintenir ou améliorer ses positions ?

  27. On peut changer les techniques, ça ne changera pas les hommes ! ^^
    Assez d’accord avec le constat général, mais je ne vois pas pour autant ce que Google peut faire. Je pense qu’on est simplement à une autre étape du combat infini « Google bloque une méthode, on prend une autre méthode, Google bloque une méthode… »
    Bref, je suis un peu pessimiste sur ce point. Mise à part sur le fait que ceux qui font vraiment du contenu de qualité passent les différents filtres et finissent toujours par avancer, moins vite, mais sans trop reculer.
    Pour le débat sur le spin, j’aimerais bien que tu détailles le « Ce n’est pas le sujet de mon billet, mais les notions à intégrer sont bien plus denses qu’il n’y parait. »de tes commentaires, même si je ne me fais pas d’illusions et je sais bien que les bonnes méthodes n’ont pas intérêt à être trop diffusées…

  28. Bonjour Laurent !
    « En passant, le contenu dupliqué n’est pas une pénalité ! »
    Sellerie a déjà rebondi sur cette phrase, et tu lui as indiqué qu’un site ne pouvait pas être pénalisé pour DC (je n’ai pas compris la suite car je ne sais pas ce que tu appelles une « non pondération », j’imagine que tu veux parler de « non prise en compte du contenu dans le vocabulaire du site » ou un truc comme ça). C’est ce que j’aurais affirmé jusqu’à récemment: une page en DC est juste dans l’index secondaire, mais le site n’en pâtit pas, à part abus et vérification humaine par l’équipe qualité.

    Je veux témoigner que c’est faux depuis Panda:
    Je m’occupe entre autres d’un site de parfumerie, et les marques contrôlent jusqu’à la virgule prés que les fiches produits sont conformes, sinon, elles ne livrent plus (pourtant, mon client n’est pas petit). En raison de l’autorité du site, grâce à un bon linking, un prépositionnement des pages produits avant leur sortie avec des textes d’annonce, et en raison du fait que beaucoup de marques de parfums ont des sites en flash mal optimisé, j’avais réussi à pas (trop) mal positionner le site sur les fiches produits, et le site était top 3 sur nombre d’expressions génèrales. A l’arrivée de Panda, le site a pris 20% de chute de trafic, et surtout jusqu’à 50 places de recul y compris sur des expressions ou ce n’étaient pas des fiches produit qui remontaient, mais bien des pages à contenu unique.
    L’ajout de contenu unique spécifique à chaque page dans le footer du site (que les marques n’ont pas relevé comme dénaturant leur fiche produit) m’a permis de remonter la pente, et le site à retrouvé peu ou prou des positions similaires.
    Et pourtant, il n’y a pas plus « clean » comme site (notoriété de la marque IRL+emballage classieux+contenu riche à coté de la boutique), ni moins légitime pour ce qui est de la partie en DC…

    J’en déduis que le taux de DC est devenu un critère, ou un flag, plus important qu’avant dans l’évaluation de la qualité d’un site, et qu’il peut mener à une pénalité globale.

  29. Bonjour, il faudrait, nous webmasters, que l’on oublie totalement la notion de référencemnt lorsqu’on pisse de la ligne afin que chaque phrase soir dédiée a 100% au visiteur et non pas au contenu équilibré et pensé pour not ami commun.De toutes faààns on fait ce qu »on peut, de notre mieux et on finit toujours par faire comme tout le monde ….

  30. pour moi et sous la contrainte google, un texte, fiche produit, page de service… de qualité, c’est 3-4 lignes minimum (30%) synthétiques, originales, pertinentes… vraiment écrites pour le lecteur + 20 lignes de texte [70%), spinné de préférence, pour gagner du temps et faire plaisir à notre cher dictateur mr G.

  31. On passe de la ferme de contenu à la niche de contenu avec de la production de textes pensés pour passer le DC, le web grossit comme une bulle, et la première page de google ressemble de moins à moins à un assistant de recherche.

  32. De toute façon, on tourne en rond : Google veut du frais, de l’unique, du qualitatif … C’est juste le mythe de Sisyphe revisité

    Ca ne finit jamais et on arrive jamais à atteindre le sommet puisque lorsqu’on l’atteint Google change les règles en prétextant que les méchants ont triché !

    Ecrire des contenus uniques en quantité sur des « cacahuètes » (ou ce que vous voulez) on va de périphrases en paraphrases en dépassant à peine les qualités d’un spin très moyen.

    Google reviendra sur cette communication en nous inventant un nouveau « filtre » comme d’habitude 🙂

  33. Il n’y a clairement pas de changement de mentalité, mais il y a de manière claire des changements de stratégie SEO. C’est la loi de l’adaptation face au tout puissant google …

  34. je reviens sur ce que j’ai lu plus haut dans les commentaires. c’est un peu le sentiment, écrire pour google avant d’écrire pour le lecteur. c’est assez désagréable et même si il s’agit de le faire le maximum pour contenter le lecteur … ça reste SEO avant tout.

  35. Très intéressant tous ces commentaires, discussion passionnante à lire. Je travaille pour plusieurs sites qui sont situés dans le domaine B to B, et Panda n’a pas été une grosse claque, plutot même bénéfique car j’applique depuis le début des règles simples :
    – articles de + de 400 mots
    – des liens sortants / entrants dans la thématique
    – de la qualité et des articles « likables » par les lecteurs
    – une « transparence » quant à savoir qui écrit, à qui appartient le site, etc…

    La courbe de croissance n’est pas grande (on parle de site en dessous des 1000 visites / jour), mais ça progresse.

    Cela marche aussi pour des sites dans des thématiques plus « monétisables » comme l’assurance et la mutuelle, ou j’applique les mêmes règles.

  36. Même constat. Le site baroque fourre tout qui ramasse le contenu des autres sites à la pelle même aux autre saisons que le printemps continue de truster les premières positions.

  37. Un des gros problèmes pour google sur le web français est le français . Le jour où l’algorithme décryptera mieux le français les résultats risquent de bouger bouger .

  38. Je te rejoins tout à fait sur le fait qu’il faut aller plus loin que de simplement vérifier la non duplicité d’un contenu pour juger de sa qualité aux yeux de Google.

    Dans l’algorithme, il y a certainement des analyses plus fines, même basiques, sur la sémantique, qui sont faîtes à un moment ou un autre. La production de communiqués de presse ou d’articles sur des splogs, paraphrasés, traduits et/ou spinnés est une méthode qui fonctionne encore pour le moment. Mais je doute qu’elle soit viable à long terme.

    Et puis un texte dupliqué peut très bien ranker. Tout dépend du contexte et d’autres critères environnants 🙂

  39. Le prochain panda sera probablement à base d’éviction de tous les contenus dupliqués écrit avec un français approximatif… on va dire que le prochaine panda va s’appeller BernardPIVOT…

    aujourd’hui une information peut etre relayée en l’espace de 10 minutes par 50 voir 100 sites puis ré-écrite | reformulée | retranscrite… en bref perte de temps pour tout le monde. ( à 1 centime le mot clé c’est la mort du journalisme en france : on comprend pourquoi)

    les meilleurs resteront et surtout ceux qui paiereront pour truster les pages

  40. Bonjour,
    Désolé je dois avoir lu trop rapidement mais je n’arrive pas à saisir ton point de vue fondamental sur Panda.
    Tu constates que les mentalités n’ont pas changé et que Panda a engendré un nouveau comportement « polluant » c’est effectivement juste et cocasse. Mais penses tu, outre cette dérive, qu’il y a au final dégradation, amélioration ou stagnation de la qualité des SERPs?

Laisser un commentaire