Le Google Panda transformé en Godzilla

L'update d'algorithme Panda par Google

Le dernier update d’algorithme Google est au centre des discussions en ce moment. Surnommée « Panda » ou « Farmer’s update », cette mise-à-jour est censée cibler les sites de mauvaise « qualité ».

Maintenant, la seule question que je pose se rapporte à la notion de qualité pour un site Web. C’est déjà impossible de rassembler un consensus autour de cette notion pour des humains, alors un algorithme peut-il vraiment juger de la qualité pour un site Web ?

L’update qui vient du buzz

Tout a commencé fin 2009 avec des articles sur Wired , suivis par le New York Times et bien d’autres pour dénonçer le modèle économique de Demand Media, éditeur américain sites Web qualifiés de fermes à contenu dont la plus connue est eHow.com. Plus près de nous, il y a l’italien Populis, qui dépote des dizaines de milliers de pages chaque mois, revendiquant un chiffre d’affaires de 58 millions d’euros pour 2010. Ces sites ciblent les demandes des internautes, par le biais de tutoriels basiques et articles informatifs, pour ensuite racoler vers des publicités. Les articles sont l’œuvre de rédacteurs payés une misère – genre 5$ la page plus 25% des revenus issus des clics publicitaires. Un exemple parmi tant d’autres avec la page d’eHow qui cible toutes les co-occurrences imaginables autour de la demande en ligne pour une carte de crédit.

Tout s’est accéléré cet été avec l’annonce de l’entrée en Bourse pour Demand Media. Cela donnait une vision des possibilités de revenus en glanant une manne de trafic gratuite par le biais des résultats de recherche Google.  Bien entendu, ça peut choquer n’importe quel entrepreneur qui trime pour faire tourner sa boutique. Du côté des journalistes libéraux et autres blogueurs donneurs de leçons, c’est carrément outrageant. Quelle honte de publier du contenu basique qui récolte du trafic gratuit, pour ensuite gagner des millions de dollars via les pubs !

Maintenant que Larry Page reprend le poste de CEO à Eric Schmidt, tout ce bruit autour des fermes de contenu commençait à sérieusement faire tâche. D’autant plus qu’un petit moteur alternatif du nom de Blekko en a rajouté une couche sur la  « pollution » des résultats de recherche Google.

Le Panda de Google s'est métamorphosé en GodzillaC’est ainsi que l’équipe du Search s’est attelé à dézinguer les sites clamés comme étant de mauvaise qualité. En premier, les scrapers sont ciblés par un update plus ou moins boiteux, puis les fermes de contenu sont traînées sur l’échafaud. Aujourd’hui, le Panda est lâché dans l’index tel Godzilla dans la ville de Tokyo, éliminant sans sommation des sites qui ont eu le culot d’utiliser les résultats de recherche Google comme racoleur pour gagner de l’argent.

Je ne me fais pas trop de soucis pour les Black Hat SEO qui vont certainement réussir à élever suffisamment le niveau des techniques de scraping, spinning et autre manipulation du contenu. Ce qui m’inquiète beaucoup plus concerne les critères jaugeant de la sacro-sainte qualité d’un contenu ou d’un site Web de manière générale. Selon les sources, ça serait en 10 et 40% de sites qui sont touchés par le Panda vengeur.

Comment jauger la qualité ?

D’après les premiers retours, les signaux qui permettent de jauger la qualité d’un site n’ont pas grand-chose à voir avec le niveau éditorial. D’ailleurs, comment juger de la qualité d’un contenu ? Un algorithme pourrait-il décider si un texte est au niveau du prix Pulitzer ou Goncourt ? Pourtant, c’est bien le contenu roi qui est mis sur la balance.

En plus, si on voulait vraiment dégager le contenu qui n’est pas digne de figurer au Panthéon éditorial, il ne resterait pas tripette en ligne.

Dans un certain sens, un tutoriel sur eHow n’a rien à envier à un billet de blog ou à une actualité « AFP Rewriting ». Les ayatollah du contenu peuvent bien expliquer dans tous les sens qu’un article sur une ferme de contenu n’est pas « qualitatif », il n’en demeure pas moins que sur le plan sémantique, contenu dupliqué, etc. les publications sont tout à fait valables.

Même si je n’approuve pas forcément le concept des fermes de contenu, je ne vois pas en quoi elles n’ont pas leurs places dans les résultats de recherche Google. Puis, qui va répondre aux questions triviales qui fleurissaient sur les pages d’eHow, About et compagnie ? Pour extrapoler, la ferme de contenu remplit un rôle social. Sinon, qui d’autre pour savoir comment nouer des lacets ou demander une carte de crédit en ligne ? Même Wikipedia contient des pages qui ne sont même pas au niveau de eHow et pourtant l’encyclopédie demeure au firmament des résultats de recherche. Ah oui, c’est vrai qu’il n’y a pas de publicités sur Wikipedia…

C’est encore pire pour Yahoo Answers ou d’autres, dont la ligne éditoriale est plus mince qu’un papyrus.

Bien sûr, dans un monde parfait, Google ne serait pas le Grand Ordonnateur du Web et personne ne trémousserait à l’annonce d’un update.

Sauf que nous ne vivons pas dans un monde parfait et encore moins dans un Web idéal.

Les signaux techniques qui permettent d’identifier un site soi-disant de mauvaise qualité suggèrent de grandes possibilités pour engendrer des dommages collatéraux.

Le premier signal qui me dérange concerne les publicités. Il paraît qu’un site truffé de pubs est de mauvaise qualité, mais on en revient toujours à ce même tabou stupide qui veut que ça soit malsain de gagner du fric sur Internet. D’autres signaux me laissent encore plus dubitatif comme le taux de rebond élevé, la suroptimisation « on page », pas de noms d’auteurs, maillage interne renforcé, faible participation des internautes, etc. Bref, pleins d’éléments qui n’ont absolument rien à voir avec les critères qualitatifs purs.

Plus d’infos sur le dossier spécial Détection des Fermes de Contenu par Olivier Duffez.

Demand Media et d’autres éditeurs dévergondés ont vu plonger le trafic Google, mais le petit webmaster malin qui se régalait des miettes picorées avec des MFA se retrouve également sur la sellette. Ne parlons même pas des agrégateurs, comparateurs et autres sites au contenu unique maigre qui sont déstabilisés. Pourtant, il est tout à fait possible de générer du contenu dupliqué très intéressant. La qualité n’est pas forcément synonyme de contenu unique.

Profiteur, mais pas tricheur

J’aurais pu faire un billet technique sur l’analyse automatique de contenu, mais le coup de gueule est remonté avant le reste.

Cela dit, le point principal à relever concerne la difficulté pour un algorithme pour détecter et trier les sentiments ou même remarquer des tendances. A l’échelle d’un moteur de recherche comme Google, les algorithmes sont sophistiqués et stupides à la fois. Dans tous les cas, le moteur ne comprend toujours pas ce qu’il lit et ça ne risque pas de changer bientôt. La bande à Matt Cutts peut glousser d’avoir effectué un grand nettoyage dans les résultats de recherche, sauf que c’est très éloigné du spam ou tout du moins du non respect des guidelines Google. C’est pour cela que ça me dérange vraiment. Les fermes de contenu sont des profiteurs, mais elles ne trichent pas.

Après chaque update, je reçois une forte augmentation de demandes par des propriétaires de sites Web qui ont brutalement perdu tout leur trafic Google. Nous arrivons toujours à rétablir la situation, mais une pénalité, un filtre ou un blacklistage ne se soignent pas rapidement.

Pour l’instant, c’est le calme plat car Panda se déchaîne sur les sites anglophones. Le problème principal est qu’on ne possède pas vraiment de visibilité sur les solutions pour contrer cet update. J’espère qu’on y verra plus clair lorsque la torche du mangeur de bambou enflammera le Web francophone, mais la tâche est ardue lorsqu’on est pris dans le Triangle des Bermudes d’un effet de bord ou dommage collatéral d’update. Le thread du forum Google Webmaster Central dédié aux effets de bord du Panda s’allonge comme le nez de Pinocchio au fur est à mesure que les sites, qui pensent n’avoir rien à se reprocher, tombent sur le champ de bataille.

Le Far West virtuel

Cette chasse aux « profiteurs » qui publient du contenu de « mauvaise qualité »  me dérange vraiment. Pour le journaliste du New York Times ou le blogueur geek, le tutoriel pour apprendre à cuire les spaghettis est peut-être de la pollution. Sauf que tout est relatif car ce contenu trouve forcément de l’intérêt quelque part, sinon le modèle économique vanté par les éditeurs ne sera pas valable. C’est toujours le même problème depuis qu’Internet existe et même avant lui pour n’importe quel médian. En clair, c’est pêché de gagner du fric sur le Web et c’est un sacrilège d’abuser du sacro-saint contenu, tout en profitant d’un trafic gratuit.

Fondamentalement, c’était peut-être un bon concept lorsque j’ai fait mes premiers balbutiements sur Internet au début des années 90, mais aujourd’hui c’est une saloperie d’utopie; voire même un raisonnement réactionnaire qui ne vaut pas mieux que la bouse sortie du cul d’une vache.

La symbolique des fermes de contenu est guillotinée, entraînant dans sa chute des wagons de sites qui avaient pour seule prétention de gagner 3 sous sur le Web. J’ai bien profité du Far West virtuel avec Adsense ou l’affiliation, mais je suis rassuré de m’être retiré de ce modèle économique.

La simple vérité est que c’est pêché de gagner du fric en ligne !

Ce n’est pas concevable de profiter d’un système simple comme coller des pubs sur des pages de contenu sans prétention. Les mêmes fervents dénonciateurs du profit malsain des fermes de contenu sont bien entendu défenseurs de la liberté d’expression. Il y a juste quand l’argent se colle au milieu que ça pose problème.

Le Far West virtuel ou comment gagner de l'argent sur le WebExactement comme au Far West, les premiers à trouver un filon n’ont qu’à se baisser pour ramasser les pépites. Ensuite, il faut creuser plus profond ou partir ailleurs, sur un autre filon. Personnellement, je remercie mon instinct pour faire partie de ceux qui vont voir ailleurs après avoir bien profité d’un filon.
Après les premiers chercheurs d’or, c’est le tour des grosses sociétés de venir exploiter les filons à coups de bulldozers et dynamite pour remplacer la pioche et le tamis. Bien entendu, ces grosses compagnies dégagent les petits chercheurs d’or à coups de Smith et Wesson et expropriation.

Pour terminer, je laisse la parole à notre Texan SEO préféré, qui donne une autre approche sur la qualité du contenu.

Merci à Philippe, mon spécialiste préféré de la rédaction Web pour la correction des coquilles.

79 réflexions sur “Le Google Panda transformé en Godzilla”

  1. On ressent bien ton agacement avec cette nouvelle mise à jour qui va bientôt arriver.

    Comment déterminer la qualité d’un contenu ? La quantité, l’originalité, le nombre de commentaires ? Déjà qu’en tant qu’être humain, c’est souvent par rapport à notre ressenti, pour le coup j’ai moi aussi du mal quand c’est un programme qui le décide.

    A moins, comme tu le signales justement, que le coeur du problème soit la monétisation d’un site et non la place qu’il occupe dans les SERPs, créant ainsi des jalousies.

    On a plus qu’à attendre et peut-être pleurer si un de nos sites est touché…

  2. En valeur absolue, je suis comme tout le monde et je ne vais pas regretter eHow ou About.
    C’est vraiment le principe qui me dérange; d’autant plus que les signaux n’ont pas grand chose à voir avec les éléments éditoriaux puisque l’algorithme est hyper limité à ce niveau.

  3. Le plus gênant là-dedans soit le fait qu’il s’agit d’une mise à jour automatique et qui vient donc avec des dommages collatéraux. Certains mauvais sites passeront sans problème et certains bons élèves se verront punir sans rien comprendre.
    Une petite lueur d’espoir dans cette terreur googlienne: la progression constante de Bing aux US et on l’espère, bientôt en france.

  4. Yep j’ai lu avec enthousiasme les 30% de parts de marché pour Bing aux USA.
    J’ai aussi été très agréablement surpris par l’App pour iPad.

    Sinon, c’est clair que je vois les effets de bord comme largement plus dévastateurs qu’avec les updates précédents. Parce que ça tacle des horizons bien plus flous et la subjectivité est de mise.

  5. Salut Laurent, nos points de vues divergent sur la question, je ne dis pas que sur le fond nous ne sommes pas d’accord mais plutot que nous avons une approche différente du probleme. Je pourrais mettre un Commentaire de 10 kilometres de long mais je suis en train de bosser sur un article moi meme qui explique plus avant mon point de vue je te ferais péter un petit tweet quand ce sera publier.

  6. Je peux deviner où tu vas en venir.
    Toi qui est aux Etats-Unis devrait encore mieux comprendre ce droit à la liberté de publier ce qu’on veut et en fait ce qu’on veut.
    C’est comme la Constitution qui défend cette notion, au prix d’accepter de voir les néo-nazis défiler.
    Encore une fois, je n’aime pas ni ne supporte les fermes de contenu, mais c’est disons un « mal nécessaire » pour valider la liberté sur le Web. Google est allé trop loin pour moi, poussé par des éléments extérieurs qui n’ont rien compris au truc ou tout du moins résonne avec une limitations assez abjecte.

  7. Finalement tu as ecrit ce billet que tu n’avais pas envie d’ecrire mais dont il fallait (cf un de tes tweets 😉 ) merci !

    Menfin je me demande c’est quoi la conclusion a tout ca, on critique Google a juste titre, mais comment controler par algo la qualite d’un contenu ?

    En fait l’algo ne peut pas controler la qualite intrinseque d’un texte comme un humain qui peut juger si un texte est interessant, par contre certains details peuvent indiquer a l’algo que « statistiquement » un article n’est peut etre pas de tres bonne qualite. Dans ce cas, le taux de rebond est l’un des petits criteres que je ne trouve pas forcement debile a prendre en compte, et je suis certain que Google l’utilise via la toolbar par exemple.

    Menfin je vois plus Panda comme un reajustement peut etre temporaire pour contrer les plus grosses fermes de contenu. Faut pas se voiler la face, beaucoup de ces sites possedent une quantite enorme d’articles ecrits par des freelancers indiens paki ou philippians pour 2 dollars les 500 mots, c’est pas illisible mais presque et ca n’apporte aucune info, c’est une perte de temps, une bouillie pour generer des backlinks ou du trafic long tail. Ca commence a devenir vraiment abuse, Google siffle la fin de la recre pour ces sites la, ya des dommages collateraux malheureusement, mais c’etait pour reagir dans « l’urgence » relative AMHA, et c’est pas ce qui me choque le plus.

    Par contre pour les sites agregateurs c’est certainement une maniere de proteger son business, Google permet d’acceder a l’info et ne souhaite pas voir fleurir des sites qui en quelque sorte permet de l’eviter. Du coup je trouve ca quand meme vachement abuse de declasser des sites comme ca car effectivement leur interet peut etre tres grand.

    A moyen terme le +1 et les like Facebook permettront eux de trier bien plus efficacement les contenus pour mettre en avant ceux qui sont interessants. L’algo de demain sera certainement base sur les recommandations, d’ailleurs quoi de plus logique ? Se baser ‘princiapelent’ sur le nombre de backlinks c’est vraiment la blague a l’heure d’aujourd’hui, ca n’a plus vraiment de sens vu les abus. Bon il y aura encore et toujours des imperfections et derives (on peut deja se payer des +1 pas cher en Asie ^^) mais ca je crois que ca changera pas, c’est la nature humaine lol

  8. Parler de liberté d’expression contrariée, c’est aller un peu vite en besogne non?
    D’ailleurs c’est un peu contradictoire de ne pas savoir exactement ce que Panda va dégommer (ou en tout cas les modalités du dégommage) et de mettre en avant les sites qui apprennent à cuire les pates.
    En fait j’ai l’impression que c’est la définition d’une ferme à contenu qui est flou. Parce que aller sur le web pour connaitre le temps de cuisson des farfales, c’est un peu l’essence de la toile, non? Du coup, ce contenu de base serait pénalisé au prétexte qu’il est présent sur une ferme? ce serait donc non pas le contenu mais la façon de faire ou de mettre en valeur ou de se servir de ce contenu qui est visé.
    Sacrément fortiche le Panda.

    En attendant merci pour l’article.

  9. @Antonin : oui le cas du +1 est très intéressant.
    Par contre, je crois que Google n’a pas bien compris le concept de Facebook qui est d’aider à glander. Le véritable enjeu pour Google serait également de nous aider à mieux glander.
    Pour l’instant, les gadgets style +1 sont voués à leur perte car ils n’apportent rien de plus au dilettantisme indispensable dans la société.
    Ca serait un bon sujet pour mon prochain billet…

    @Xavier : argument un peu court et belle utopie galvaudée. Etrange pour un référenceur.

    @LaurentFromMars : c’est le fait de gagner des tunes en grapillant du trafic gratos qui est au coeur du problème. Explique sur un blog (sans pub) comment cuire les pâtes et tu n’auras jamais de problème.

  10. @LaurentB
    En fait pas vraiment – plus que le cote liberté d’expression qui aux états-Unis est un droit qui va trop loin des fois a mon gout, je vais défendre le coté « capitaliste » du truc – Maintenant comme je te disais, ce n’est pas un point de désaccord masi plus un point d’approche différente –

  11. Ce qui me fait sortir de mes gonds est que justement ce sont les mêmes qui vont défendre cette liberté d’expression, mais dénoncent l’outrage qui consiste à mettre des pubs sur du contenu.
    Mon propos n’était pas de mettre les fermes de contenu sur le piédestal symbolique de la liberté d’expression. C’est clair qu’on devrait plutôt parler de liberté d’entreprendre!

    C’est beau de vivre en dehors de la réalité du truc comme le Xavier plus haut, mais lorsque ça entraîne des conséquences comme Panda, je crois que c’est carrément « over the line ».

  12. Je pense pas que ce soit forcement necessaire que Google developpe un outil/service pour glander, c’est clair que Facebook rempli parfaitement ce role, mais il y aura toujours besoin d’un moteur performant pour trouver une info precise. C’est sur ce point que Google doit faire gaffe à pas se faire distancer par les « like » de Facebook (pour l’instant c’est pas le cas bien sur mais demain…?)

    Le danger pour Google c’est que Facebook devient justement de plus en plus autre chose qu’un outil pour glander AMHA. Je me suis surpris la derniere fois, je cherchais des infos sur un concert, je suis alle dans le moteur Facebook directement au lieu de Google car je savais que j’allais trouver rapidos l’event et donc toutes les infos qui vont avec.

    Vu le succes des « like » et leur implementation sur les sites web, il ne serait pas etonnant que Facebook puisse proposer un moteur plus performant sur certaines recherches que Google, basé sur les « like ». Par exemple je cherche une recette pour un gateau au chocolat, via le moteur Facebook je peux trouver celle qui a le plus de « like » et qui est donc probablement la plus appreciee, ce qui me permet de gagner du temps dans ma recherche.

    Le +1 de Google est surement créé pour la meme chose, bien que faire du +1 depuis les SERPS, ca n’a aucun sens. Par contre j’imagine qu’on le verra un peu partout sur les sites web, un peu comme les « like ». L’interet de faire un +1 serait enorme si ca permettait par exemple de controler exactement les endroits ou on partage son lien : Facebook, Twitter, LinkedIn, ou un nouvel outil social basé sur l’agregation / partage de contenu ? D’ailleurs ca serait peut etre le gros coup a faire pour Google : proposer aux webmasters un bouton unique, le +1, connecté aux services sociaux « a la mode ». Ainsi, Google aura l’arme ultime pour classer le contenu en fonction des recommandations et surement a moyen terme, en fonction du profil de l’utilisateur qui effectue la recherche.

    Desole pour la disgression, ce n’etait pas vraiment le sujet du billet ^^

  13. Je n’ai pas pour habitude de de commenter des billets sur des blogs, même lorsqu’ils sont bien écrit (ce qui est rare); Non pas que je sois timide ou que je ne sache pas m’exprimer, mais mon expérience me pousse à rester … disons discret.

    Je partage entièrement le point de vue de l’auteur (je dois même avouer lâchement que son coup de gueule me soulage autant que si j’en étais l’auteur)

    Je suis cependant étonné par les réactions suscitées par le fameux « Panda » alors que l’annonce que les fameux SERPs de Google (et de Bing) étaient volontairement manipulées à partir de listes blanche est, me semble t’il passée presque inaperçue. Google le grand moralisateur du web, le chevalier blanc d’internet qui fourni ses précieux résultat de recherche à nos ordinateurs ignares, Google qui part en croisade pour un web pur et propre, Google qui annonce à grand renfort de communication qu’il ménera une lutte iplacable contre les tricheurs , ce Google là serait donc un tricheur lui même. (là je ne m’interroge pas, j’affirme)

    Je ne me fait aucun soucis quand à la capacité de la communauté des webmestres et autres référenceurs (black ou white hat) à trouver (rapidement !?) une parade à « Panda ». Par contre je ne vois pas comment lutter contre ces « white lists ».

    Enfin, Google continu à nous fournir des justifications à l’utilisation de toutes les techniques imaginables pour bien se positionner (a nos conscience tout au moins)

  14. Allez laurent … je ne parle pas technique car de ce coté là je sais que tu vas m’apprendre beaucoup 🙂
    Mais sur le fond ta dernière phrase me parait être la plus importante.. voire même une introduction pour introduire un deuxième article qui viendrait équilibrer le premier 🙂

    si je suis d’accord avec toi sur l’hypocrisie qui règne sur le web et sur le fait que google tout en disant que gagner de l’argent sur le net  » c’est mal » met en place un modèle économique qui se chiffre a coup de milliards.

    J’aurais aimer te lire sur les centrales de réservation par exemple qui se positionnent sur le nom d’un hôtel pour mieux se commissioner sur sa clientèle , voir même la détourner si celui ci ne coopère pas …

    pour moi c’est aussi là l’expression de ta problématique du bulldozer qui ne se contente pas de virer le chercheurs d’or mais qui rase les maisons qui sont sur le chemin…

  15. Ta vision du Panda est certes discutable, je ne la partage pas forcément, mais après à la limite ce n’est pas le sujet de ton article.

    Par contre, là où tu es dans le juste c’est lorsque l’on voit les dommages collatéraux de l’algorythme sur des sites qui ne sont pas forcément des MFA ou fermes de contenus.

    Je pense qu’au travers de l’analyse des anglais, il en ressortira simplement une ou plusieurs nouvelles règles à respecter.

    La vrai question concerne la transcription de l’algorythme vers du francophone, car la complexité et la richesse de notre language est totalement différente de l’anglais, l’italien ou l’espagnol. Si les critères sont assez simples, ils seront très vite detectés, s’ils sont plus complexes, à mon avis on ne verra pas Panda avant qques mois et on profitera de la science anglaise.

    Par contre j’ai aussi peur de certain critères (trop grande prise en compte du taux de rebond induira du neg SEO, un maillage interne poussé risque de favoriser les bidouilleurs du net).

    Très bel article, j’attend celui du Juge qui est In Da Place

  16. Bon après ma réaction sur le billet du Texan, je passe sur le tien.
    Je te rejoints totalement sur la capacité de l’algo de GG à définir un contenu de bonne qualité!!!
    Moi ça me fait bien rire, non pas que je me pense épargné, mais ce sont les critères utilisés par cet algo qui me font sourire.
    Pour moi cette chasse au soit disant contenu de faible qualité n’est là que pour jeter un peu de poudre aux yeux au grand monde, à justifier le grand nettoyage des serps de google.
    l’algo est incapable de dire si un contenu est de bonne qualité comme le concevrait un humain.
    Avec des indices comme taux de rebonds, présence de pubs… je pense que les ambitions de google sont claires, laisser plus de place dans les serps à ses propres produits et sources de revenus
    un petit exemple tout à fait au hasard, les comparateurs de prix descendus à la dynamite alors que google a lancé le sien tout récemment, c’est quand même pas de bol cette coïncidence.
    Quand est ce que gogle arrêtera de nous prendre pour des cons? il n’a qu’un dire clairement qu’il ne veut pas qu’on se serve de son moteur pour se faire de l’argent c’est chasse gardée pour lui!!!!

  17. Bonjour,

    Belle prose, il est vrai que pour certains l’évolution du Web est assez stupéfiante surtout à voir le sens que cela prend.
    Le nouvel algo est « contrôler » par des humains pour partie, est-ce réel à la vue de la taille du travail a effectuer ? J’en suis pas si sur !
    Exploitant encore ma mine, je connais la peur de l’effondrement de la galerie et tente de trouver une place au soleil car à creuser trop profond l’on se fait enterrer !

    Merci pour cet article 😉

  18. « La qualité n’est pas forcément synonyme de contenu unique. » 100% d’accord : un texte spinné crée est un contenu qui ne sera pas forcément unique, mais on peut toujours s’arranger pour qu’il soit « de qualité ».
    Dans mon billet sur le sujet, sans préciser ma pensée, je considère pourtant que la « qualité » est liée plus à du littéraire qu’à de l’unicité.
    Je me vante de posséder des qualités rédactionnelles, c’est-à-dire la capacité à écrire sur différents sujets en respectant les règles grammatciales de notre langue, sans trop de difficultés.
    N’est-ce pas cela, la « qualité » d’un texte ? Je pense que si ! Je ne suis pas trop d’accord pour qu’on laisse Google imposer sa définition de « qualité rédactionelle » car, comme vous le dites très bien, toi comme Dan, Googlebot ne sait pas lire !
    Pour ce qui est de la « chasse aux sorcières » menée contre les fermes de contenu, je n’y vois qu’une chose : la volonté de contrôler aussi les revenus de ceux qui gagnent « 3 francs 6 sous » sur le web grâce à la pub ou à laffiliation.
    Pardon de te contedire, Laurent, mais ce n’est pas le fait de gagner de l’argent en ligne qui, à mon sens, dérange Big G, c’est le fait d’en gagner sans demander la permission à Google ou sans respecter les rgèles que Google a fixées (cf les guidelines d’Adsense) !

  19. Je suis en grande partie d’accord avec toi pour ma part, surtout que les outils de Google même s’ils sont complexes ne sont pas forcément très efficace.
    Il y a vraiment deux choses qui me dérangent dans cette histoire. D’abord le fait que ceux qui trichent continue et continueront de profiter du système, parce que Google n’est pas capable de les détecter. Et « Panda » est un pis aller pour faire croire qu’ils réagissent.
    Ensuite, comme tu le dis, que google se permets de juger de la qualité d’un contenu à la place des internautes, alors que leurs algo n’est pas vraiment au point.
    Petit bémol quand même : Déranquer un résultat dans les SERP ne signifie pas qu’il disparaitra. Et si personne n’explique comment faire cuire ses pâtes sur le web, le seul site à le faire, même s’il est plein de pubs devrait en théorie rester premier sur le sujet… En théorie.

  20. « qui ne vaut pas mieux que la bouse sortie du cul d’une vache. » -> Quand même. Un joli coup de gueule.
    Une mise en perspective pourrait être la pression médiatique et de l’actionnariat du côté de Google. Ils essaient donc de contrer ça avec de grandes annonces et beaucoup de bruit médiatique. D’ailleurs Panda, le nom est beaucoup trop marketé pour être un hasard. Donc je me demande si l’action proprement dites n’est pas beaucoup plus petite que ce que laisse penser le bruit autour d’elle.

  21. La rumeur grandit en Angleterre, et de nombreux webmasters crient au ras-le-bol et à l’abus de position dominante. Maintenant, je partage ton point de vue sur le fait que objectivement, comment un algorithme peut-il à lui seul juger de la qualité d’un contenu ? Que va-t-il advenir des mareketeurs vivant en grande partie des « Made For Adsense » ? je pense que certains vont devoir reprendre le chemin du monde en entreprise…

    Par contre, tu affirmes que les balck-hat ne seront pas touchés, mais ne courent-on pas à la fin des fameux « autosplogs » ?

    Yvan,

  22. Je suis d’accord avec ton avis, comment un algorithme peut-il juger de la qualité d’un contenu?
    Il peut détecter que le contenu est déjà disponible sur un autre.
    Il peut également mesurer les retour arrière lorsque l’on accède et qu’on revient sur la page de recherche.
    Mais je ne vois ce qu’un algorithme peut apporter de plus que ce type de statistiques.

  23. est ce que l’apparition récente du plus 1 (+ 1) n’est pas justement une prise de position de la part de google en ce sens ?
    Pour tenter de résoudre cette problématique …
    indicateur d’une vérification plus poussée par la suite !

    Le fait de faire valider un être humain qui est aussi l’utilisateur de google est une bonne idée …

    Reste que pour des sites communautaires comme CCM, je reste partagé …
    L’avis du plus grand nombre ne fait pas foi pour moi !

    Je suis obligé de rajouter des filtres du type -« CCM » pour pas à avoir à aller en 3 eme page des SERP desfois !

    Une véritable pollution pour moi (dépannage info) mais pas forcement pour les autres …

    Je trouve que la pertinence des résultats est/devrait être parfois relative !

    @ bientôt

    Sebastien

  24. @Antonin : en fait, Google nous aide à trouver de l’information. Il faudrait juste qu’il se recadre pour nous aider à trouver le film préféré de nos amis, quel est le restaurant où vont mes potes, etc. C’est dans ce sens que je voulais dire « glander ». C’est sensiblement différent de la recherche d’information telle que distillée actuellement.
    Cela permettrait de marcher sur les plates-bandes de Facebook. Pour l’instant, les fonctionnalités proposées n’ont pas de sens. Le +1 ne va pas m’aider à « glander » tel qu’il est implanté actuellement; ni même Hotspot / ex- Google Places.
    Vote de +1 sans aucune raison n’a pas d’intérêt dans le sens réseau social. Ca vient plutôt concurrencer Stumble Upon que Facebook.

    @Jérôme : n’hésite pas à venir discuter en privé avec moi. C’est d’ailleurs un mode de discussion que je privilégie par rapport aux commentaires.
    Par rapport aux WhiteLists, il y avait déjà eu des notions sorties il y a quelques années (2006, 2007 ?). C’était à l’époque où les critères d’autorité étaient sur le devant de la scène. En gros, Google avait effectué un tri manuel de sites d’autorité niveau 1, puis ensuite les niveaux inférieurs étaient enclenchés de manière algorithmique.
    Prenons Le Monde comme étant un site de niveau 1. Si tu as un BL qui est à 3 niveaux (1 site lié depuis Le Monde fait un lien vers un site qui fait un lien vers le tien), cela te procure un certain « jus » d’autorité. Certains l’appelent le TrustRank, mais l’appellation n’est pas juste (faire une recherche sur mon site avec ce terme pour avoir mon 2 cents).
    Du coup, la whitelist peut tout à fait être ces sites de niveau 1 d’autorité.
    Enfin bon, ça peut aussi être quelque chose d’autre beaucoup plus subversif…

    @Anthony : c’est clair que l’application dans chaque langue d’un algorithme est extrêmement compliquée.
    D’autant plus que la recherche sur l’analyse automatique du language est quasiment toute en anglais.
    J’espère aussi que le délai nécessaire à l’implantation sur notre index aura permis de trouver des parades viables.

    @LeJuge SEO : ton article est super clair. Tellement bien que je l’ai linké à la fin du mien et je te remercie pour les citations.

    @Raph : en fait, je pensais également qu’il y avait plus de marketing qu’autre chose là dedans. Sauf que le nombre de site touchés me fait plus penser à Godzilla qu’au Panda.

    @ArchitectePaca : je n’ai pas dit que cet update était contrôlée par des humains. Justement, c’est purement algorithmique avec toutes les faiblesses que cela comporte.

    @Hernan : pour tout avouer, je n’ai pas analysé en détails les requêtes où les fermes de contenu se positionnaient pour voir quels résultats on pris leur place. Faudrait le faire…
    Cependant, je peux dire d’instinct que les sites ont pris une claque sur les mots clés juteux et qu’ils ont gardé une présence sur les requêtes secondaires (moyenne et longue traîne). Par exemple, Google va leur laisser « faire des spaghettis bolognese », mais plus rien sur « crédit en ligne ». Google possède un algo par couches qui permet d’injecter des filtres différents selon les requêtes. Plus c’est concurrentiel et moins ça passe facilement. Il a simplement élevé le curseur sur certains points pour certaines zones de l’index.

    @Sébastien : Panda est en fait le nom de l’ingénieur qui était en charge de cet update.
    Au contraire, les conséquences semblent être largement plus épaisses que les actions avancées. En tout cas, d’après le foin que je relève sur les forums US et UK plus le thread GG Webmaster Help, c’est largement plus violent que les updates précédentes. Ca me fait penser à la révolution engendrée par l’update Florida qui a obligé Google a faire marche arrière.

    @Yvan Dupuy : la réalité nous suggère qu’il arrive effectivement à jauger la qualité. Tout le problème est d’être en accord avec les signaux utilisés. Mon propos est justement que ces signaux n’ont pas grand chose à voir avec la qualité éditoriale pure.
    Pour les BH, c’est toujours la même histoire depuis le début. Les autosplogs seront évidemment pris dans la tourmente car franchement ça ne vaut pas tripette. Le truc est que l’état d’esprit BH oblige à trouver des parades; c’est indispensable.

    @Fred : le moteur peut détecter un contenu dupliqué de manière brute ou même si la soupe de mots servie sur une page ressemble vaguement à d’autres soupes de mots déjà présentes sur la Toile de manière similaire sur le plan sémantique. Remplace « argent » par « finance » et il voit que c’est la même chose.

  25. Dans l’idée, c’est pas mal de privilégier les créateurs de contenu plutôt que les copie-colleurs..

    Dans les faits, je sais que c’est la panique chez certains comparateurs de prix indépendants qui ont vu leur traffic baissé de plus de 90%.. alors que comme par hasard c’est google product qui va être mis en avant..

    « Don’t be evil » qu’ils disaient..

  26. Panda a fait tomber des comparateurs, mais le but originel est de toucher les contenus de piète qualité comme ils disent. Ces textes sont absolument uniques et même bien mieux du point de vue sémantique que certaines dépêches d’infos ou billets de blogs.

  27. Très content d’avoir lu ce billet !

    J’ai adoré :

    « les mêmes fervents dénonciateurs du profit malsain des fermes de contenu sont bien entendu défenseurs de la liberté d’expression »

    Le problème c’est qu’ils représentent l’idéologie dominante et que faire du poignon ca dérange surtout ceux qui n’en font pas.

    Pour le moment on a pas assez de recul pour analyser l’ADN de ce Panda, mais je suis un peu sceptique sur la pénalisation des « sites affichant trop de pub » par exemple.

    Je n’ai pas de chiffres, c’est donc un avis subjectif qui a ses limites, mais à mon avis si l’on analysait la composition du réseau display de Google on se rendrait compte que la publicité « abusive » (Selon la notion grand public du terme abusif) représente une grande majorité au sein du réseau.

    Cela m’étonnerait que la bete se tire une balle dans le pied et flingue par la meme occasion une très grosse partie de son CA.

  28. faire du pognon dérange surtout ceux qui n’en font pas.
    Tout est dit! Si tu regardes d’où est parti le bruit anti Demand Media, c’est exactement ça.

    PS : j’ai corrigé ton URL. T’avais oublié le TLD…

  29. Quand on lit un site français qui s’approche du concept de ferme de contenu comme l’est Excite, on s’aperçoit en effet que leur contenu est potable et même souvent intéressant. Le fait d’écrire avec jugeotte et orientée référencement de la dernière mode en matière de chirurgie esthetique ou de livrer des bons plans de vol low cost n’est pas un crime.
    Je rends hommage aux gens qui tous les jours s’étripent les neurones à rédiger en commande des dizaine de textes et qui comme vous le dites sont payés au lance-pierres

  30. @Laurent : Enfin bon, ça peut aussi être quelque chose d’autre beaucoup plus subversif…

    Je pense que c’est bien plus subversif, c’est un passe droit tout simplement et un détournement de l’algo

    @Laurent : n’hésite pas à venir discuter en privé avec moi.

    Volontiers mais on fait comment ^^

  31. Bonjour Laurent,
    Tout d’abord merci pour ces avis croisés avec Julien. Débat très intéressant.

    Je suis assez d’accord avec tous les deux, soit l’acceptation des principes capitalistiques complets :
    – Google est maître chez lui et fait ses règles comme bon lui semble. Il est juste obligé d’appliquer les mêmes à tout le monde, basés sur des critères qualitatifs ou quantitatifs.
    C’est une entreprise, qui, comme chacune, a pour ambition de gagner de l’argent. On ne peut lui reprocher de s’en prendre à ces fermes qui, par leur positionnement, viennent mettre en péril la pertinence de ses SERPs, et donc ces gains.

    – Sur le marché, tout le monde y a sa place.

    Mais Google, n’est pas le marché. Google n’est pas non plus Internet. On aurait parfois tendance à l’oublier. Et cette discussion n’aurait sans doute pas lieu si GG avait des concurrent de taille, face à lui. On prie pour que Yahoo!/Bing trouve une place permettant d’équilibrer le marché.

    On pense aussi aux réseaux sociaux. S’ils ont leur rôle à jouer, d’une certaine manière dans le SEO, ils ont surtout une existence propre. Ils sont une belle alternative partielle à Google.

    Pour revenir à la question de l’évaluation de la qualité par Google, j’ai une petite théorie dans laquelle je fais d’ailleurs référence à un de tes textes.

    Merci encore.

    Wladimir

  32. Encore un excellent billet pour lequel je partage le point de vue.
    Une question me taraude toutefois, comment Google compte récupérer la perte de revenus Adsense des sites qu’il aura renvoyés au bac à sable?
    Je leur fais confiance pour ne pas se tirer une balle dans le pied, mais pour le moment, je ne vois pas.
    Comme souvent, Wait and see…

  33. Ce qui me dérange le plus dans chaque mise à jour ce sont les spéculations… Il est très difficile de savoir comment préparer son (ou ses) site(s) pour passer le cap !

    Cette nouvelle mise à jour me fait peur pour les boutiques que je gère car une baisse brutale du trafic peut nous mettre dans le cercueil !

  34. tel godzilla on ne sait pas à qui l’algo va s’en prendre exactement, les monstres de ce genre aiment les beaux gros building du web mais les petits sites se ferons aussi piétinés dans cette frénésie… et pour tant un PANDA c’est mignon… google aurai peu trouver un nom plus évocateur, appelons un chat un chat.

  35. Intéressant. Moi je préfère attendre la MAJ en France pour me prononcer sur le sujet.

    A l’heure actuelle, je suis d’accord avec toi. C’est facile de venir exploser à coup de bulldozer son propre chantier quand on réalise des années après qu’il est mal foutu.

    Toutes ces fermes jouaient sans tricher. Maintenant, admettons qu’il vaut mieux les dégager pour préserver la qualité des SERPs, reste à voir en France si les petits MFA vont vraiment être expulsés aussi ou pas.

    Ensuite, ben, c’est comme toujours, faudra s’adapter. Créer plusieurs comptes auteurs, limiter le nombre de pubs, ne pas bouriner sur le maillage interne, passer en noindex les pages contenant trop peu de contenus, notamment les pages catégories, formulaires, etc… Et bien sûr, faire de belles pages de contenus, avec au moins 300 mots, habillées de quelques images ou videos.

    Avec ces quelques précautions, les MFA des webmasters indépendants devraient tenir le choc je pense.

    Une fois de plus, let’s wait & see !

  36. Je commence à être vraiment impatient de voir l’arrivée de Panda en France. On ne peut rien faire contre son arrivée, et ne pas savoir si on va se prendre une « claque », ou être gagnant avec cette MAJ… Sachant qu’aux Etats-unis il y a eu l’un comme l’autre…

  37. Dans l’idée, c’est pas mal de privilégier les créateurs de contenu plutôt que les copie-colleurs…

    Maintenant comme tu le dis très bien j’ai du mal à voir comment un algorithme va pouvoir évaluer la qualité d’un contenu…

  38. Pas de doute, à chaque changement dans l’algorythme (connu ou inconnu du grand public), Google redéfinit la qualité des résultats de recherche et améliore l’ergonomie du net pour des milliards d’utilisateurs.

    Vive le changement!

  39. Mais Panda est-il passé en France ou pas encore ? Certes il est normal qu’un site qui fasse uniquement du copier-coller subisse le courroux du géant américain. Après, ce nouvel algorithme sera-t-il suffisant performant ? N’y aura-t-il pas des dérapages ou des erreurs ? Une large perte de trafic en quelques jours peut s’avérer catastrophique pour une petite entreprise…

  40. Ping : Bloguer ou ne pas bloguer » The Japanese Garden of Starfleet Academy on Venus

  41. Sans vouloir en remettre une couche, lu sur l’express (le site web)

    Le référencement de certains site à lui été amélioré par la mise à jour Panda. Parmi eux, pas de réel outsider car ils sont tous ou presque des sites de référence. Le site d’enchères Ebay a depuis mardi vu sa visibilité augmenter de 42% tandis que celle du site high-tech Techcrunch a pris +41%. La visibilité de Blogspot a elle augmenté de presque 23%, celle de Youtube et Vimeo de 19%.

    Pourquoi ces sites là sortent-ils gagnants après le choc Panda ? Selon Searchmetrics, ce n’est pas une surprise car ce sont ceux sur lesquels les internautes passent le plus de temps.

    Reste le doute sur certains sites qui pourraient être privilégiés. En mars dernier en effet, Google avait admis lors du salon sur le search marketing SMX West, faire usage de « listes blaches » de sites intouchables, qui échappent à certaines évolutions de son algorithme.

    Il y a bien des sites priviliégés, donc comme il n’est pas possible de lutter à armes égales, vive le Black Hat ^^ 🙂

  42. Excellent article, je l’ai devore.

    J’aimerai simplement apporter mon petit grain de sel: selon moi, le probleme n’est pas forcement la qualite du contenu mais la veritable notion de ferme de contenu.

    Je pense que Google a une certaine vision du web: un web participatif dans l’interet de l’internaute.

    Ainsi, quand il voit des sites enormes apparaitre, de veritables usines a gaz, pondre des milliers d’articles par jour, utilisant une popularite non concurrentiable par de simples blogs, et releguant ainsi bon nombre de sites un peu plus loin dans les SERPs, il a decide d’agir avant que tout cela n’empire.

    Alors certes, on ne peut citer qu’une poignee de sites de ce type, et c’est une bonne nouvelle, car cela signifie qu’on ne verra pas de nouveaux sites apparaitre, ou du moins pas immediatement.

    Dans tous les cas, 100% de ton avis lorsque tu evoques la notion tres subjective de qualite du contenu.

  43. Je pense qu’on est tous d’accord sur l’impossibilité de juger automatiquement de la qualité d’un contenu étant donné qu’il est déjà presque impossible de le faire humainement. Google qui s’est fixé pour mission « d’organiser l’information sur le web » est en train de devenir un gendarme et un juge, car il repère les malfrats et les sanctionne lui-même. Dans ce cas, pourquoi ne pas exclure de l’index les sites qui proposent des services malhonnêtes ou dont le service client n’est pas bon ?

    Ce croisade de Google contre les fermes de contenu est malhonnête car elle n’est pas motivée pas la volonté de fournir un contenu plus pertinent à l’internaute mais plutôt de défendre les intérêts financiers de la firme…

  44. Certes à l’échelle humaine, le travail serait colossale et comme vous l’avez précédemment cité, un consensus général est difficile. Toutefois, combien de fois avons-nous fait des recherches googliennes pour ne trouver que des sites peu pertinents? Je crois que l’initiative est bonne, même si nous pouvons difficilement jugés de la pertinence de celui-ci.

    Mais j’ai confiance au travail des employés de google.

  45. J’en viens à me poser la question…ce qui est pêché comme tu dis ne viendrait il pas du fait que d’autres personnes gagnent du fric en dehors du modèle proné par Google ?

    A la limite, j’ai vu des concurrents avoir un contenu ridicule, un nom de domaine utilisant une marque déposée sans en avoir le droit et annoncer sur Adwords…

    Dans ce cas là le robot qui audite le web en bouffant des Tera octets n’y trouve rien à redire, ce sont des clients…de google 😉

  46. La fin des fermes de contenu, que demander de plus. Ce qui est sûr c’est que cette mise à jour fait vachement jaser. Est-ce la fin du SEO et le grey hat ? La question mérite d’être posée. Et l’avenir nous le dira. Google nettoie son index. Mais le panda fait surtout peur pour rien. Une grenouille déguisée en éléphant c’est tout ce que représente ce panda géant.

    Comme le Juge, ma réponse sur le sujet est en préparation.

  47. Autant je trouve ça moche de désavantager les sites de Questions/Réponses qui font partie des contenus intéressants, autant les fermes de contenu je trouve ça cool de s’y attaquer. C’est vraiment du contenu fait pour le référencement, en oubliant peut être un peu trop que le web c’est avant tout fait pour les humains !

    Il y aura toujours moyen d’abuser des algorithmes des moteurs de recherche, mais quand les webmasters s’intéresseront plus à la qualité de leur contenu qu’à leur référencement, on aura déjà fait une avancée considérable 🙂

  48. Bonjour, j’ai un petit site sur la collection de minéraux, je me demandais si on savait quand Panda arrivait en France ? Ce que vous signalez, les effets de bord, sont en effet inquiétants. J’ai peur que les « gros pro » s’en sortent et que les petits qui font du rédactionnel par passion ou pour un petit commerce sans de grande connaissance en code et seo morflent… Juste par « bêtises » dues à un manque de compétences techniques. Max, webmestre et collectionneur de minéraux.

  49. Je pense que la mise à jour ne peut être que bénéfique pour les fermes de contenu dans le genre de eHow.com, qui a d’ailleurs perdu gros dans l’affaire en voyant sa visibilité dégringoler!
    Mais ce n’est pas plus mal, enfin, c’est mon point de vue.

    Merci pour ton article.

  50. Qu’est-ce que Panda nous rappelle ? Qu’on est tous dépendant de Google pour gagner notre croûte ! Mais je ne m’inquiète pas pour le sort de la majorité des SEO masters.. On a toujours su s’adapter et ce n’est pas prêt de changer. Un algorithme, ça s’étudie et il aura assurément des failles. Et puis n’est-ce pas là une difficulté qui donne de la valeur à notre expertise ? Si c’était si facile de convaincre Google de nous référencer, il n’y aurait pas d’expert en SEO ! Je préfère changer ma perspective et me dire que c’est une nouvelle manière de rendre ma profession plus indispensable encore !

    A+ et merci pour l’article, il est très bien rédigé !
    Guillaume,

  51. Moi j’ai l’impression que ce Panda c’est quand même beaucoup de bruit pour rien. Les sites touchés ne sont pas si nombreux, si ?

  52. Ton point de vu est correcte mais, je suis assez d’accord avec Guillaume. Google est incontournable en (particulièrement en Europe), on est dépendant de lui…même si ça ne me plait pas d’ètre dépendant d’une firme, on n’a pas le choix si ce n’est s’adapter…

  53. On a vu les résultats de panda en angleterre (pour rappel : wikio et ciao -90%, voir searchmetrics pour quelques détails)

    Et on peut s’interroger sur la notion de qualité ?

    Wikio qui regroupe des contenus de qualité écrits par des (enfin une partie) auteurs de qualité… mais qui existent déjà par ailleurs. Et ses contenus « par ailleurs » ne sont plus sur de recevoir la même audience.

    Ciao, qui regroupe des avis consommateurs … qui peuvent avoir une importance pour l’internaute plutot qu’un lien commercial.

    Je suis curieux de voir l’impact sur commentcamarche en france, qui truste pas mal de résultats

  54. Pour moi je pense que Google prend un gros risque en pénalisant des milliers de personnes sur des critères aussi subjectifs que la qualité d’un article.

  55. On voit maintenant l’importance de travailler au maximum le contenu du site.
    Ça peut être très intéressant au niveau pédagogique mais également pour se démarquer des autres.

  56. Sympa d’avoir du contenu, c’est sur mais panda c’est la mort des petits… Juste une question : qui a le potentiel pour développer un site internet à forte influence tout seul ? ça va laisser la place aux grosses structures qui ont les moyens d’avoir plusieurs rédacteurs ! Biensur on aura gagné en qualité, mais peutêtre pas en innovation…

  57. Perso, je gère plusieurs petits sites et je n’ai vu aucune différence depuis l’arrivé de panda.
    Maintenant, je pense que le recul est assez grand pour pouvoir l’affirmé. Donc comme d’habitude, je pense que google a surtout voulu faire peur aux détenteurs de MFA (et je pense pas qu’il est réussi).
    Et aussi, l’histoire des sites communautaires qui seraient déclassé si une question n’a pas été répondu. C’est une foutaise, je gère un forum qui, surement comme tous les forums, comporte des questions sans réponse et mon référencement n’a pas bougé d’un poil. Enfin si, il a un peu augmenté 😉

  58. Du grand n’importe quoi cet animal, encore un truc à faire flipper pour dissuader, mais l’esprit reste quand même louable. Essayer de maintenir un web propre en tentant une prise de conscience globale. Ah culpabilité quand tu nous tiens.

  59. Je ne pense pas que Panda soit aussi redoutable qu’on le dit. Ce serait se tirer une balle dans le pied pour Google aussi de pénaliser tous les sites qui utilisent adsense en masse.

  60. Merci pour l’article. Il est vrai qu’on ne sait plus trop sur quel pied danser. Pour moi, la plus grosse crainte vient du taux de rebond et de sa part dans l’algorythme. Car, après tout, si l’internaute trouve sa réponse, il décampe mais ça veut aussi dire que l’article correspond bien à la requête. Alors pourquoi se faire déclasser pour un taux de rebond et un temps de lecture important ? That is the question !

  61. Je pense que cette mise à jour est globalement bénéfique. La perte de temps occasionnée par les sites spammeurs ou agrégateurs de contenu pour refiler de la publicité était devenue insuportable.

  62. Il est parfaitement vrai qu’une machine ne peut juger de la qualité d’une œuvre pour la bonne raison que les humains ne sont pas tous d’accord sur ce qui est beau.

    Juridiquement parlant la création d’un Auteur confirmé à la même valeur que M. Tout le monde.

    On peut donc considérer qu’un site constitué du sol au plafond de publicités peut émouvoir une certaine partie de la population qui y verra un assemblage créatif.

  63. Je suis assez d’accord avec ton point de vu. Cependant (et malheureusement) Google est incontournable (vrai en France, ce n’est pas le cas aux states), et on est dépendant de lui… Pas le choix que de s’adapter à l’heure actuelle à moins d’un changement massif du comportement des utilisateurs…

  64. Ce nouvel algorithme va faire très mal au spammeurs sans aucun doute.
    Il est temps que le contenu d’un site soit la priorité pour l’avenir du web.

  65. @clamounette :

    c’est en tout cas l’intention affichée par google depuis… toujours ??

    mais d’autres pratiques de leur part les discréditent un peu, comme par exemple inclure le bouton +1 sur les pubs…

  66. Après le passage de panda je n’ai pas vu beaucoup de changement, un léger mieux, mais rien de sensationnel, beaucoup plus un effet d’annonce. J’ai quand même l’impression que les optimisations on-page ont été légèrement revalorisées.

  67. Comme d’autres l’ont dit, il suffit de créer un site avec du contenu pour ne pas être touché par panda. C’est toujours la même chose : rester naturel lors de la création de son site. Après un peu de BH ne fait de mal à personne de temps en temps, mais il faut absolument garder un site clean !

    Personnellement panda m’a fait plus de bien que de mal.

  68. Ping : Le contenu devient prioritaire (et n'importe quoi) dans l'ère Post-Panda

Laisser un commentaire