Google peut manipuler manuellement les résultats de recherche

Bing copie GoogleDepuis toujours, je plaide la cause du 100% algorithmique chez Google, réfutant les théories de manipulation manuelle.

Sauf que l’affaire plutôt du plagiat de Bing sur les résultats de recherche Google suggère une interprétation supérieure prouvant la capacité d’effectuer des changements à la main dans l’index.

Franchement, l’affaire qui a fait le tour de la communauté du référencement hier est plutôt rigolote. Bing piquerait carrément des résultats de recherche sur Google (résumé en français sur Webrankinfo). Microsoft a démenti sèchement, mais les faits semblent irréfutables. Je ne  vais pas m’étendre là dessus car ça d’autres ont déjà fait le tour et ce n’est pas ce qui m’a intéressé dans cette histoire.

Par contre, une petite phrase lâchée dans le démenti nous confirme que les signaux envoyés par les actions de l’internaute sont tout à fait pris en compte par Bing. Les indices et même les preuves de l’existence du PersonRank sont tout autant présents pour Google, même si la voix officielle se défend d’utiliser les merveilleuses données envoyées par les internautes.

Le PersonRank officialisé par Bing

J’en profite pour signaler que ça sera le sujet de la conférence que je vais donner au SEO Campus du mercredi 02 mars 2011. Le terme tout trouvé pour ce concept est PersonRank.

Manipulation ou pas ?

La théorie du complot gronde depuis les débuts du moteur fondé par Larry Page et Sergei Brin. Les rumeurs sur des sites déclassés ou valorisés manuellement ont toujours fait le tour de la communauté du référencement.

Personnellement, je n’y crois pas… enfin je n’y croyais pas.

D’abord, tout se sait un jour et personne n’a encore parlé du côté des employés et insiders de Google Inc;. C’est un secret trop gros pour ne pas être mis à jour. En plus, cela sonnerait la fin du moteur de recherche tel qu’on le connaît.
Parmi les exemples de la théorie du complet, on entend régulièrement quelqu’un clamer que son site est déclassé suite à la fermeture du compte Adwords.  Vous croyez vraiment que les ingénieurs du Search vont donner le pouvoir à un commercial Adwords de flinguer un site ?

En tout cas, jusqu’à hier, il n’y avait pas de preuve irréfutable d’une quelconque manipulation manuelle dans les résultats de recherche Google.
Les voix officielles de Mountain View ont toujours suggéré qu’il n’y avait même pas de moyen technique pour changer les résultats de recherche à la main. A priori, il existe des filtres algorithmiques et un blacklistage manuel. Mis à part l’éjection brutale d’un site de l’index, on pensait que le positionnement était strictement une affaire d’algorithmes.

Quelques sources réfutant officiellement les interventions manuelles :

  • « At Google we do not manually change results.” –Udi Manber, Google VP in Charge of Search Quality, April 16, 2008, in Popular Mechanic
  • « Our third philosophy: no manual intervention…The final ordering of the results is decided by our algorithms…, not manually by us. We believe that the subjective judgment of any individual is…subjective, and information distilled by our algorithms…is better than individual subjectivity. » –Amit Singhal, Google Fellow in Charge of the Ranking Team, 2008, on The Official Google Blog
  • « [O]ur search results are generated objectively and are independent of the beliefs and preferences of those who work at Google » —Lucinda Barlow, Head of Corporate Communications for Google Australia, 2010
  • « ‘Don’t be evil’ [means] providing our users unbiased access to information. » –Google Code of Conduct as provided to investors (first paragraph)
  • « [W]e work very, very hard to keep the answers – the natural search answers completely unbiased. » —Eric Schmidt on National Public Radio, 2009
  • « We never manipulate rankings to put our partners higher in our search results » – Google.com « Our Philosophy« 
  • « [O]ur crawl process is completely automated; we don’t … manipulate search results by hand. » —Google Web Search Help
  • “Google’s search results are solely determined by computer algorithms that essentially reflect the popular opinion of the Web. Our search results are not manipulated by hand. We’re not able to make any manual changes to the results. » —David Krane, Google spokesman, 2004
  • Our « approach to search is » « fully automated. » –Sergey Brin, press release, 1999
  • « A site’s ranking in Google’s search results is automatically determined by computer algorithms using thousands of factors to calculate a page’s relevance to a given query. … Our search results are generated completely objectively and are independent of the beliefs and preferences of those who work at Google. » –Google’s Explanation of Search Results, as it stood through May 2007, as preserved by Wall Street Journal and Archive.org

Source : Benedelman.org

Jusqu’à hier…

L’affaire du plagiat par Bing a permis de révéler que les ingénieurs Google ont mis en place des manipulations manuelles pour mettre à jour la triche de Microsoft.

En discutant ainsi de la méthodologie, les googlers n’ont pas pensé aux conséquences que j’évoque dans ce billet.

Maintenant, c’est officiel d’affirmer que la manipulation manuelle est possible.
Comme tout s’achète, pourquoi ne pas aller à Mountain View pour offrir une mallette remplie de billets pour assurer que mon site soit bien positionné ?
Puis finalement, pourquoi ne pas donner le pouvoir aux commerciaux Adwords de déclasser un site si le vilain a stoppé d’engraisser la cagnotte ?

Ça me tracasse juste que personne n’ai parlé. Il y a toujours quelqu’un qui parle…

Dans tous les cas, ça me semble maintenant difficile de défendre la cause du 100% algorithmique.

Au final, Bing devait se retrouver au pilori pour une quelconque affaire de plagiat, mais nous avons dans le même sac les signaux de pondération envoyés par l’internaute chez Bing et Google, puis les manipulations manuelles dans les résultats de recherche de Google.
Hier n’était pas la journée pour louper sa veille.

70 réflexions sur “Google peut manipuler manuellement les résultats de recherche”

  1. Google répondrait que cette action n’est qu’un test et qu’il n’intervient pas dans le classement des résultats, sauf pour supprimer le spam, bombing et autres joyeusetés.
    Ce que appelles Personrank est développé dans de nombreux brevets déposés par Google ou par des universités américaines liées à l’entreprise, mais nous sommes bien loin d’une application de ces recherches, même si Google apprécierait de le faire (moins de spam ressenti par l’internaute, plus de CA via les publicités pour Google).

  2. Ca m’a également marqué cette petite phrase « The only reason these pages appeared on Google was because Google forced them to be there. »

    Il est clair que ce sujet est beaucoup plus grave que le simple fait ridicule que Bing en est rendu à copié Google. Il se pourrait bien que leur tentative pour mettre Bing sous terre se retourne doucement contre eux. Mais le plus étonnant c’est le peu de subtilité dont ils ont fait preuve pour annoncer ça. Ils ont mis en péril leur image de chevalier blanc et de leur éthique pour révéler une affaire qui ne scandalisera aucun utilisateur moyen. Au mieux ca les fera sourire, ca les occupera 2 minutes dans leur journée, puis ils oublieront.

  3. je pense qu’il y a bien plus de manuel que l’on peut l’imaginer.

    Sachant que j’assimile à du manuel ce genre d’algo
    if($url== »wikipedia.com »)$boost++;

    Sans compter l’ensemble des pénalités manuelles qui là sont clairement indéniables.

  4. @Aurélien Delefosse : peu importe leur réponse car ils ont toujours dit que ce n’était même pas possible « déontologiquement » ou « techniquement ».
    Aujourd’hui, c’est officiellement possible, donc tout le reste peut se supposer.
    Pour l’application du PersonRank, Bing l’a aussi officialisé et déclare que « d’autres moteurs de recherche utilisent pour classer les sites ». A chacun de lire entre les lignes, mais nous ne sommes pas du tout dans des concepts universitaires.

    @Morgan Prive : dans ce genre d’affaire, ça passe ou ça casse. La théorie du complot peut rester au rang de légende urbaine ou se transformer en véritable scandale.

    @Aurélien Bardon : le cas de Wikipedia peut être traité de manière algorithmique; même si tu as raison dans le sens où c’est bien un type bien particulier de site, unique sur le Web, qui est valorisé.

  5. C’est une bonne réflexion, j’étais passé à coté hier en lisant rapidement les conclusions de Google sur le vol des résultats par Bing.
    Je pense comme Aurélien (Oseox) que c’est assez fréquent et comme Aurélien (Delefosse) qu’ils vont se protéger en disant que c’est uniquement un test.

  6. Le fait que Google Search ne soit pas 100% algorithmique semble évident puisque que Google Adresse passe premier sur certaines recherches. Alors que souvent le contenu des premiers liens « hors Google » sont souvent bien plus complet.

    Je ne sais pas si je suis bien clair, je vais donc prendre un exemple. Je suis une association béthunoise appelée Le Samaritain. Lorsque l’on tape Association Le Samaritain, c’est une Google adresse qui tombe en premier, alors que le site de l’association possède bien plus d’information !

    C’est évident que Google Search ne soit pas 100% algorithmique !

    Après, je ne leur jette pas la pierre puisqu’après tout, Google Search est leur propriété, ils en font se qu’ils veulent ! non ?

  7. Google adresse privilégie les entreprises qui se sont inscrites sur la plate-forme Google Adresse et ont fournies des informations géographiques.

    Mais même si les entreprises possédant des infos GA sont privilégiées, le classement de ces entreprises reste toujours ordonné selon l’algorithme de Google.

    Si tu t’inscris sur GA, tu devrais être en concurrence normale avec l’autre association selon les critères de référencement habituels.

  8. Tu vises juste.

    Beaucoup pensaient que ce genre de manipulation était techniquement possible.

    C’est désormais officiel.

    Cela risque d’être un argument de poids dans les futurs procès pour abus de position dominante.

  9. Comme je te l’ai dit ailleurs, Google n’a jamais caché l’intervention manuelle sur les résultats.

    Et notamment quand ils y sont légalement obligés (some pages have been removed from the results) quand ils y sont légalement obligés.

    Ce qui est nouveau ici, c’est que l’intervention n’est pas pour « supprimer » mais pour promouvoir.

    Il est évident que c’est « possible » techniquement.

    Restent deux questions :
    – l’éthique de Google, et l’encadrement du test. Sommes nous dans un cas où les sécurités sont là pour qu’une telle manipulation de puisse être possible qu’avec l’accord « des plus instances », et croit-on personnellement ou pas à l’éthique de Google qui s’interdit de faire certaines choses (ou à son sens commercial bien compris, nous sommes là pour promouvoir les meilleurs résultats, pas de la daube parce qu’on nous file un bakchich)

    – le manpower nécessaire pour faire ce genre de choses, est ce facilement ou pas praticable sur une grande échelle

    Il faut aussi garder en tête, je pense, que ce qu’on reproche à Google, comme la promotion de ses propres sites / résultats (Google Adresse, Yahoo) peut se faire de façon purement algorithmique)

  10. @Agence Web Vendée : chacun son opinion sur la théorie du complot. Voir tout de même les sources que j’ai cité dans l’article montrant le message officiel qui réfute cette théorie.

    @Paul Gruson : je ne vois pas pourquoi une valorisation de Google Adresse ne serait pas automatique.

    @Morgan Prive : exactement!

    @Watussi : ah oui j’avais oublié ce procès en cours. L’autre débat concerne la manipulation des résultats de recherche pour augmenter les revenus publicitaires. C’est encore autre chose.

    @Crajkaro : tu peux croire à la théorie du complot, mais j’avais aussi toutes les évidences que ce n’était pas le cas.
    En tout cas, ce n’est pas aussi évident que tu sembles dire.

    @Marie-Aude : voir toutes les sources que je cite pour affirmer que justement Google a toujours dit ne pas manipuler les SERPS.
    Le blacklistage ou l’élimination suite à une procédure n’est pas le sujet.
    En effet, la liaison pub et organique mérite de s’y attarder, mais c’est comme tu dis certainement algorithmique (si ça existe). Voir le lien que j’ai donné @Watussi.
    Pour les autres, le « ailleurs » que tu mentionnes est une discussion Webrankinfo.

  11. @Laurent
    effectivement, je suis d’accord avec toi, Google a toujours dit ne pas le faire. Mais n’a jamais dit qu’ils ne pouvaient pas le faire. (sauf en 2004… la technique évolue).

    Là ils l’ont fait, dans un cas très particulier, et ils l’annoncent.

    Ils ont effectivement ouvert une grosse boite de Pandore, mais je pense que le garde fou principal reste leur philosophie… et la nécessité de produire des résultats de qualité pour rester les meilleurs.

    Le blacklistage est quand même un peu le sujet, je pense, car ceux qui se plaignent de la position hégémonique de google sont ceux qui disparaissent des résultats, en accusant Google d’un biais et d’un parti prix contre eux.

  12. Le problème avec Google est qu’il faut toujours lire entre les lignes.
    Par exemple avec Matt Cutts, c’est plutôt ce qu’il ne dit pas qui est plus important.

  13. Clairement il doit y avoir de petites manipulations indétectables. Mais…

    @Aurélien Sincèrement je pense pas que Wikipédia soit poussé manuellement. Tu as vu le nombre de liens, de pages indexées, etc ? AMHA un audit SEO approfondi justifierait ses positions.

    Et en ce qui concerne Adwords, comme tu l’as si bien dit Laurent, s’il y avait vraiment des trucs louches, depuis le temps, on le saurait.

    Les conséquences d’une telle révélation ou d’un tel constat empirique irréfutable (Vis à vis de l’analogie Adwords / SEO) serait désastreux pour Google !

    Donc du 100% algorithmique, peut-être pas, mais même si on savait tout, je ne pense pas qu’on crierait au scandale 🙂

  14. J’ai toujours été persuadé que Google pouvait dans une certaine mesure manipuler manuellement les résultats. Et c’est assez justifier dans certain cas.
    En effet Google n’est qu’une machine fonctionnant sur les bases d’un algorithme. Il peut donc lui être difficile de prendre en compte tous les enjeux politique, financier, économique… qu’il peut y avoir à travers le monde à un moment T, en fonction des contenus qu’il diffuse.
    Une action humaine est forcement nécessaire dans des situations qui peuvent devenir hors contrôle.

    Après cela n’est qu’une supposition et de nombreux autres facteurs entre en jeux pour qu’un garde fou soit mise en place.

    Mais comme dans tout secteur où les machines font le plus gros du travail, il doit y avoir un contrôle humain.
    Après je pense que pour Google la limite de l’action humaine dépend comme la dit @Marie-Aude :  » de leur philosophie… et la nécessité de produire des résultats de qualité pour rester les meilleurs. « 

  15. Je suis du même avis que Marie Aude. Avoir la capacité de faire quelque chose n’a jamais fait de personne un coupable.
    Les classement du moteur Google sont la poule aux oeufs d’or. Une poule qui crache des milliards de dollars par mois. Faudrait être suicidaire pour bidouiller avec une telle pompe à fric… surtout quelle est scrutée sous toutes les coutures.

    Je suis plutôt un « Google sceptique ». Mais à suivre Google depuis 12 ans, je suis persuadé qu’ils ne tripatouillent pas les résultats pour promouvoir des sites… à part peut-être leurs propres services.

  16. Je partage entièrement ton point de vue, ce qui m’avait mis la puce à l’oreille c’est les différentes attaques de type Google bombing où très clairement les résultats avaient été ensuite transformés ou modifiés. La seconde raison n’est autre que le fait que Nicolas sarkozy apparaisse en 2 sur la requête Facebook, et tous mes doutes se sont levés après l’explication fournie par Google.

    Suite aux dernières modifications apportés à l’algorithme sur les requêtes locales, du jour au lendemain Seloger et Logic Immo qui n’étaient plus prsent se sont retrouvés à nouveau en top page, ce qui est d’autant plus étrange.

    Donc oui, je pense que Google fait des « cadeaux » à ses meilleurs ou très gros clients…

    Anthony

  17. Comme tu dis Laurent, la veille depuis hier est essentielle, et montre que se déroule surement un moment critique.

    Sans aucun doute, si Google a pu faire une question de principe de la non manipulation manuelle de l’algo, c’était en quelque sorte dans un autre paradigme.

    Celui où le signal social et en suivant ce que tu appelles le personrank n’avait pas encore déclenché une nouvelle révolution de palais.

    Révolution dans la mesure où GG ne peut pas totalement se « fournir » comme il veut dans les réseaux sociaux, surtout FB et Twitter, ni ne parvient à imposer ses propres outils dans ce domaine à sa convenance.

    Faut donc laisser la porte ouverte et utiliser les ressources maison, en particulier la tool bar.

    Reste que l’on est de toute façon pas vraiment ici et de façon générale dans le cas d’interventions manuelles, les données utilisateur pouvant parfaitement être introduites en 100% automatique, non?

    Il y a donc juste ce révélateur d’un test précis utilisé de façon stratégique contre Bing, mais avec peut être bien en sous main et avant tout la volonté de pouvoir mettre tout ça sur le tapis.

    Car à la suite des échanges sous ton article d’hier, il semble de plus en plus clair que pour introduire ce personrank désormais indispensable, et pas risquer de se faire « blekkoter »^^, faut plus avoir peur de parler d’interventions manuelles, ou tout moyen médiant pour conforter la pertinence de l’algo dans l’avenir.

    Autre élément intéressant lu du jour

    GG n’utiliserait pas jusqu’ici sa tool bar pour indexer de nouveaux contenus, soit mais sinon? Il y avait bien déjà comme aveu l’utilisation en matière de ranking par rapport à la vitesse. Pas plus ? ^^

    On pourrait donc presque retourner la problématique : gg profite de pouvoir prendre Bing la main dans le sac pour faire avaliser par ce biais l’utilisation des données utilisateur sans limitation ni bronca , et issues notamment de la toolbar…

    Tout ce bins, n’est ce pas plutôt un moyen tout trouvé pour google de se donner les coudées franches dans l’utilisation des données utilisateur et ce en prenant la main dans le sac Bing dans ce domaine, pour voir comment ça réagit?

    Car de toute façon pour aboutir au person rank devenu vital, faudra s’y coller au risque de se faire blekkoter^^

  18. Si ce que fait bing est parfaitement vérifié, je trouve leur stratégie vraiment peu pro, et, en plus, sans intérêt aucun pour les référenceurs.

    La manipulation manuelle du positionnement d’un site dans l’algorithme, ca a certainement du se passer, avec peu-être quelques pots de vins ?

    toujours est-il que tout ceci doit être précieusement mis sous silence…

    Concernant le blacklistage, j’ai récemment vu que l’annuaire Seek a violemment été éjecté de Google sans raison apparente.

    Abus de pouvoir ou de position dominante, il semble bien qu’ils n’en fassent qu’à leur tête

    Yvan,

  19. Je pense un peu comme Aurélien Bardon ans le sens ou a mon avis le manuel a beaucoup plus d’importance dans l’algo que ce que l’on pense. Maintenant de la a passer le pas et dire que GG défonce les gens qui ferment leurs comptes Adwords et/ou favorisent des sites « amis » … ca me semble trop complotiste… j’ai du mal

  20. L’article montre bien qu’il y a bien une modification manuelle des résultats de Google.

    C’est déjà le cas pour les homonymes, les noms de sociétés, de produits ou de sites qui ressemblent à un nom commun (fruit, lieu…) où les résultats de recherche sont modifiés.

    Mais c’est intéressant que cela a été prouvé par des personnes de confiance.

  21. En fait, je ne m’étais même jamais posé la question. J’ai toujours pensé que Google retouchait ponctuellement les résultats manuellement lorsqu’ils en ont envie.

    Que ce soit le déclassement forcément manuel de certains sites (blacklistage), la baisse de PR pour vente de liens, les retouches pour contrer le Google bombing, la mise en avant de certains services Google.

    Bien sûr, ils ont interêt à faire faire le maximum de choses par l’algo, mais je ne pense pas qu’un jour l’humain puisse totalement sortir du loop.

  22. « Comme tout s’achète » : Le web ne fait que reproduire ce qui existe déjà dans la vie réelle depuis des siècles.
    C’est triste comme réalité mais l’ignorer serait encore plus bête.

  23. Merci pour cette mise sous lumière d’un sujet qui semble avoir nourri un mythe depuis quelque temps 😀
    Personnellement, le fait que Google puisse manuellement retoucher l’algo ne me surprend pas ni ne me gêne. C’est plutôt le fait de l’avoir toujours fermement nié depuis tout ce temps… Mais bon je suppose qu’en terme de communication, il vaut mieux nier que d’avouer certaines choses déplaisantes à son marché… jusqu’au jour où…

  24. Pour moi, j’étais sur que Google manipulait ses résultats manuellement, pour ses sites amis et ses services.
    ils viennent de le confirmer et de façon éclatante, le problème rencontré par Seek en Décembre en est un autre, je ne parle du contenu qu’il y a sur le site mais de l’intervention manuelle qu’il y a eu pour l’éjecter violemment de l’algo.

    j’ajouterai que depuis environ un an les résultats fourni par Google ont beaucoup baissé en qualité.
    l’apparition massive de contenu de type « splogs, usine à contenu, content spinning, etc…. » a pollué les résultats de Google

    Google a un vrai problème a régler la, et je ne suis pas sur du tout qu’ils aient la solution, à part shooter à la main des fermes de liens entières ».

    Pourquoi je parle de cela, parce qu’il y a un site qui m’agace pas mal et depuis longtemps, c’est « commentcamarche.net », ce site est une usine à contenu, ils sont partenaires avec Google,

    et lorsque vous cherchez un truc sur Google, vous avez beaucoup de chance de tomber sur eux.
    mais avez vous trouvé une réponse sur leur site ?
    cela n’arrive pas souvent, vraiment pas souvent.

    Matt cutts parle de faire la guerre aux usines à contenu!!!
    voyons voir si ils vont virer de l’index, le partenaire commentcamarche.net dans l’année 2011

    si il n’est pas viré, c’est qu’il y a intervention manuelle sur l’algo

    🙂
    Cdt Eric

  25. @Nicolas Deschamps : comme tu dis, des révélations venant de l’intérieur seraient lourdes de conséquences. C’est ce qui ne me fait pas adhérer à la théorie du complot.
    Bien sûr, chacun son point de vue et je suis prêt à en changer, mais je n’aime pas faire des plans sur la comète.

    @Mikiweb : certaines situations sont effectivement gérées à la main; lorsqu’il s’agit de sortir un site de l’index.
    Ensuite, il demeure de nombreux cas de sites litigieux qui ne sont pas touchés et pourtant la raison dicterait de le faire. Pour exemple, Google est fortement empreint de tradition juive et pourtant les sites négationnistes ont leur place. Si j’étais à la place des fondateurs et que je pouvais manipuler les résultats, c’est sans doute un des trucs que je giclerais.

    @MagicYoyo : je ne suis pas sûr que tu as bien compris l’avis de Marie Maude ou le mien…
    En l’occurrence, tu es de mon avis et pas du sien.

    @Aurélien : j’envie ceux qui arrivent à s’exprimer en 140 caractères.

    @Anthony : les Google Bombing peuvent tout à fait se gérer de manière algorithmique.

    @Arnaud : en effet, l’utilisation des données utilisateurs n’ont rien à voir avec ce débat. Aucun problème pour incorporer cela dans l’algorithme. Le problème à ce sujet est que Google nie utiliser ce type de données, pourtant tout pointe dans ce sens. La seule acceptation concerne le signal émis par Facebook et Twitter. On ne va pas me faire croire que le moteur se passerait des données extraordinaire qu’il détient en interne pour focaliser sur 2 services qui ne lui appartiennent pas.

    @YvanDupuy : certes ce n’est pas pro, mais ce n’est pas illégal pour autant.

    @LeJuge SEO : c’est bien de ne pas être du même avis de temps en temps 😀 Même si mon billet est provocateur, je ne pense toujours pas à la manipulation manuelle. Il m’en faut plus qu’un test mis au grand jour.

    @PierreB @Poazreyc : Seek n’est pas le premier ni le dernier. Le problème avec ce type de site est qu’il entre bille en tête avec le concept même de Google en tant qu’agent qualifiant. C’est exactement pareil pour un annuaire. Le site sera toléré au début, mais s’il devient trop visible, c’est la sentence immédiate.
    On peut débattre sur la manipulation manuelle à ce sujet, mais je ne vois pas de difficulté à gérer cela de manière automatique non plus.

    @ECM Performance : tu pourrais nous en dire plus sur toutes ces « modifications » que tu remarques ?

    @Sylvain : tiens, je ne te pensais pas supporter de la théorie du complot.

    @Vincent Abry : au tout début de Google, il y avait une rumeur comme quoi tu pouvais aller à Mountain View avec une malette de cash pour t’acheter un positionnement. Après, Adwords est arrivé qui revient au même. 😀
    Enfin bon, c’était une rumeur, donc tout reste à prouver.

    @hypnose : nous sommes sur la même longueur d’onde.

    @Eric : commentçamarche.com a quand même pas mal de raisons d’être bien positionné.

  26. @Salvador de Bahia
    Dis en plus sur le partenariat entre Google et CCM ?
    Ils viennent de se payer le groupe Benchmark et copainsdavant et la presse n’a même pas repris … Ils ont des raisons (bonnes) d’être bien positionné sur les requêtes de type informatique et autres 😉

  27. Salvador de Bahia (Eric]

    @crajkaro @Laurent

    ok j’ai peut être été un peu violent
    🙂

    oui bien sur il y a du contenu
    et il y en a beaucoup
    mais j’ai connu comment ça marche au tout début
    comme pas mal d’entre nous, j’imagine

    et c’était très très pertinent au tout début

    maintenant ce n’est pas toujours pertinent, tu tombes souvent eux quand tu cherches sur Google

    mais il n’y a pas la réponse à ta question
    et c’est frustrant
    🙂

  28. @Laurent

    Pour ma part, je n’ai jamais associé cela à un « complot ». Je pense que tu seras d’accord avec les exemples que j’ai donné, non ?
    Cela ne m’a jamais vraiment choqué. Il y a des moment ou l’esprit humain fait mieux que la machine. Google serait quand même assez imprudent de tout laisser dans les mains d’automatismes, même si ceux ci sont conçus par des hommes.

    J’ai une ou deux fois eu de gros doutes après de grosses gamelles en ref nat après arrêt de campagne adwords. Mais j’ai finalement mis cela sur le compte de l’algo.

    Donc pour moi, pas de complot, juste des pratiques nécessaires qui ne me choquent pas.

  29. @Sylvain : attends, faut pas jouer l’incrédule ou alors tu ne suis pas l’actu (ce qui m’étonnerait).
    D’un côté Google a toujours démenti les interventions manuelles (voir mon paquet de liens dans le billet). De l’autre côté, certains crient au complot et encore d’autres font des procès.
    Au milieu de tout ça, tu fais le Bisounours en clamant que ça te paraissait « naturel » d’avoir des interventions manuelles dans les SERPS.
    Même quand Matt Cutts évoque les interventions manuelles pour la lutte contre le spam, c’est bien de blacklistage qu’il s’agit. Rien à voir avec les accusations de déclassement ou valorisation de certaines URLs.

  30. @Laurent, en tout cas MagicYoyo a parfaitement résumé ce que je pense… on serait donc d’accord 🙂

    En ce qui concerne le ranking des sites négationnistes, Google est je pense encore plus fortement imprégné de la culture du premier amendement, qui a conduit régulièrement des avocats juifs a défendre le droit à la liberté d’expression de nazillons demeurés. Toi et moi on est plus européens dans notre façon de voir les choses.

  31. @ Laurent

    Pour être plus clair, je ne répond qu’à la seconde partie de ton article (Manipulation ou pas ?)

    Je récapitule les exemples cités par moi ou d’autres :
    – blacklistage
    – baisse de PR pour vente de liens
    – lutte contre le Google bombing
    – suppression de résultats sur demande légale
    – déclassement (blaclistage temporaire 30 jours et envoi mail par webmaster tools)
    Sur ce dernier point j’ai moi même subit des pénalités suite au passage d’un quality rater. Ceci sur + de 10 sites le même jour car la même technique était utilisé http://blog.axe-net.fr/google-penalites-manuelles/  Je suis loin d’être le seul.

    Il est donc évident pour moi qu’il y a des interventions humaines.
    Dans tous les exemples que je cite, il n’y a que des déclassements, je te l’accorde.

    Je suis aussi d’accord sur le fait que Gogle s’est toujours défendu de valoriser des URL. Mais j’abonde aussi dans le sens de MagicYoyo, sur le favoritisme accordé aux services de Google. Il suffit de taper « cinéma » ou « météo » en requête pour s’en convaincre.

    En parallèle, j’abonde dans le sens de Marie Aude ou Magic Yoyo. J’ai du mal à croire que Google prendrai de gros risques qui pourraient lui couter très cher outre atlantique s’il était prouvé que certains sites sont favorisés manuellement. Je n’ai pas de réponse sur ce point.

    Alors pour répondre à ton dernier commentaire, je ne fais pas le bisounours, bien au contraire, j’essaie de ne pas être trop crédule.

    Si je résume. Les actions manuelles ne font aucun doute pour moi dans le cadre de pénalités. Je ne trouve pas cela choquant du tout. Ensuite on peut se poser la question sur la valorisation manuelle de certains sites. Comme toi, je vois aujourd’hui que Google le fait pour l’exemple. Et s’il le fait un jour pour d’autres raisons, il est fort probable que personne n’en ai jamais la preuve…
    … a moins que Wikileaks s’y intéresse 🙂

  32. @Marie-Aude : nous sommes d’accord sur presque tout. Le seul point litigieux et c’est là où MagicYoyo me rejoint et te perd, c’est quand tu dis qu’ils ont toujours pratiqué des interventions manuelles sans l’avouer.
    Je dis qu’ils n’ont jamais avoué manipuler les résultats; bien au contraire.
    Quand à la culture US vs. Europe, j’ai vécu presque 10 ans à New York. Au contraire, je connais très bien l’état d’esprit juif et juif/israélite en particulier. Certains de mes meilleurs amis sont de la partie.

    @Sylvain : alors nous sommes d’accord 🙂

  33. Disons que j’inclus dans les manipulations manuelles les blacklistages et pénalités. Je ne pense pas qu’il y en ait eu d’autres.
    Et c’est à cela que je faisais référence « Google n’a jamais caché ».
    Simplement blacklistage et pénalités pour spam, cela implique qu’il y a un mécanisme technique pour le faire.

  34. « pénalité pour spam » me semble être du blacklistage, non ?
    Le mécanisme technique est plutôt simple : EJECT !

    On y est presque, mais il reste une différence sur le point des pénalités qui sont purement automatiques (selon moi).

    Ensuite, le grand trou noir demeure pour la soi-disante valorisation de sites. Personnellement, je ne vois pas quelqu’un appuyer sur un bouton « BOOST ». Même pour Wikipedia ou les sites Google, il est tout à fait possible de traiter ça en automatique.
    Pour les autres sites, je suppose que la rumeur continue de courir.

  35. Pour en revenir au titre du billet, le fond du sujet n’est sans doute pas que Google soit capable techniquement ou pas de manipuler les résultats.
    S’il le décide (ou s’il l’a déjà décidé) il est tout à fait capable de le faire.
    La vraie question serait a priori plutôt pourquoi pourrait-il le décider et à ce niveau il y a peut-être une lutte d’influence entre l’éthique affirmée jusqu’ici (et le chiffre d’affaires associé à la « neutralité ») et la volonté de rendre plus propres ou plus pertinents les résultats (cf beaucoup de sites pauvres, manipulés en bonne position SERP par des techniques non approuvées officiellement) ? Avec des risques de dérive et de dommages collatéraux si la création de l’outil donne des envies d’utilisation plus borderline en interne.
    Qu’en penses tu ?

  36. J’adore l’analyse : dans cette histoire, tout le monde se focalise sur le fait que Bing « copie » Google ce qui est certes incroyable et qui suscite donc beaucoup de réactions mais ça a permis de mettre sur le devant de la scène les interventions manuelles des ingénieurs de Google dans les résultats du moteur …

    Même si ces interventions étaient criantes dans certains cas (blacklistage, pénalités pour achat de lien …) comme dit plus haut, Google n’avait jamais déclarer intervenir dans ces résultats donc merci Bing ! 🙂

  37. Complètement dingue cette histoire !

    D’un côté, cela parait logique que google puisse modifier ses résultats manuellement :

    Que se passe t’il lorsqu’un site reçoit une grosse pénalité ?

    De même, selon moi, la notion de Trustrank est une autre preuve que google peut s’il le veut augmenter l’importance d’un site dans les résultats de recherche.

  38. après l’affaire du moteur « seek », l’année 2011 commence fort pour Google !!!!
    Il reste encore 10 mois à occuper, les amis 🙂

  39. Toujours le même jeu de dupes. Ils ne manipulent peut-être pas les résultats, ils « tweakent » juste leurs algos pour adapter le classement.
    Le coup de piquer les résultats sur le voisin, c’est quand même gonflé.
    Et je commençait à trouver les résultats de Bing pertinents.
    Je comprends mieux pourquoi 🙂

  40. Dis donc.. je me demande comment vont réagir Bing & Google à cela. Je trouve que cela est plus que probable désormais que Google puisse manipuler manuellement les résultats de son moteur, mais cela risque de leur apporter des problèmes maintenant que cela a été dévoilé. Pensez vous que Bing sera sanctionner lourdement pour ce plagiat?

  41. « Depuis toujours, je plaide la cause du 100% algorithmique chez Google, réfutant les théories de manipulation manuelle. »

    Exemple de requête « manipulée » à la main (cf bas de page):
    http://www.google.com/search?q=ugg+boot+cheap&start=10

    « In response to a complaint we received under the US Digital Millennium Copyright Act, we have removed 1 result(s) from this page. If you wish, you may read the DMCA complaint that caused the removal(s) at ChillingEffects.org. »

  42. Ceci est une requête éditée à la main. Rien à voir avec le sujet.
    Tout ceci est précisé dans l’article et maintes fois dans les commentaires.

  43. Ping : Conférence sur le PersonRank au SEO Campus

  44. Google peut surtout tout faire ! Les blacklistage et autres pénalité pouvant être retiré il as donc possibilité de manipuler l’algorithme manuellement.

  45. je suis vraiment déçu d’ apprendre que google modifie manuellement les résultats . il me semblait si parfait !!!
    l’ expression  » tout ce sait un jour  » n’ existe pas en américain ?

  46. Google parfait ? lol.
    Quant on voit comment Google place ces résultats systématiquement en première place alors que sa page est bien moins pertinente que les résultats qui suivent on peut se douter qu’il y a anguille sous roche…

  47. Je suis plutôt déçu de ce constat. Parce qu’on ne voit pas ce que cela apporte à l’utilisateur final.
    Le déclassement manuel, ça se comprend très vite (ce site est dangereux pour un raison X ou Y). Mais le classement naturel, non. D’autant que, comme tu le dis, il y a risque d’achat de quelqu’un de bien placé chez Google.
    Ou l’art de se discréditer en voulant discréditer son concurrent…

  48. à partir du moment ou il y a des enjeux financiers … cela reste possible voir probable !

    après ce n’est qu’une question de temps pour le savoir !

    diversifions ! diversifions !

  49. Ne fait pas comme si toi même tu n’en avais profité.
    Tout le monde sais bien que tu as payé google pour être aussi bien classé !

    Joke! hein.

    Je ne sais pas exactement quoi pensé des modification manuelles, mais bon, à circonstances exceptionnelles (le vol, rien de moins) moyens exceptionnels…

    Après à partir du moment ou un google peut blacklister un site, il en monte indirectement un autre donc à partir de la…

  50. Comme quoi, le dieu google reste le dieu google, même les concurrents se sentent obligés d’utiliser « Dieu » pour pouvoir exister un minimum.

  51. Google et Microsoft c’est le choc des ambitions. Que personne ne se mêle de la bagarre et que le meilleur gagne. En tout cas si certains doutes se confirment, ++ l’affaire JC penney et compagnie, c’est que effectivement c’est la fin d’une époque. Non celle de Google mais on apprendra à regarder Big Searcher d’une autre façon

    Info ou intox, Manipulation ou pas ? Je pense que tout ce qui se dit n’est pas forcément vrai. Mais il y une part de vérité dans tout ça.

  52. C’est une bonne chose je pense comme ça les sites pourris qui arrivent à se placer se font sortir à la main 😉

  53. Je ne sais pas si tu es au courant mais google a fait savoir il y a quelques temps qu’il pénaliserait les sites qui obtiennent de la notoriété grâce à de la mauvaise publicité (ouverture de threads, mauvais commentaires…etc).
    C’était un article du NYT je crois. T’en as entendu parlé ?
    Je trouve ça scandaleux personnellement.
    D’abord je ne vois pas comment objectivement on peut jauger de ce qui est un mauvais commentaire.
    Ensuite chaque marque à ses haters, certains sont plus actifs que d’autres, pourquoi pénaliser une marque pour ça ?
    ET après et alors ???? Le SAV est peut-être pourri, je ne vois pas en quoi ça donnerait à GG le droit de pénaliser toute la société!!..
    On peut vendre de bons produits mais être incapable de répondre à ses clients…!
    Et cette manière de s’ériger en bon père la morale..
    Bref, personne n’en a entendu parler ?

  54. Si si bien sûr que j’ai vu passer l’article du New York Times qui évoque ce cas.
    La réaction de Google était obligatoire vis-à-vis de cet article (ce n’est pas la première fois).
    Cependant, les effets sont minimalistes dans la globalité du Web qui est éminemment négatif par essence. Les gens se manifestent plus volontiers pour se plaindre.

  55. Le seul et unique maitre à bord reste google finalement ! Le dieu de la toile. Même les concurrents se sentent obligés d’utiliser « Dieu » pour pouvoir exister un minimum.

  56. En même temps on aurait pu s’en douter. Comment google pourrait ne pas manipuler ces résultats ? Il est le seul maitre sur la toile 🙂

  57. Lorsque Google se fait attaquer pour des « erreurs » de son algorithme il préfère souvent modifier rapidement ses résultats manuellement plutôt que de se lancer dans un long procès…

  58. si on replace le débat sur :

    – ce qu’est google (une entreprise),
    – de son role : validation/qualification des contenus ensuite livrés au client,
    – et de sa position : lieux de passage incontournable pour accéder à une information …

    Il ne peut y avoir que des conflits …

    – d’une part parce qu’il ne communiquent pas clairement sur l’algo (que les SEO qui se plaignent remercient d’abord google parce que sinon ils seraient au chomage).
    – et que les hypothèses en tout genre ne peuvent qu’émerger de personnes jalouses, parano (rayer toutes mentions inutiles), etc …

    Plutot que d’aller contre, je fais avec et fais en sortes de ne pas trop dépendre d’eux, de diversifier le trafic etc …

    Et cette situation n’évoluera pas tant qu’il n’y aura pas de concurrence et que l’europe ne se bougera pas le derrière !

    C’est la meme chose avec d’autre monopole comme l’electricité, microsoft, etc …

    AC

  59. En même temps lorsque Google se fait attaquer pour des petits « bugs » de son algo je pense qu’il est préférable pour eux de modifier directement les résultats à la main au lieu de se prendre un procès qui va durer des mois et qui va ternir leur image de marque…

  60. Finalement heureusement que ça reste limité par l’action de l’homme finalement… Car je vis mal un humain modifié des milliers de résultats de recherche par jour. Ca doit rester exceptionnel et c’est tant mieux..

  61. J’avais vu une vidéo de Matt Cutts dans laquelle il répondait à ce genre de question, il s’était contenté de dire « Oui il y a bien des interventions manuelles de notre part, elles ont en général lieu sur des sites suspect (qui reçoivent des milliers de BLs d’un coup par exemple) ».

    Il y a un deuxième cas où cela peut se produire, depuis peu on peut désormais demander à revérifier une page de notre site, si elle a été déclassée par exemple, et dans ces cas là la vérification est faite manuellement aussi.

    Mais il est clair que la quasi totalité des manipulations est algorithmique.

  62. Il est évident que Google peut modifier ses résultats à la main. Si vous étiez à la tête du plus grand moteur de recherche du monde ne vous le permettriez vous pas ? Moi si 🙂

  63. Pouvoir le faire est une chose, le faire en est une autre. Pour démolir des contenus illicites, ça ne me gêne pas, pour d’autres je suis plus réservé.

Laisser un commentaire