L’article suivant est une traduction de l’interview d’un ex-googler, Andre Weyher, membre de l’équipe anti-spam de Matt Cutts.
Comme d’habitude, il faut savoir lire entre les lignes, mais cela peut vous donner quelques indices sur les méthodes et la mentalité des responsables de la lutte contre la triche chez Google. Surtout, c’est une autre source que notre cher Matt Cutts…
Interview avec Andre Weyher, ex googler anti-spam
Quel était votre rôle dans l’équipe de Matt Cutts et pour combien de temps ?
L’équipe anti-spam est une assez grosse zone chez Google. Cela comprend beaucoup de personnes qui travaillent vers un seul but : préserver les résultats de recherche organiques des sites de mauvaise qualité et pénaliser ceux qui ont obtenu leur positionnement grâce à des techniques répréhensibles par les consignes Google.
La confusion est courante avec l’équipe d’ingénieurs en charge de la création de l’algorithme. Pourtant, ce sont deux entités séparées.
Cela n’est pas non plus les Quality Raters, dont vous entendez souvent parler.
Au sein de l’équipe anti-spam, chacun possède sa propre spécialité. J’étais responsable de la qualité du contenu et du profil des backlinks.
Je suis resté chez Google pendant 4 ans 1/2 et j’ai passé 2 ans dans l’équipe de Matt Cutts.
Quel est le procédé de Google pour déterminer quand appliquer une pénalité manuelle sur un site, basée sur son profil de liens entrants?
Très bonne question! Bien sûr, certains éléments sont top secrets, mais le principe est plutôt simple.
J’observe souvent des gens qui prennent une approche très stricte et mathématique dans l’audit d’un profil de liens. C’est bien d’agir ainsi si vous doutez, mais c’est aussi important d’utiliser son intuition. L’analyste qui audite un profil de liens doit regarder la qualité des pages qui hébergent les liens et les ancres utilisées. Si le profil et les ancres ne sont pas cohérents avec ce qu’on considère un « profil naturel », une action est requise.
Prenons l’exemple d’un site de voyage qui reçoit 100 000 backlinks, dont 90 000 vont utiliser l’ancre « voyage pas cher » ou « réservation de billet d’avion », c’est évidemment suspect car ce cas de figure n’est pas possible si les liens étaient naturels.
La qualité de la page qui héberge le lien est importante. Est-elle authentique ou simplement utilisée pour construire un lien ?
Comment l’algorithme Google Pingouin détermine les domaines à pénaliser ?
Tout d’abord, c’est important de comprendre qu’être « giflé par Pingouin » n’est pas la même chose qu’une pénalité. C’est une nouvelle manière de dévaloriser le positionnement. Une pénalité est beaucoup plus sévère.
Pingouin est une mise à jour énorme et très compliquée, dont seulement un petit nombre de personnes connaissent exactement tous les tenants et aboutissements.
L’objectif principal est de combattre les techniques les plus communes de Black Hat SEO. La majeure partie était gérée manuellement auparavant, alors que c’est désormais automatisé.
Maintenant, c’est plus compliqué de s’en sortir avec des choses qui marchaient il n’y a pas si longtemps.
L’élément le plus évident focalise sur un positionnement acquis grâce à des volumes importants de liens de mauvaise qualité, mais cela prend aussi en compte des éléments « on page » comme le keyword stuffing et la suroptimisation de tags ou du maillage interne.
Comment Google détecte un réseau de blogs et/ou de « mauvais voisinage » ?
Les moteurs de recherche utilisent les empreintes sur les sites pour identifier des signaux de propriété. Si un site en particulier utilise des techniques qui ne respectent pas nos consignes, c’est fort probable que les autres sites du même propriétaire font la même chose.
Google possède des techniques avancées pour dénicher tous les sites au sein d’un même voisinage et va souvent pénaliser le réseau tout entier si des techniques similaires se retrouvent partout.
Malheureusement, je ne peux pas aller plus en détails au sujet des outils utilisés, mais ils sont très avancés et peuvent renifler n’importe quoi.
Quel est le meilleur moyen de soigner un site qui a reçu un message de pénalité manuelle via les Google Webmaster Tools ?
Cela dépend du type de pénalité, mais il existe deux scénarios. Le premier concerne la qualité de la page en elle-même et le second se préoccupe des backlinks.
Dans le premier cas, il s’agit simplement de questionner la valeur ajoutée sur votre site. Dans la plupart des cas, la pénalité va s’appliquer à un site qui présente des liens d’affiliation, sans offrir de valeur ajoutée au visiteur, mis à part l’envoi vers un site tiers. Dans ce cas, le webmaster doit focaliser sur l’ajout de contenu valable sur la page pour montrer à Google qu’il y a d’autres raisons de visiter le site, plutôt que purement enrichir son propriétaire.
Dans le second cas, c’est plus compliqué. Si vous avez profité d’une stratégie faible de netlinking, vous devez éliminer tous les mauvais liens possibles. Cela peut être un procédé long et compliqué, mais le nouvel outil de Disavow dans les GWT devrait simplifier la chose.
Vous devez faire très attention dans les choix d’élimination via l’outil Disavow!
Encore une fois, utilisez votre intuition et ne coupez pas simplement les liens en-dessous d’un certain PR; un page à faible PR n’est pas forcément mauvais. La pertinence de la thématique et l’authenticité sont bien plus importants que le PR.
Quel est le meilleur moyen de redresser un site affecté par Google Pingouin ?
Cela devient compliqué. Dans le cas d’une pénalité, les actions à effectuer sont claires. Par contre, après une rétrogradation à cause de Pingouin, les raisons ne sont pas claires dans la plupart des cas.
J’aurais espéré qu’il y ait une réponse limpide à donner, mais le seul conseil que je puisse donner est d’ausculter son site avec un œil très critique. Il faut essayer de trouver ce que Google a trouvé, qui ne soit pas en accord avec ses règles.
D’après ce que je vois depuis que j’ai quitté Google, beaucoup de webmasters se reposent sur des techniques risquées. Depuis Pingouin, c’est moins facile de s’en tirer ainsi.
Ainsi, mon conseil est d’arrêter les techniques borderlines pour focaliser sur la création de contenu intéressant et utiliser les signaux sociaux comme leviers. Ces derniers sont devenus importants.
Quels sont les plus gros mythes que vous connaissez à propos des « mauvais liens » ou pénalités sur les profils de liens au sein de la communauté SEO ?
Je pourrais écrire un livre sur ce sujet! SEO est un titre que n’importe qui peut s’attribuer. Le résultat est qu’il y a autant d’opinions qu’il y a de référenceurs.
Parmi les fausses idées courantes, j’inclus « les annuaires sont tous mauvais » ou « tout ce qui est en-dessous d’un certain PR est considéré comme spammy par Google ».
Je vois beaucoup de gens qui paniquent et coupent la tête pour soigner un mal de tête à cause d’un manque flagrant de connaissances.
Le plus dangereux pour moi est de penser qu’un système automatisé de netlinking doit être bon s’il est cher.
Google a été très clair sur sa volonté de voir des liens au mérite, qui soient un vote de confiance AUTHENTIQUE.
Tout ce qui s’achète n’est pas considéré comme de la qualité par Google et fait prendre des risques à votre site.
Comment doivent se préparer les référenceurs pour les prochaines mises à jour d’algorithme en rapport avec les profils de liens ?
C’est difficile de prédire le futur, mais vous pouvez être sûr que Google devient plus efficace à combattre tout ce qui est en jeu actuellement. Ainsi, si certains s’en tirent encore avec des techniques spammy, c’est seulement une question de temps avant que Google trouve le moyen de les identifier et de les pénaliser.
Je pense que le meilleur moyen de se préparer consiste à mettre en place une stratégie intelligente « on page » et de maillage interne. « Off page », le netlinking doit focaliser sur la construction de relations. Cela veut dire que les liens obtenus proviennent d’une source qui possède une raison authentique de lier votre site.
La pertinence de la thématique du partenaire est la clef!
Quels sont vos plans depuis votre départ récent de Google?
J’ai réalisé un vieux rêve en déménageant en Australie. Sydney est une ville fantastique avec une communauté géniale de startup.
J’ai démarré ma propre société http://netcomber.com C’est le premier service d’empreinte sur le Web. Après avoir entre votre URL, nous vous montrons, à l’aide de plus de 3000 facteurs, les autres sites développés par le même propriétaire.
Nous sommes actuellement en Beta, mais nous avons déjà crawlés 200 million de sites en utilisant des éléments tels que l’hébergement, les ID de comptes et même le style de code pour déterminer qui possède quoi sur le Web.
La nouvelle version sera en ligne dans quelques semaines.
J’ai aussi démarré mon blog où je vais parler SEO et Web marketing. Vous me trouverez à http://netcomber.com/blog
J’invite tout le monde à venir me poser des questions.
Source : Search Engine Journal
Edit : lire l’article de Sylvain qui commente l’interview.