AccueilRéférencement ➟ Exercice pour SEO

Exercice pour SEO


Exercice pratique pour référenceurPour maîtriser les leviers influents, un référenceur doit ressentir le potentiel en positif et en négatif.

À chaque fois que je dois introduire un novice aux choses du SEO, je présente un exercice simple et compliqué à la fois.

Voici ma recette…Il paraît que la tambouille algorithmique de Google incorpore plus de 200 facteurs.

Cependant, réduisons la liste à 10 pour évoquer les plus puissants et simplifier l’exercice. Ces éléments se situent « on page », « on site » et « off site ».

Top 10 des facteurs influents pour Google

L’exercice consiste à assigner, pour chaque élément du Top 10, une note de pondération positive et une autre note de pondération négative, en prenant une mesure sur 10.

Par exemple, je place la balise Title comme élément numéro 1. Je lui donne une note de 8/10 en pondération positive, si elle est bien foutue. Par contre, je lui donne un solide 7/10 en pondération négative, lorsqu’elle est trop courte, trop longue, trop spammy, …

Si je prends les mots clés dans le nom de fichier de l’URL (je n’ai pas dit que c’était le numéro 2), la note de pondération positive sera de 1,5/10 (oui oui vous avez bien lu) et un 4/10 en pondération négative.

Lorsque vous avez un contrôle total de l’influence, en positif et négatif, de chaque élément, il est aisé de tirer sur les leviers adéquats afin de mettre en adéquation moyens et objectifs.

Un déclic s’opère (ou pas) lorsqu’on ressent quoi donner à manger au moteur et comment lui servir. Cet exercice permet de s’imprégner de l’algo et surtout comment optimiser sans puer le SEO à plein nez.

Pensez SEO snipeur au lieu d’artilleur.

La plupart des optimisations sont idiotes parce que répéter un mot clef ou sa Title ne donne absolument pas un signal de pertinence au moteur.

Bien au contraire, l’environnement (« on page », « on site » et « off site) peut être considéré comme largement plus important afin d’expliquer au moteur de quoi il s’agit.

N’oubliez pas que le robot est idiot, ne comprenant pas ce qu’il lit. C’est en travaillant sur le contexte que vous allez créer un environnement propice à la pertinence de votre entité mots clés.

Dans le balisage, travailler sur le contexte est vital, plutôt que bêtement répéter les mots clés visés.

La Title est l’élément le plus important de la page. Tout le reste doit venir l’épauler et ce n’est pas en le répétant, entièrement ou partiellement, qu’on renforce cet élément.
Tous les autres éléments sont au service de la Title, pour la compléter à l’aide d’expressions connexes.

Je ne vais pas développer le concept de co-occurrences, expressions connexes ou relationnelles, mais le jeu consiste à dévoiler une série de termes qui permettent d’en deviner le prochain. C’est un aspect de l’algorithme du ngram (basé sur un modèle de Markov), qui est fondamental chez Google.

Peut-être qu’une page parfaite sera celle qui pourra décrire une entité, à l’aide d’expressions connexes, sans utiliser les termes définissant cette entité.

Si vous êtes à l’aise avec cet exercice sur le Top 10, vous pouvez extrapoler sur les centaines d’éléments, comme ceux rapportés dans les Ranking Factors de SEOMoz, qui se préoccupe uniquement de la pondération positive, ou les 136 compilés dans une discussion WebmasterWorld que rapporte Ramenos (fichier à télécharger ici). D’ailleurs, il faudrait qu’on la mette à jour cette dernière liste.

Surtout n’hésitez pas à poser vos questions si mon explication n’est pas claire et je suis prêt à discuter de vos Top 10, si l’exercice vous tente.

Autre lecture intéressante

Vous avez aimé cette lecture ?
Abonnez-vous à ma newsletter pour être le premier au courant de mes dernières trouvailles SEO, distillées uniquement par ce canal.



31 réponses dans “Exercice pour SEO”

  • Yann dit:

    Ahhhh, la chaîne de Markov… En tous cas la notion de pondération est amha primordiale, car effectivement un enchaînement de signaux spammy fait vite basculer la couleur d’une page…

    D’ailleurs je m’étonne de ne pas voir de référence à la triplette du Bourrin 😉

  • Laurent dit:

    Héhé j’attendais que quelqu’un la sorte en commentaire.
    Merci ça n’a pas traîné !

  • Nico dit:

    Merci pour cet article qui rappelle certaines bases. Par contre je ne comprends pas trop ceci :

    « Si je prends les mots clés dans le nom de fichier de l’URL »

    Nom de fichier de l’URL ça veut dire quoi ? :S

    Sinon, il serait bon de faire une checklist en gros pour l’optimisation d’un article ou d’une page. Enfin c’est une idée!

  • Laurent dit:

    /page.html est le nom de fichier.
    C’est pour dissocier avec le nom de domaine qui a un poids plus important.

  • Yann dit:

    Très bien, j’assume, voici l’URL de la triplette http://www.laurentbourrelly.com/blog/874.php 🙂

  • Simon dit:

    Salut Laurent,

    Quand tu parles de balise title, tu parles uniquement du h1 ou aussi des h2 et h3 ? D’ailleurs un texte sans h2 rank t-il moins bien en moyenne ?

  • Laurent dit:

    @Yann : merci pour le lien 😀

    @Simon : Les Hx (H1 à H6) sont des balises d’en-têtes ou sous-titres.
    La balise Title est le titre de la page.
    On peut très bien concevoir une page sans Hx, mais je l’imagine mal sans Title.
    Pour la question sur le poids du H2, ce n’est pas possible de répondre simplement. Chaque cas est à analyser spécifiquement.

  • lionel dit:

    Bonjour Laurent,

    A propos de ce passage :

    « Si je prends les mots clés dans le nom de fichier de l’URL (je n’ai pas dit que c’était le numéro 2), la note de pondération positive sera de 1,5/10 (oui oui vous avez bien lu) et un 4/10 en pondération négative. »

    Je pense qu’une pondération positive de 1,5/10 concernant l’intégration de mots-clés dans le nom du fichier de l’URL est un peu sévère d’autant que cela ne dévalue pas forcément la pertinence puisque cela aide le lecteur à anticiper la lisibilité et la compréhension du contenu de la page Web. (Je n’évoque pas le cas ou l’url est un bourrage de mots-clés).

    En plus, j’avoue que j’aime utiliser la triplette « bourrin »… Certes avec un zeste de variation mais j’aime l’utiliser. J’assume !!! LOL

  • Laurent dit:

    Je ne vois pas du tout en quoi la « lisibilité pour l’internaute » vient à faire dans la pondération du mot clef ?

  • BlogMestre dit:

    Je n’ai bien entendu pas décrypté l’algo de Google mais j’ai déjà quelques pistes sur celui de LB (pour le challenge 1 billet/jour pendant 30 jours) et je peux vous annoncer en avant première que le prochain billet sera publié le 18 novembre (jusque là, j’ai tout bon) à 16h32 (là je me mouille) :):):)

    Prochaine étape : prévoir le titre du prochain billet à l’aide des chaines de Markov !

  • Edo dit:

    La liste des critères par Ramenos n’est plus dispo malheureusement. Même si elle date de 2010, 136 critères, ça m’aurait intéressé…

  • Christian@référencement organique dit:

    Salut Laurent,

    Pour le moment tu tiens la distance !

    Dans les autres facteurs parmi ceux que tu n’as pas cités, il y en a un que je préfère même si, au fond, ce n’est même pas un facteur : le volume du contenu des pages…
    Écriture normale, saupoudrée de mots-clés, mais assez lite et en fonction du corpus… ensuite, on peut affiner en calculant précisément les « empreintes sémantiques » dans la page et faire un maillage interne en conséquence, mais cela prend un temps fou et cela n’a pas le pouvoir de quelques bons liens, malheureusement.

    Les autres facteurs, tout le monde les connaît 😉

  • bug dit:

    Moi, je propose un excercice de développement : cacher le contenu de ce dossier que je ne saurais voir : -http://www.laurentbourrelly.com/blog/wp-content/uploads/

  • Laurent dit:

    @BlogMestre : heureusement qu’il y en a un qui suit ! Merci 😀

    @Edo : j’ai édité le billet avec la liste à télécharger directement chez moi.

    @Christian : j’ai juste cité deux éléments comme exemple, mais tu verras qu’on prochain podcast à venir sur le maillage interne reprend ce que j’appelle le concept du « cocon sémantique ».

    @bug : merci, mais ce genre d’info est bien mieux à communiquer par email au lieu d’un commentaire.

  • fred dit:

    Salut. Je suis assez d’accord. Le Title est sans doute l’élément le plus important, avec idéalement une structure sémantique pouvant répondre directement à plusieurs requêtes cibles par le jeu des permutations… si toutefois le reste vient en parfaite cohérence avec ce dernier : hx et contenu, linking interne et externe / insertion de la page dans l’architecture du site (cohérence thématique/sémantique dans le silo : sans doute ce que tu dois appeler « cocon sémantique »)-. Après, comme un bon vin, la bonification vient avec le temps après la mise en bouteille, avec un positionnement d’abord rapide sur une longue traîne un minimum intéressante (cf l’intervention sur google suggest), puis grignotage progressif vers des requêtes très concurrentielles… Je peux certifier qu’à moyen terme, que cela vaut bien des centaines de backlinks, avec une protection assez solides face aux humeurs zoophyles de Google.
    PS : au passage, un avis sur la plupart (soyons indulgent) des « tests » SEO que l’on trouve à droite et à gauche sur l’influence d’un seul et unique critère : c’est bidon.

  • Loïc Hélias dit:

    Salut Laurent,
    je cite régulièrement cette fameuse triplette du bourrin comme étant aussi le triangle d’or de l’optimisation on-site.
    J’ai pour habitude de dire que le balisage sémantique nous offre 3 cartouches, et qu’il est dommage de les gaspiller (sniper comme tu dis).

    Désolé pour le copyright, mais t’inquiète je prends soin de citer ma source !

    Je tiens aussi à rajouter pour les personnes qui pratiquent encore les CP’s ou autres formes de production de contenu destiné à accueillir un lien, que ce triangle d’or s’applique aussi pour la mise en place du netlinking.
    L’expérience et différents tests me confortent dans l’idée qu’un lien aura d’autant plus de poids s’il est lui aussi dans un contexte sémantique optimisé.
    C’est d’ailleurs pourquoi je suis parfois très exigeant sur certaines de mes plateformes de CP’s (oui, il en reste encore des CP’s !).
    Au plaisir de te lire.

  • Edo dit:

    @Laurent : merci d’avoir uploadé le fichier. Y’a de quoi faire avec tous ces critères !

  • Jeff dit:

    Laurent si tu continues comme ça tu vas en perdre un paquet au passage, sur le nombre d’articles de ce style dans les prochains jours ça peux faire des dégâts 😉

    La note globale pondérée est ressentie assez facilement, la difficulté est de déplacer le curseur de points en fonction de la thématique du site qui peux rentrer dans des catégories de filtres différents. Puis il est clair que l’on de dit pas à un client que sont site à un mauvais score sans lui donner d’explication.

    A mon sens, certains critères principaux peuvent être pris en compte avant pondération avec une note négative prioritaire.

    Laurent, ce sont tes notes pondérées positives et négatives que je ne comprends pas lorsque tu attribues soit une note positive, soit une note négative.

    Voici mon exemple de calcul avec une note globale à partir de notes positives et négatives pondérées:

    1) Je calcule une note positive pondérée sur 5 critères (pour exemple) classés par ordre d’importance. Un critère peut être seul ou composé (dans ce cas c’est plus complexe) et certain critères peuvent être sous conditions.

    Critère N°1 avec un poids de 10
    Critère N°2 avec un poids de 8
    Critère N°3 avec un poids de 6
    Critère N°4 avec un poids de 4
    Critère N°5 avec un poids de 2

    Total : 30

    Ensuite, j’attribue une note à chaque critère en fonction de leurs qualités relatives dans leur contexte.

    Critère N° 1 note de 6/10
    Critère N° 2 note de 4/10
    Critère N° 3 note de 7/10
    Critère N° 4 note de 10/10
    Critère N° 5 note de 8/10

    Je fais le calcul pour obtenir la note pondérée : 6×10 + 4×8 +x 7×6 + 10×4 + 8×2 = 160/30 = 5.33 C’est la note moyenne pondérée positive sur 10

    2) Je calcule ensuite une note pondérée en fonction d’autres critères négatifs et pénalisants (la note de 10 indique que le critère n’est pas négatif et non pénalisant)

    Ces critères peuvent avoir un rapport direct avec les critères de dessus mais dans la plupart des cas ces critères se trouvent onsite et offsite et ont un poids global sur l’ensemble du site.

    Critère N°1a avec un poids de 10
    Critère N°2a avec un poids de 8
    Critère N°3a avec un poids de 6

    Total : 24

    Critère N° 1a note de 5/10
    Critère N° 2a note de 10/10
    Critère N° 3a note de 8/10

    5×10 + 10×8 + 8×6 = 178/24 = 7.4. C’est la note pondérée négative inverse sur 10

    3) On obtient alors la note relative globale de la page avec le calcul : (7.40/10) x 5.33 = 3.94 sur 10

    On peut avoir des résultats plus pertinents avec d’autres critères composés et/ou induits mais on descend alors à 3 ou 4 niveaux de calcul imbriqué et pondéré.

    Ce n’est qu’un calcul primaire car la page existe dans un contexte qui possède aussi des critères.

    Je ne rentre pas dans le détail des critères qui peuvent être utilisés (tu en donneras suffisamment lors de tes prochains billets) mais avec un nombre de 10 à 15 positifs et 5 à 8 négatifs en niveau 1 on peut déjà avoir une note à la page qui se rapproche de la vérité.

    PS : si c’est trop hors sujet tu peux supprimer 😉

    Jeff,

  • BlogMestre dit:

    Ah! les fameux critères ! tiens, plutôt que donner un top 10, je m’en vais vous donner mon flop 10 🙂

    1 – La validation W3C (une vaste fumisterie)
    2 – La vitesse de chargement des pages (cela permet juste à google d’économiser de la bande passante et du volume de stockage)
    3 – La vitesse de crawl définie dans les webmastertools (j’en est encore mal au fesse suite à ma chute sur le cul lorsque j’ai lu ça)
    4 – localisation géographique du serveur (la ce son mes lèvres qui se sont gercées à force de rire)
    5 – Historique des changement d’IP du serveur (oui,oui,si tu as ouvert ton site en 1999, ne change surtout pas ton super serveur à base de pentium 2 🙂 )
    6 – présence d’un sitemap XML (Si google ne trouve pas tout seul une de vos pages, c’est le site qu’il faut refaire, pas le sitemap)
    7 -externalisation JS et CSS (la, je ne vais plus tenir longtemps, je vais me pisser dessus de rire)
    8 – Reconnaissance faciale des images (et pour les photos de cul, on fait quoi? )
    9 – Qualité de l’orthographe du contenu (au fait, faut-il écrire qualiter ou qualité)
    10 – J’ai gardé le pompon pour la fin : inscription du site dans Google Analytics

    A défaut de trouver la recette miracle, j’ai bien rigoler ! (excuse moi Laurent, mais j’ai fait des fôtes d’ortaugraphe qui vont pénalisé ton article 🙂 )

  • Jguiss dit:

    Hello,

    Tu n’es pas tendre avec les mots clés présents dans l’URL 🙂 Je n’ai pas l’habitude d’intégrer cette notion de pondération négative dans l’optimisation SEO, j’essaye de mettre tous les facteurs au top de leur pondération positive sans trop abuser bien sûr !

    Je me permet de mettre un lien vers une infographie qui permet de bien visualiser les facteurs importants du contenu « On page » : http://pinterest.com/pin/155937205819272371/
    L’auteur de l’infographie place aussi le Title comme l’élément « On page » le plus important.

    A+

  • Lepecheur dit:

    Bonjour Laurent, j’aurais vraiment aimé que tu donnes clairement le top 10 des critères importants selon toi.
    9a aurait pu permettre un débat sur qui pense quoi et si tout le monde accorde la même importance à un critère?
    Une MAJ de l’article possible?

  • Référencement naturel dit:

    Sympathique explication Laurent. Moi, je m’interroge surtout sur une chose : pourquoi LA title et pas LE title ? 😉 Faudra que je fasse ton test pour toi ce qui est ressort, si tu es disponible pour échanger sur Twitter à l’occasion, ce sera un plaisir 🙂

  • Laurent dit:

    @fred : en plus, ce que je dis ne sors pas du chapeau d’un magicien, mais ce sont réellement des fondamentaux vitaux à posséder afin d’avoir une vision claire des effets qu’on procure en tirant tel ou tel levier. Nous avons à disposition une panoplie de leviers qui ont des effets plus ou moins importants, avec une influence plus ou moins importante entre les actions sur chaque levier.

    @Loïc : je n’ai rien contre le concept du CP en lui-même, mais ce sont les réalisations que je trouve déplorables.

    @Edo : il date de 2010, mais c’est intéressant car il provient d’une collaboration entre des connaisseurs.

    @Jeff : le but de l’exercice n’est pas d’évaluer une note pondérée globale car c’est un autre niveau. Le but est plutôt de ressentir que les différents niveaux d’influence des éléments à disposition pour optimiser. En comprenant la « puissance » en positif, lorsque l’élément est bien goupillé, et apercevoir le potentiel néfaste, lorsque l’élément est mal foutu, on peut déjà s’apercevoir qu’il est inutile de truffer sa page de mots clés tout azimut.
    Encore une fois, c’est autre chose pour faire un calcul de densité pondérée. Mon principe n’est pas bon pour cet objectif.

    Pour tout avouer, je suis en plein dév d’un outil qui extrapole sur l’excellent http://www.alyze.info/ afin d’incorporer des éléments « on site » et pourquoi pas « off site » au lieu de se concentrer « on page ».
    Faudrait qu’on en discute de mon projet.

    @BlogMestre : il y a seulement sur le point 2/ que je mets un bémol. La performance n’est pas bloquante, jusqu’à un certain niveau où les crawlers se désintéressent.

    @Jguiss : oui je suis sévère car c’est une des plus grosses légendes urbaines du SEO. L’URL Rewriting est devenue une quasi-obligation, alors que le poids du mots clef dans l’URL est clairement marginal. Après, que ça soit 1,5 ou 2 ou 3, c’est à chacun de juger.

    @Lepecheur : trop facile ! Peut-être que je donnerais mon Top 10 ultérieurement, mais pour l’instant je vous laisse méditer sur le concept.
    Un indice : le numéro 2 se situe « off site ».

    @Naturel : on dit la balise Title et le titre. La Title est une contraction de la (balise) Title).
    Echanger sur Twitter n’est pas ma came à cause de la limite des 140 caractères. Je suis dispo par mail ou Skype.

  • BlogMestre dit:

    Laurent, pour le point 2, prends les premiers site sur la requêtte de ton choix et fait le test page speed recommandé par Google, tu sera édifié.

    En plus, si on tient compte du fait que le facteur le plus pénalisant pour la vitesse de chargement d’un page est le temps de réponse du serveur, surtout pour une page avec quelques images (temps de latence + temps de traitement de la requête) cela voudrait dire que les plus riches seraient avantagés.

    Malgré tous mes efforts et l’utilisation de serveurs performants (et le dev et l’admin, c’est mon rayon et mon métier de base) aucun des sites sur lesquels j’ai bosse n’étaient à mois de 70 % sur l’échelle de vitesse de chargement selon les webmasters tools.

    J’ai d’ailleurs un petit projet dans mes cartons visant à faire correspondre une valeur temps à cette échelle en faisant des mesure sur différents site en fédérants plusieurs webmasters.

  • Laurent dit:

    Tu m’as mal compris.
    Après la mise à jour de l’infrastructure Caffeine (je rappelle que ce n’était pas une maj d’algo), mes demandes de devis ont explosé pour des sites qui se sont cassés la gueule.
    100% de ces sites avaient des problèmes de performance déplorables, notamment au niveau du temps de latence. Le crawler est devant la page, envoie des instructions de recevoir des éléments et il attend… il attend… il attend. Jusqu’à un certain point où il se casse car cela équivaut à un Timeout ou pourquoi pas une 404.
    Je dis simplement que les moteurs ont un seul de tolérance très élevé pour la mauvaise performance, mais je ne le range pas au niveau du Flop 10.
    C’est d’ailleurs tragi-comique de voir dans GWT que la zone verte de performance suggérée par Google se situe à 1,5 seconde.
    Il faut faire la différence entre optimiser l’accessibilité au max pour les moteurs et tester leur tolérance pour des efforts contraints et forcés d’avaler des pages aux perfs pitoyables.

  • jessyseonoob dit:

    @blogmestre

    1 – tu as raison, mais si tes balise ne sont pas fermées correctement, ça peut faire des dégats.

    2 – La vitesse de chargement, c’est colle le dit laurent, plus il a des choses a manger rapidement, plus il passe à la suite du repas.

    3 – la vitesse de crawl, elle est un peu conditionnée par le point d’avant, si’l crawl rapidement mais que le contenu n’arrive pas assez vite… pas de miam

    4 – localisation géographique du serveur. Si ton contenu doit traverser l’atlantique, il se chargera peut être moins vite que si ton utilisateur est en france et que tu dois le servir en france (c’est pour ça qu’ils ont inventé les CDN si je ne me trompe pas). Un petit test gtmetrix te permettra de voir la différence entre le temps de chargement mesuré et celui que tu as effectif à partir de ton pagespeed.

    5 – Historique des changement d’ip, j’ai pas d’avis, mais tu as raison, plus c’est récent niveau matos, et mieux c’est pour les temps de réponse.

    6 – Le sitemap qu’il soit xml ou pas permet de prémacher le boulot à google, donc vaut mieux lui dire par où commencer. Et s’il est fait à la main, tu peux occuleter les parties les moins intéressantes.

    7 – la raison de pourquoi ils doivent être externe, c’est que tu les met en cache, et ils le sont souvent dans les navigateurs des internautes, lorsque tu change de page, il les recharge pas.

    8 – lol

    9 – google ayant des algo de correction d’orthographe, il serait intéressant de faire un post plein de faute d’orthographe, pour voir

  • BlogMestre dit:

    Sur ce point je suis d’accord avec toi, mais je maintient ce paramètre dans mon flop 10 ne ce serait-ce qu’en raison de la vague de parano que cela à engendré auprès des webmasters 🙂

  • BlogMestre dit:

    Oooops ! @jessyseonoob, j’avais pas vu ton message 🙂

    Pas besoin de faire un post spécial rempli de fautes d’orthographe, il y en a déjà suffisamment sur des pages qui s’indexent bien 🙂

  • Référencement naturel propre ? dit:

    @ Laurent : j’avais bien saisi, ne t’inquiète pas. Mais merci pour la confirmation. Et ok pour mail ou Skype dès que je peux, ami d’Andorre.
    Ps : tu peux supprimer le commentaire, c’était juste pour te signaler que j’avais lu ta réponse et qu’elle me plaisait 🙂

  • crème dit:

    Merci pour l’article. Des conseils pour optimiser un tumblr ? Il n’y a pas de balise title dessus ..

  • Bruno dit:

    Bonjour à tous.

    Quelle discussion passionnante, comme souvent chez Laurent!

    Perso, je pense qu’en SEO il est difficile d’être catégorique, d’où l’intérêt de l’exercice que tu nous proposes ici, car ce qui est vrai pour 1 site le sera moins pour 1 autre et pourra parfois carrément être faux pour 1 troisième.