Non, je n’ai pas de mots clés dans l’URL

Les mots clés dans l'URL pour le référencementLa question revient régulièrement à propos des URLs de mon blog qui n’incorporent pas de mots clés. Pourtant, c’est en contradiction avec les croyances communes qui supportent l’ajout de mots clés dans l’URL, habituellement en répétant la balise TITLE.

En fait, il faut bien évaluer le pour et le contre pour optimiser une URL et surtout l’incruster au sein d’un construction de page profilée en soufflerie pour fuser dans les résultats de recherche.

La triplette du bourrin

L’optimisation de base que la plupart des sites utilise est une répétition des mots clés prinipaux en trois endroits stratégiques :

  • Title
  • URL
  • H1

J’appelle cela la triplette du bourrin. Rien de péjoratif dans cette définition, mais plutôt une évocation d’un manque de finesse certain dans l’optimisation et l’interconnexion de ces 3 éléments vitaux d’une page Web.

Le plus subtil des bourrins ira éliminer les stopwords et travailler les caractères accentués, mais l’essentiel de la requête phare déclinée dans TITLE se retrouve dans l’URL et H1 et/ou parfois H2 et plus (voir aussi mon billet et le débat sur les balises d’en-tête).

C’est la beauté du dynamique qui permet finalement de fourguer les mots clés partout. Le problème est que cette optimisation n’est pas perçue de manière uniforme par les moteurs de recherche et en fonction de certaines spécificités du site. Pour certains, ça va passer, pour d’autres cela n’apportera pas de bénéfice et c’est carrément pénalisant pour les plus malchanceux.

Pour un site existant, la modification des URLs doit intégrer la lourdeur qu’implique une redirection de l’ancien format d’URL vers le nouveau. De l’autre côté, quel est le réel bénéfice des mots clés à cet endroit, ainsi que les dommages éventuels en cas de suroptimisation ? Dans ce sens, j’aime bien évaluer les paramètres favorables au référencement à l’aide d’une note sur 10. Pour les mots clés dans l’URL, je donne une note de 2 sur 10 en pondération positive. A l’opposé, si l’URL se révèle défavorable (répétition Title+URL+H1, spammy, etc.), je donne une note de 6 sur 10 pour la valeur négative.

Sachant que Title porte un solide 8 sur 10 et H1 peut s’apparenter au même niveau que l’URL en négatif tout en apportant un léger 3 sur 10 en pondération positive, nous avons un élément principal qui doit être épaulé par les deux autres. TITLE est l’élément principal supporté par URL et H1, mais en aucun cas les deux derniers doivent venir saborder le premier.

Ma méthode

TITLE va héberger la requête phare, tandis que H1 travaille sur co-occurences. Je pourrais répéter le titre dans l’URL puisque j’ai déjà évité une répétition avec H1. Cependant, je préfère travailler en finesse l’optimisation, plutôt que lâcher au maximum dès le départ. Ainsi, je passe sur les co-occurences dans l’URL tout comme j’évite de répéter TITLE; du coup l’URL se retrouve épurée de tout mot clef. Pour bien faire, il faudrait travailler toujours plus au niveau sémantique ou simplement relationnel entre les termes, mais c’est déjà un effort qui s’opère pour H1 et je n’ai pas forcément la motivation pour me triturer les méninges un peu plus. Encore une fois, le poids du mot clef dans les éléments URL et balise d’en-tête est infime. Par contre, un support relationnel sera bénéfique puisque les moteurs de recherche sont à l’affut des co-occurences pour déterminer la pertinence du contenu.
Voilà pourquoi  mon URL est sacrifiée sur l’autel de l’optimisation. Ce n’est pas une généralité car certains de mes sites utilisent des URLs plus sophistiquées que les chiffres déclinés sur les extensions de nom de fichier de ce blog.

Puis après, tout va se jouer au niveau des backlinks qui vont actionner la pompe du positionnement. Dans ce sens, tout le reste de la page est franchement secondaire par rapport au HEAD et début du contenu textuel (mon ration comprend les 300 premiers caractères après le début de Body).
Par backlinks, j’entends liens externes et internes. Une bonne architecture peut tout à fait suffire pour acquérir d’excellentes positions. Saupoudrer de liens externes viendra finaliser l’acquisition des Top positions.

Attention, je n’ai pas dit que le contenu de la page est inutile et encore moins ce qui pousse derrière cette page. Lorsque je parle de secondaire, c’est en terme d’objectif puisque le haut de page concentre un certain type de cible restreint et plutôt concurrentiel, tandis que le reste regroupe des cibles beaucoup plus diffuses, principalement apparentées à la fameuse Longue Traine. Par ailleurs, le reste de la page et les autres qui viendront l’épauler derrière sont indispensables pour cerner la cible principale représentée dans TITLE. Les mots clés dans l’URL et/ou balises d’en-tête apportera une pondération éventuelle très légère, tandis qu’ils peuvent entraîner facilement le site dans un état de suroptimisation.

Bien sûr, si j’avais des difficultés à positionner mes pages, il est certain que je reverrai mon modèle. Jusqu’à présent, tout se déroule à merveille et on ne change pas une équipe qui gagne. Cette optimisation respecte et extrapole sur les fondamentaux tout en restant en dessous de la zone risque, donc elle ne risque pas d’être mise un jour en danger.

Un point quand même sur le soi-disant intérêt des mots clés dans l’URL pour rassurer l’utilisateur. Pour ma part, l’URL est loin d’être un facteur décisionnel dans les résultats de recherche. Tant que l’URL n’est pas terrifiante, l’utilisateur ne sera pas rebuté. En fait, ce sont plutôt les URLs à rallonge qui posent problème. C’est peu incitatif lorsqu’elles sont à rallonge et non réécrites avec tout un tas de caractères spéciaux. La même chose lorsque la réécriture déborde carrément à raconter l’intégralité du contenu.
Ma préconisation est trois tirets au maximum dans l’URL… ça ne fait pas lourd. En plus, il semblerait que Google préfère crawler en premier les URLs courtes .
Pour finir, l’internaute n’y connait absolument rien en URL. Sans même faire la différence entre un sous domaine et un répertoire, pourquoi irait-il s’attarder sur un élément qu’il ne comprend pas ? Au contraire, il ira plutôt occulter ce qui le dérange.
L’objectif est de ne pas l’effrayer, mais vouloir l’attirer grâce à des mots clés dans l’URL va beaucoup trop loin à mon humble avis.

Nous ne sommes pas tous égaux

Google & Co. n’appliquent pas les mêmes filtres uniformément sur l’index et sur tous les sites. Ces variations s’opèrent même différemment dans le temps.
Globalement, l’élément prépondérant pour juger des différences est l’ancienneté. L’analogie toute trouvée se rapporte au vin, mais le site doit quand même présenter pertinence et popularité. Prenez une vieille bouteille de piquette et ça m’étonnerait qu’elle se soit transformée en nectar. Quoi que un vin moyen qui aura vieilli peut être agréablement surprenant. L’important est de pouvoir juger du potentiel à certaines étapes de la vie d’un site.

De l’autre côté, un site jeune ne doit absolument pas toujours passer par la case Sandbox. En tout cas, je n’ai jamais eu un site affublé de cette pénalité qui affecterait les nouveaux sites pendant plusieurs mois. Tout simplement parce que j’incorpore un minimum de subtilité dans l’optimisation «on page» et «off page» et que je sais quels sont les leviers à actionner à un moment donné.

Au lieu de partir avec l’optimisation maximale dont la triplette du bourrin est l’indice le plus évident, je préfère en garder sous la pédale.
L’exercice de notation effectué plus haut doit être assimilé pour tous les éléments qui impactent le référencement. Lorsque chaque levier est identifié avec sa pondération négative et positive spécifique au cas particulier que représente chaque site Web, l’optimisation devient extrêmement efficace. Dans ce sens, l’étude SEOmoz des facteurs influents le positionnement est intéressante. La différence est que j’opère une pondération positive et négative sur 10, tandis que les référenceurs ayant participé à  l’étude focalisent sur une pondération positive en pourcentage. L’autre élément important concerne la date de l’étude qui remonte à 2009. Le classement peut légèrement varier d’une année sur l’autre. Aujourd’hui, je mets H1 plus bas qu’en 2009. L’autre différence concerne le degré d’importance pour chaque élément, mais à la limite c’est moins vital car tout cela doit s’adapter à chaque cas particulier.
La pire attitude consiste à regarder ce que font les concurrents pour essayer de les copier. Ça ne marche pratiquement jamais!
Chaque site doit être pris comme cas particulier et analysé en tant que tel. L’interaction entre tous les facteurs intéressants pour le référencement doit s’extrapoler sur l’évaluation synthétique de chaque élément.

Aujourd’hui, Google a beaucoup progressé, notamment par rapport à la pondération «on page». On garde beaucoup plus de latitude sur l’environnement «off page» (en gros les backlinks), rendant la tâche du Black Hat SEO beaucoup plus facile. 
C’est en étant plus subtil que les autres qu’on peut posséder un avantage indéniable. Croire qu’un coup de baguette magique dynamique opéré de manière similaire à la majorité des concurrents va faire la différence est une illusion. 
Bien au contraire, les atouts du dynamique se retournent contre la majorité de ceux qui en profitent. Si cela n’engendre pas de dommage, c’est inefficace dans la plupart des cas. Finalement, peu de sites peuvent supporter une suroptimisation latente.
Le plus grave est qu’il est beaucoup plus aléatoire de désoptimiser plutôt que partir léger et monter en puissance. En clair, méfiez-vous de toute répétition; d’autant plus si le site est neuf! En clair, ce n’est peut-être pas suffisant de choisir un CMS et opter pour un template joli, mais absolument pas profilé pour être subtil dans sa performance sur les résultats de recherche – sans même parler d’être optimisé au maximum. Le CMS n’est d’ailleurs pas toujours la meilleure solution, mais c’est un autre sujet.
Bref, introduisez un peu de subtilité dans votre optimisation.

Edit 4/12/10 : lire mon commentaire pour bien comprendre que je n’ai pas dit qu’il ne faut pas mettre de mots clés dans l’URL!

112 réflexions sur “Non, je n’ai pas de mots clés dans l’URL”

  1. Très vrai sur le principe général.

    Pas toujours facile à mettre en place lorsque le site est livré au client et ne bénéficie plus d’optimisation ensuite.

    Je suis d’accord aussi avec ton dernier paragraphe. La désoptimisation est une vraie galère. On y perd un temps fou en étant obligé d’y aller pas à pas, puis ré-optimiser plus tard, parfois longtemps après, et avouons le, un peu au pif.

    Concernant les URL, je ne suis pas forcément un très grand fan de leur (sur) optimisation. Et comme tu le dis très justement, le poids des bl à tellement plus d’importance.

    La question à laquelle je n’ai pas de réponse, est de savoir à quel point la mise en gras des termes de l’URL dans la SERP peut influencer le clic.

    Je mettrais toutefois un petit plus aux noms des dossiers dans les URL. Surtout s’il existe un index dans le dossier.

  2. En parlant de méthodes bourrins, on peut aussi rappeler que faire de l’URL rewriting sur un site ancien qui a beaucoup de backlinks externes n’est peut-être pas super pertinent.

  3. Personellement, pour mon blog, j’utilise comme URL le titre du billet. C’est beaucoup plus une question de lisibilité que de référencement (même si ça joue peut-être).

    Mais quand j’ai un lien qui termine par /874.php, je ne sais pas de quoi ça parle, et j’aime moins que d’avoir le titre dans l’URL…

  4. OK pour la subtilité, qui n’est pas mon plus grand point fort en référencement. Mais je rebondis surtout sur le lien sur SEOMoz. Il donne une grande importance à la variété des sources des backlinks. J’avais lu l’inverse ailleurs (mais je ne retrouve pas la source, damned !)
    Je serais ravi d’avoir ton avis là dessus.

  5. Quand on fait les pages une par une, oui, on peut éviter la « triplette » et faire des variations.

    Mais quand on est sur un CMS (perso ou non) avec un site type actu, c’est moins évident. Le plus simple est d’appliquer la triplette, mais avec un léger changement pour les urls, histoire de les rendre « belle ». Un exemple à la con :
    id501210 : Départ pour l’Afrique => 501210-depart-pour-l-afrique.html

    Le gros avantage de la manip, c’est que tu te positionnes sur départ et depart (sans accent). Parce qu’il y a une différence entre les deux.

    En parlant de méthodes bourrins, on peut aussi rappeler que faire de l’URL rewriting sur un site ancien qui a beaucoup de backlinks externes n’est peut-être pas super pertinent.

    Si tu fais les 301 comme il faut, tu as aucune pénalité. Déjà fait sur un site de 10000+ pages, 7 ans d’âge (et de BL), et aucun soucis.
    Et même un gros mieux.

  6. Bonne analyse

    Je profite que tu abordes le sujet des mots clés dans l’url pour poser une réflexion que j’ai eu à ce sujet il y a peu.

    Beaucoup de lien sur Twitter & co ne sont directement que des urls avec ancre = lien. Du coup les urls contenant des mots clés font passer un peu de juice sur les mots clés de l’url contrairement au /123.html ce qui ferait un point en plus pour l’utilisation d’url courte mais avec quelques mots clés quand même.

    Vous en pensez quoi ?

  7. Je partage bien ton avis sur le fait que la tâche est rendue plus facile pour les BH.
    Cependant, Google a pas mal modifié le poids des critères et on retrouve des filtres assez marrants quand on commence à jouer avec les limites.

    Sinon, il faut quand même continuer à stresser les intégrateurs pour qu’ils fassent des pages bien structurées, ça nous fait un peu moins de boulot 🙂

    Concernant la variation des titres et intertitres, je pense en effet qu’il faut varier correctement les expressions pour cerner une thématique correctement. Le contenu texte fait ensuite le reste.

    Chaque site doit être pris comme cas particulier et analysé en tant que tel. L’interaction entre tous les facteurs intéressants pour le référencement doit s’extrapoler sur l’évaluation synthétique de chaque élément.

    Là-dessus, on est tout à fait d’accord

  8. Sans exagération, l’url doit porter une attention toute particulière. Mais il est vrai que ce n’est pas un facteur prépondérant, enfin je le crois. En fait, il faut savoir mesurer l’ampleur du travail a effectué. Si les url sont propres sans mots clés, c’est tout à fait acceptable et rien de sert de les refaire, surtout que cela demande un gros boulot, pour peu d’impact. Par contre, si les URL sont à rallonge et bourré paramètre, là il faut peut-être penser à retrousser ses manches. Et encore, si les positions des pages d’un site ne sont pas trop mal, malgré des URL « pourris », mieux vaut ne toucher à rien. Enfin j’ajouterais qu’avec les nouvaeaux sites, il faut faire preuve de délicatesse et que la « triplette du bourrin » peut-être fatale. C’est du bon sens me direz-vous, mais le référencement n’est ce pas souvent faire preuve de bon sens ?

    Quand aux mots clés dans les URL sur twitter ? J’ai le sentiment que Google porte son attention sur la sur la présence d’une page citée dans Google, plutôt que sur l’aspect de son URL. Mais c’est juste une impression, rien de plus.

  9. Je comprends bien ce qui est dit dans cet article. Tout est défendable. Mais il ne faut pas encourager les autres à en faire autant.
    Quand vous avez une bonne notoriété et une autorité reconnues sur Internet,quoique vous fassiez, hors black hat, vous aurez toujours un bon positionnement sur les SERPs.
    Ainsi, vos URL non descriptives ne vous pénalisent pas. Mais pour celui qui commence à faire du SEO, vaut mieux qu’il en crée des URL descriptives.
    Pour moi, une URL doit indiquer et aux moteurs et aux robots de quoi va parler la page web en question. Un lien comme le vôtre, aujourd’hui avec tous les fakes qu’il y a, fait tiquer !
    De plus, vous recevez des fois des backlinks dont l’URL est utilisée comme lien (sans texte d’ancrage). Comment voulez-vous que votre page apparaisse comme pertinent si l’URL ne comprend pas de mots-clés ?

  10. Hello,

    Merci pour ces infos interessantes. Un aspect que je pensais utile dans l’integration de KW dans une URL : souvent les gens qui font des liens vers ton site mettent l’URL brute sans optimiser l’ancre.

    Avec une URL contenant des mots cles, on obtient meme avec une URL brute une ancre qui peut se reveler meilleure pour le referencement.

    Cependant je dois dire n’avoir aucune idee si c’est vraiment profitable ou pas 😉

  11. Pour une fois je ne suis pas completement d’accord, mais c’est surtout parce que ma situation est spéciale.

    C’est qu’ou je me trouve, Bing et Yahoo représente soit disant dans les 20% de parts de marchés (Et en vrai je dirais dans les 9% de trafic des sites que je traque).

    Je fais donc encore un petit peu attention a ce que pense le moteur de recherche made in « Microsoft » et pour Bing, les URLs ca compte encore.

    Bon apres, il ne faut pas forcément faire un fixette non plus et on peut voir au cas par cas, mais en regle générale j’aime bien voir de jolie URLs (ce qui ne veut pas dire des URLs bourrées de mots clés!)

    Quand a la triplette de bourrin, moi j’appelle cela la triple couronne et j’en parle la -> http://lemusclereferencement.com/2010/10/06/le-concept-de-conformite-semantique/

    Bien sûr, si j’avais des difficultés à positionner mes pages, il est certain que je reverrai mon modèle moi aussi, mais tout comme toi tout se déroule à merveille et on ne change pas une équipe qui gagne 😉

    Comme quoi sur certains trucs – « En SEO on vit avec ses convictions jusqu’a preuve du contraire »

  12. L’url avec mots clés c’est bon pour les liens spontanés dans les forums, commentaires de blogs etc … Personnellement je l’utilise systématiquement.

  13. D’un point de vue utilisateur, je me suis habitué aux url réécrites et quand je vois un lien (dans les commentaires de forum) avec des mots clés, j’ai plus tendance à cliquer dessus que si c’était un simple id d’article.

    Comme google suit les comportements utilisateurs, je me dis qu’à terme, c’est bien d’avoir une url avec des mots clés dedans.

    Avis d’un loser.

  14. Hello
    j’aime bien la réflexion de l’ami Antonin Guide Kitesurf là haut :
    « Avec une URL contenant des mots cles, on obtient meme avec une URL brute une ancre qui peut se reveler meilleure pour le referencement. »

    De mon point de vue, ce genre d’optimisation (URL différente, avec des W différents, que je pratique) n’offre de résultats qu’à la marge.
    Mais bon : ça ne mange pas de pain que de pratiquer ainsi et ça ne fait pas de mal.

  15. Bonjour Laurent,

    Ton article est très instructif !

    Je retiens surtout ta méthodologie qui est très intéressante notamment sur le fait que tu gères le rythme du référencement d’un site Web pour le faire monter en puissance dans le temps.

    Cela m’a fait penser à un sportif de haut niveau qui gère son épreuve pour ne pas se griller et terminer plus fort que son adversaire.

    Pour le référencement, cette réflexion m’intéresse beaucoup !

    amicalement

  16. Salut,
    Comme toujours un super poste.

    Effectivement il faut faire attention à la sur-optimisation, d’autant dans ces 3 facteurs clés de l’optimisation on-line.
    Donc quitte à en sacrifier un, autant que ce sois l’url, vu qu’il semblerais que ce sois celui des 3 critères le moins important.

    Néanmoins.
    – C’est un plus si c’est bien fais.
    – C’est un plus si ancre = Url

    Ensuite qu’entendez vous par répétition
    Parlez vous de répétition (mot, ordre des mots, accentuation, pluriel/singulier…)
    Considèrez vous cela comme de la répétition?
    1-
    TITLE : Les bons mots clés
    URL : /bon_mot_cle.php
    et
    2-
    TITLE : Les bons mots clés
    URL : /mot_cle_bon.php

  17. Globalement il semble effectivement acquis que les mots-clés, dans une url, n’ont que peu d’importance, sinon une influence à la marge quand d’autres facteurs, plus prépondérants en principe, n’ont pas forcément été bien travaillés.
    Toutefois je suis également de ceux « qui votent pour » au moins pour la lisibilité que cela apporte à l’internaute, le petit + dans le fait de le conforter dans sa certitude que la page répond bien à sa requête et donc le pouillème de clic supplémentaire que cela peut générer (sans d’ailleurs n’en avoir aucune idée chiffrée).
    Aussi pour tenir compte des moteurs autres que GG qui y accordent plus d’importance.

    Avec quelques réserves également :
    . je ne suis pas sûr qu’une url intégrant une phrase complète, longue et pleine de tirets soit plus accrocheuse qu’une url courte, plus rapidement lisible (même si les termes de l’url n’apportent pas de sens, un id p.ex.)
    . les urls avec dossiers et justes quelques tirets me semblent plus lisibles
    . la nécessité d’une telle solution dépend effectivement du contexte : nouveau site ou site ancien avec de nombreuses urls déjà connues et donc des problématiques de redirection à gérer

  18. Tout à fait d’accord avec toi, l’optimisation des URLs n’est pas un critère déterminant loin de là. De plus en plus, la différence se fait au niveau du linking (interne comme externe), il faut se concentrer avant tout là-dessus.

  19. plutôt d’accord avec le Juge, c’est plus pratique si tu trackes une page en particuliers avec GA sans faire d’aller retour vers ton site web. Je m’explique quand dans les urls visitées, tu as des hash ou des numéros ça devient difficile.
    Je suis de ceux qui pensent qu’une bonne description + url évidente contribue au CTR (sans avoir de chiffre pour le prouver).

  20. @Sylvain : c’est vrai que j’ai omis de parler des répertoires qui sont moins concernés. Surtout dans le cadre d’un site e-commerce, il est souhaitable de citer la catégorie dans le répertoire.

    @Seine St Denis : tout à fait. Dans la plupart de mes préconisations, je ne touche pas aux URLs d’un vieux site; du moment qu’elles ne sont pas abominables.

    @rom : ta vision est celle d’un gestionnaire de site Web. La reste des utilisateurs sont moins concernés.

    @Seb : pour moi, l’important est de créer un bon profil de liens au début de la vie d’un site. Cela comprend la variété. Par la suite, on peut envoyer la purée avec beaucoup plus de latitude.

    @Maxime : je pense que tu crois toujours qu’il y a un poids pour le mot clef dans l’URL…

    @Aurélien : ma propre expérience suggère que l’URL n’est pas incitative, mais je suis près à changer d’avis si je vois une étude probante à ce sujet.

    @cdillat : à la base, Twitter est en nofollow donc pas de transfert de jus. Concernant les raccourcisseurs d’URLs, il faut bien regarder dans un vérificateur d’headers comment c’est foutu.
    Par exemple, celui de Google faisait une 302 au lieu d’une 301 avec deux redirections successives (plus ou moins corrigé depuis). Va chercher un morceau de juice avec ça.

    @AlexCP : si t’as des URLs avec des mots clés et que c’est raisonnable, non ça ne vaut pas la peine de changer.

    @Mathieu : amha il y a encore une très grande latitude « off page » pour le BH SEO. Ça se restreint beaucoup « on page » ou alors il faut vraiment faire du volume.

    @Philippe : le bon sens est le maître mot.

    @Arobasenet : je ne parle pas forcément de ce blog, mais c’est un bon exemple. Il a été lancé à l’été 2009 et n’a jamais subit de Sandbox. A cette époque, personne ne me connaissais vraiment sous ma véritable identité.

    @Antonin : tu abordes un élément intéressant. Car autant les mots clés dans l’URL ne portent pas un poids important, mais si tu fais un lien vers une URL qui contient des mots clés en mettant l’anchor text qui va bien, c’est une excellente bidouille pour booster une page.

    @Le Juge SEO : damn si un jour Bing & Yahoo se réveillent en France, tu vas posséder une sacrée avance 😀

    @rikew : c’est un long stretch comme on dit…

    @megalooser : tu penses comme un utilisateur expérimenté.

    @Philippe : tu commences à parler comme un prophète! 😀

    @audit de référencement : cette méthodologie est plutôt inspirée de l’Art de la Guerre plutôt que d’un schéma d’entraînement sportif, mais c’est une très bonne analogie (marathon vs. sprint).

    @cadeaux : oui c’est une répétition. Je ne considère pas une répétition lorsqu’on travaille sur des co-occurences ou termes en relation.

    @Sylvain : il nous faudrait une étude style EyeTracking pour être sûr.

    @Evioo : voilà! Tout est question de bien connaître le poids des leviers.

    @Refschool : là aussi c’est un long stretch

    @Jean Marc : ce n’est pas subtil

  21. Même si il a été prouvé que les mots clés dans l’URL ne compte que très peu dans le sacro-saint algorithme de Google, je suis convaincu que ce « très peu » est essentiel pour un référencement optimal.

    Et comme le dit très justement rikew ou megalooser, un lien réécrit est d’avantage cliqué sur un forum mais également dans les serps je présume.

    En effet, les mots clés tapés apparaissant en gras dans les résultats de recherche, si l’url en contient, elle est d’avantage visible. Associé à un Title et une Description bien construite, on gagne en visibilité et donc en taux de clic.

    De plus, par expérience, ayant parfois laissé trainé des sites sans URLs « SEO friendly », après avoir optimisé leur constructions, j’ai observé une amélioration sensible de certaines de mes positions. Hasard ou pas…

    Dans tout les cas, au même titre que audit de référencement, le principe d’en « garder sous le pied » pour assurer une montée en puissance est intéressant et ne semble pas dénué de sens 🙂

  22. Jusqu’à présent, j’ai continuellement modifier les permalinks de tout mes sites, mais j’avoue que ce post laisse songeur et perplexe. Je ne pense pas que si l’on reste raisonnable dans l’optimisation de l’url rewriting, ça donnera simplement plus d’esthétisme sans porter d’atteintes négatives.

  23. Je pense comme tu dis que créer un « schéma » cohérent entre les titre, URL et H1 est un avantage pour préciser le champ sémantique et la thématique du site. Cependant, la réécriture des URL avec au moins un mot clef à son intérêt pour les liens sans ancre optimisée comme le dis Antonin, qui permettent alors une optimisation minimum des bl. De plus, toujours dans le cas d’un lien sans ancre optimisée, cela permet une meilleure compréhension du lecteur qui pourra être assuré que le lien proposé est bien en relation avec ce qu’il est en train de lire (en théorie!). Enfin, j’ai utilisé la « triplette du bourrin » (le piège du dynamique est bien dit) sans avoir jamais aucun problème, et j’ai eu de bonnes indexations (et rapides).

  24. J’ai pris beaucoup de plaisir à lire ton article, très instructif.Comme tu le dis, la triplette du bourrin n’est pas toujours suffisante, surtout sur des requêtes concurrentielles.Ce que je retiens surtout de ton article est une architecture « interne » de la page équilibrée, propre et optimisée (sans trop non plus), et la popularité via les backlinks. Que penses tu du poids du référencement social ? A t il un poids dans google ?

  25. Faut dire que parfois, une « triplette du bourrin » fonctionne à l’extrême.

    Bien entendu et dans le fond, je suis assez d’accord avec toi. Tu en avais déjà touché 2 mots au SEOCamp, tu as l’avantage d’être fidèle à tes convictions. Maintenant, je ne suis pas forcement convaincu qu’opter bon une URL totalement « bidon » (magueule.com/blog/48p12a.php) soit une bonne chose, coté SEO ou non.

  26. @Maxime : je pense que tu crois toujours qu’il y a un poids pour le mot clef dans l’URL…

    Parce que les liens avec ancre = url, on en voit jamais…

    Et Google ne met pas en gras les mots clés présents dans l’url en vert sur les pages de recherches…

    Directement, on peut se dire qu’il y a pas de poids (ou très très très peu).

    Mais indirectement tu gagnes un peu sur des BL. Tu gagnes aussi sur l’attention visuel du visiteur potentiel dans les SERP avec du gras en plus.

  27. Vu l’importance de ces paramètres, cela vaut-il le coup de supporter un tel financement?
    Toutefois, si cela fait parti des dernières optimisations, alors pourquoi pas !

  28. @Jérôme Bitterli : je sais bien que les croyances ont la vie dure.
    Et je répète que le truc de l’identification des mots clés en gras dans l’URL n’est pas un facteur décisionnaire. Le titre et le snippet sont décisionnaires.

    @megalosser : tu pourrais être étonné du résultat 😀 Les progénitures sont étonnantes avec la technologie.

    @Le Juge SEO : m’enfin, j’ai l’impression que ce n’est pas pour demain.

    @sexcam gratuit : je n’ai pas dit que c’était forcément néfaste.
    Par contre, tout modifier pour ça n’est pas non plus indispensable.

    @Udon Thani : tant que ça ne freine pas les performances.

    @création de site internet : entre l’option des ancres optimisées par le biais d’URL et la subtilité d’optimisation, mon choix est vite fait.

    @YvanDupuy : Google voit et jauge absolument tout. Le référencement social y compris. C’est juste un peu plus compliqué qu’une simple histoire de PageRank. Je reviendrai là dessus un de ces 4.

    @Keeg : entre « bidon » et « effrayant », il y a tout une monde.

    @Maxime : même réponse qu’ @Udon Thani
    Les croyances ont la vie dure. Je sais que ce n’est pas facile de lâcher…

    @Consultant en référencement : gné ?

  29. Effectivement, la triplette du bourrin peut-être considéré comme de la sur-optimisation par les moteurs et peut avoir les effets inverses à ceux souhaités dans les SERP, mais n’oublions pas qu’une URL ré-écrite permet de « parler » à l’internaute quand on la voie en totalité sur un blog ou un forum :
    http://www.lesiteatontonfafa.com/referencement-naturel
    c’est mieux que
    http://www.lesiteatontonfafa.com/874.php
    Ce qui peut ramener davantage de trafic en direct.

  30. Intéressant, vraiment. De là à parler d’une triplette de bourrin…Ce n’est peut être pas la clé du SEO, mais l’usage des mots-clés dans l’URL semble tenir du simple bon sens, d’un point de vue utilisateur. Et le bon sens, en SEO, c’est encore ce qui marche le mieux (du moins je le crois).

  31. @Fabien @Stefani @Jérôme : je crois que vous n’avez pas du tout compris mon propos…
    Je dis qu’un répétition du titre est malsain. Je n’ai pas dit qu’il ne faut pas mettre de mots clés dans l’URL. C’est mon choix perso car je n’ai pas envie de travailler les co-occurrences à ce niveau étant donné son poids extrêmement faible.
    Vous voulez les meilleures URLs possibles ?
    Alors, travaillez la sémantique, la relation entre les termes, etc.
    Une simple répétition est une solution de facilité et rien de plus. Voilà le bon sens.

  32. @Laurent :
    Oui, je suis d’accord, j’ai élargi la discussion sur le sens des URLs. Il est vrai que les systèmes automatisés qui répète bêtement l’expression ciblée au niveau title + url + h1, c’est pas le top.

  33. @Laurent : j’avais très bien compris le sens de ton billet. Je ne suis juste pas d’accord sur la phrase suivante: « L’objectif est de ne pas l’effrayer, mais vouloir l’attirer grâce à des mots clés dans l’URL va beaucoup trop loin à mon humble avis. »
    Peut-être que je passe trop de temps à optimiser des éléments qui ne le méritent pas, me laissant ainsi le temps d’optimiser ces URLs qui, nous sommes tous d’accord, ne font pas gagner grand chose en terme purement SEO.

  34. @Laurent : si, j’avais bien compris et je te rejoins sur le principe. Mais dans la pratique, se passer d’une URL signifiante par manque de co-occurrences, c’est pas très user friendly, quelque soit l’impact sur le SEO.

  35. Bonjour

    Sur quoi se basent vos affirmations? Je ne vois pas de source citée et encore moins de résultats de tests comme on lit sur le blog Axenet qui est très fiable.
    Pourquoi vos sites utilisent-ils la méthode de cette triple optimisation si elle est néfaste?
    Vous parlez de rester en dessous de la « zone risque » mais quelle est cette zone risque, comment la définir?
    Qu’entendez-vous par le fait que cette technique ne soit pas perçue de manière « uniforme »?
    Sur quoi se fonde votre « notation » positive ou négative, sur quelle information fiable s’appuie-t-elle?
    Pourquoi sous-entendez-vous que les 300 premiers caractères doivent être optimisés pour la requête phare? Cela voudrait dire que le début de la page a plus d’importance que le reste de la page pour les moteurs hors il a été prouvé le contraire, ne vous trompez-vous pas sur ce point?
    Où avez-vous lu que les adresses courtes étaient crawlées en premier?

    Outre des lourdeurs de style je trouve cet article bien approximatif et loin de la qualité des posts du blog axenet par exemple. Aucune source citée, aucun test effectué, vous vous prenez pour un gourou après vous être autoproclamé seo rockstar?
    J’espère que vous prendrez le temps de me répondre quand même!

  36. Wouah une dizaine de questions comme ça ! Juste pour donner un peu plus de sens à l’expression choisie par son auteur pour le titre de son billet : « malaise ».

  37. @Laurent : « entre « bidon » et « effrayant », il y a tout une monde. »

    J’avoue, c’est bien vu. Après tout, le référencement n’est que des mots qu’il faut savoir manier de juste manière. Je comprends ton efficacité et ta justesse. 😉

  38. Ce que je trouve limite en terme d’aller chatouiller l’over-optimization ce sont les sites qui reprennent à l’identique le Title dans le H1, exemple CommentCaMarche qui fait la vraie triplette de bourrin Title repris dans le H1 et url. J’imagine que vu leur profil de liens ils peuvent se le permettre cela dit.

    Un mot clé dans le titre est la base de la base, le (ou les) caser dans le H1/url (qui ont un poids très faible, voir effectivement les études de SEOmoz sur le H1 etc…) ne fait courir aucun risque d’OverOptimization a un site clean, je dirais que c’est pas non plus ce qui va faire passer le seuil du filtre à un site qui abuse déja sur l’OO on-page, ce sera en priorité les répétitions tout court, ensuite l’abus de alt, d’attribut Title, la duplication Title/H1 etc…un site qui déclencherait un filtre à cause de ça aura de toute manière d’autres problèmes…

    Après si le propos de l’article est de dire que H1 et url ne sont pas « obligatoires » parce qu’ils ne servent à rien, OK, en fait non, ils servent d’un point de vue ergonomie, le ctr d’une url keyword-rich sera tjs plus élévée qu’une url « technique » donc c’est du trafic en plus, le h1 structure la page etc…

  39. @Fabien : ben voilà!

    @Jérôme : il y a 2 niveaux. Sur le plan SEO, dur de me contredire sur le poids des mots clés dans l’URL qui est insignifiant. Par contre, le débat reste ouvert sur l’attrait visuel, notamment dans les résultats de recherche Google. Pour ma part, cela reste un élément de 3ème zone, derrière title et le snippet. Après, peut-être que je me trompe et que les utilisateurs prêtent beaucoup d’attention aux URLs. Jusqu’à présent, j’en doute…

    @Stefani : c’est le 2ème plan évoqué dans ma réponse @Jérôme. Tout reste à prouver concernant l’intérêt du user par rapport aux URLs.

    @Joêlle : vous avez raison. Sylvain aka Axe-Net est notre gourou et je dois être une fraude.
    Mais alors, ça fait un paquet d’années que je trompe tout le monde 😛

    @loser : le référencement est enclin à transformer des légendes urbaines en vérité. Les croyances ont la vie dure.

    @Keeg : le souci est de vouloir décliner des vérités universelles, surtout par rapport à des tests de pseudo reverse-engineering comme a l’air d’affectionner @Joêlle.
    Toute la difficulté est de prendre chaque site comme cas particulier à optimiser en conséquence.

    @Tuf : certains penseront plutôt que les réponses sont mieux.

    @monza : comme je viens de dire @Keeg, il faut s’appliquer à optimiser le site en fonction des +100 paramètres qui influencent le référencement. Mon propos est qu’il ne faut pas croire qu’un coup de baguette dynamique va être la solution optimale.

  40. Bonjour Laurent et je vous remercie de votre réponse malgré qu’elle ne m’apporte rien, moi qui suis en période d’apprentissage de ce métier de référenceur.
    Je suis déçue car j’attendais beaucoup d’explications de votre part et je n’en ai pas eu. Je trouve dommage d’affirmer des théories et espérer faire croire que ce sont des vérités universelles sans les expliquer à ceux qui vous lisent.
    Je ne vous connaissais pas avant d’avoir eue sous les yeux un de vos rapports d’audit effectué pour mon employeur par vous-même et en faisant quelques recherches il apparaît en effet que vous êtes un nouveau dans ce métier car vous ne proposez pas de prestation de référencement depuis longtemps. Et je crois aussi que vous ne souhaitez pas vous engager sur des prestations avec du suivi pendant plusieurs mois, peut être par peur de ne pas obtenir les résultats espérés? En appliquant tous les conseils de votre audit, le référencement n’a pas décollé et nous sommes très déçus, d’où ma volonté de me former et d’y voir plus clair. Et c’est pour ça que je vous pose les questions plus haut, car ce n’est pas assez clair pour moi de savoir où se situe la suroptimisation et comment je peux travailler en finesse si je ne sais pas où est la limite et comment la percevoir? Merci encore de votre réponse

  41. Pour commencer, je ne sais pas de quoi ni de quoi vous parlez et les commentaires de blog ne sont certainement pas l’endroit pour effectuer un suivi d’audit.
    Cela dit, gardez bien à l’esprit que ce n’est pas la préconisation qui donne un résultat, mais ce que vous en faites.
    Quand à la durée de la prestation, bien sûr que je fais des suivis sur le long terme. J’ai même des contrats annuels avec certains.
    Tout est question de budget. Si c’était short term, je me doute que le budget était très faible.

    Après, si j’étais si débutant que ça, pourquoi m’avoir commandé une prestation ? Axe Net paraît comme votre préférence. Allez voir de son côté.
    Ou sinon envoyez moi un mail pour en discuter car je ne pige pas l’intérêt de m’attaquer publiquement comme cela. Ma réponse était sarcastique tout simplement parce qu’elle n’incite pas à beaucoup plus.

    Ce n’est pas non plus l’endroit pour discuter d’une optimisation spécifique. La prestation d’audit et de conseil est justement faite pour cela.

  42. Au contraire, je revendique de ne pas être le meilleur ou même « bon ».
    Par contre, je peux certifier que beaucoup sont vraiment mauvais.
    Ca permet d’obtenir des résultats malgré tout 😉

  43. J’ai énormément de boulot à faire dans ma maison 🙂
    J’allais partir sur la triplette du bourrin, je vais me calmer, prendre du recul et faire le taff tranquillement.
    Merci.

  44. Je reviens sur l’utilité d’avoir des urls réécrites.
    C’est plutôt nécessaire lorsque que le système web déploie des url avec des paramètres supplémentaires qui sont un obstacle pour les moteurs ainsi que pour les utilisateurs :

    – trop de param rallongent l’url (l’utilsateur copie/colle le lien d’une manière maladroite)
    – risque de DC (pas de mort)

    Rien que pour ces deux points, j’opte pour le rewrite. Autant que ce soit fait d’une manière optimisée avec une url courte et l’expression clé dedans.

  45. Je n’ai pas fait le même choix que toi (mon Url contient 3 de mes mots clefs ^^) après c’est fait c’est fait, on ne reviens pas dessus, et puis pour connaitre réellement l’impact de l’url, il faudrait avoir l’algorithme de google devant les yeux, et encore, il faudrait arriver à le comprendre…

  46. Même si en effet mettre en place des mots clés dans ces URLs n’est pas un critère majeur, il apparait selon moi aujourd’hui indispensable de soigner ses urls pour un site naissant, en revanche on est d’accord que pour un site qui a de la bouteille, rien ne sert de lui ajouter de l’url rewriting qui n’aurait que très peut d’impact et surtout qui ferait perdre du poids au page du à la 301.

  47. Merci du conseil 🙂
    On va nettoyer les URL puisque si ce n’est pas positif cela semble négatif, soyons pragmatique des lors que les chiffres parlent (Cf SEOmoz), après à chacun son point de vue !

  48. Je suis étudiant, et je viens de découvrir ce blog en faisant des recherches pour un concours de référencement dans le cadre de nos cours. Et je viens surtout d’y apprendre beaucoup plus que tout ce que nous avons pu voir en cours sur la SEO. Évidemment, j’étais parti sur la triplette du bourrin… J’espère que des ajustements un peu plus délicats me permettront à l’avenir de progresser.

    Merci pour ces excellents articles en tous cas !

  49. Poétique la triplette du bourrin… mais de tout cela j’en conclue à l’utilité d’avoir de nombreux sites pour effectuer des approches différentes… Et sur certains noms, l’url a quand même de l’importance… comme chansonnier préfèrable quand on est chansonnier !

  50. @tous : il faut bien lire ce que je raconte :
    « Pour bien faire, il faudrait travailler toujours plus au niveau sémantique ou simplement relationnel entre les termes »

    Mon blog n’est pas l’exemple forcément à suivre puisque j’ai affaire à un lectorat très particulier. En tout cas, il prouve que ça ne gène en aucune manière de ne pas truffer l’URL de mots clés.
    Encore une fois, je n’ai pas dit qu’il ne faut pas mettre de mots clés dans l’URL. Je dis qu’il ne faut pas répéter Title dans l’URL et H1. Y a une grosse nuance!
    Si vous mettez des mots clés dans l’URL, soyez un peu plus créatif. Sauf qu’en dynamique ça devient très vite compliqué…
    Et Google a confirmé par le biais de O. Andrieu que mon quota de 3 tirets maximum est la bonne dose.

  51. A 1 époque, c’était Bing qui disait ne pas prendre de domaines avec + de 2 tirets.
    Je n’ai pas vu passer cette info Google sur les 3 tirets dans l’URL.

    Ca va raccourcir les TITRES/URL/TITLE, il est vrai qu’avec la limitation à 70 caractères, on était déja sur cette voie là.
    Et puis il y a aussi les tests SEOMOZ (je crois) sur l’indexation plus rapide des URLs courtes.

    En revanche, les derniers ajouts de parametres demandés par Analytics vont à rebours.

    David

  52. Un article comme souvent très pertinent! Partagé sur Twitter, Delicious et Facebook!
    Il ne me reste plus qu’à renommer mes url de (bcp) plus de 3 tirets…

    Bonne continuation Laurent

  53. Je pense que les mots clés dans l’url sont utiles non seulement au référencement mais aux internautes, ça donne une idée du contenu avant de cliquer alors que là il n’y a rien et ça ne donne pas très envie d’aller voir.

    Si tu veux une url courte achète un domaine plus court, c’est ce que j’ai avec http://aqc.com/ et http://xev.com/ par exemple 😉

  54. Bonjour,

    Pas mal de points me surprennent un minimum très honnêtement.

    Une URL courte est plus vite crawlée qu’une URL longue :
    ça change quoi à part la vitesse d’indexation ?
    Ok je ping dès que je sors mon nouvel article pour être le premier dans l’index. Indexation inférieur à 2 minutes pour des URLs avec catégories + nom de l’article.

    Des mots clés dans l’URL c’est aussi marketing que les snipets, ça met en gras la requête de l’Internaute.

  55. J’en ai effectivement fait les frais sur un site où ndd = title = h1. Résultat site en sandbox ! Au moins je saurais pour la prochaine fois ! La question est « Si javais utilisé des expressions proches ou des synonymes de mes mots-clés principaux, est-ce que j’aurais aussi été en sandbox ? »

  56. Pour ma part, je suis d’accord qu’il ne faut pas truffer son url de mots clés (2/3 max c’est bien) apres tiret ou pas tiret, Google arrive à lire quand meme. Meme les ,urls dynamiques s’indexent tres bien aujourd’hui (meme si c’est pas propre et peu ergonomique) Personnellement je m’arrange pour avoir des mots clés différents dans l’url, le titre et les h1/h2 tout en restant dans la thematique du site et ça fonctionne bien. Mais on peu referencer un site tout aussi facilement sans avoir de mots clés dans son url. Le tout c’est de garder une cohérence entre le titre et le contenu (bien sur en ayant une optimisation sémantique suffisante pour les moteurs) Mais je suis daccord sur le point qu’il vaut mieux avoir une url courte pour tout un tas de raisons deja pour eviter le tronque dans les serp (meme si je vois souvent dans les résultats de Google des urls longues comme un jour sans pain affichés dans leur totalité)

  57. Sur TWITTER, un bel exemple
    @512banque: Mettre des mots clés dans l’url, référencement facile ! http://bit.ly/hQfzcC

    Le pire c’est qu’avec ce petit buzz, ils doivent voir le trafic monter…. parce que les positions, vaut mieux ne pas espérer.

    David – SEO Euro

  58. En résumé il y a d’un coté les Bourrins et de l’autre les Bourrelly. 🙂

    Avec toute mes félicitations Laurent .

  59. Bonsoir, cela laisse entendre que de nombreuses plateformes e-commerce ne sont pas optimisées car je vois très souvent les pages produits qui reprennent le schema url/title/h1 justement.

  60. So sexy , c’est un simple parametrage, car ka tu doit avoir les fonctions seo par default.

    Il est possible desormais d’avoir tout en independant (titre, url, description, mots clés etc… mais faut mettre les mains dans le cambouis pour activer tout ça!

    Mais je te rassures c’est possible…

  61. Bien sur nos amis devellopeurs peuvent déconnecter Titre/Title
    mais le plus dur est de générer AUTOMATIQUEMENT

    un TITLE différent du TITRE mais sémantiquement proche.

    Et si je dis AUTOMATIQUEMENT c’est que nos amis e-commerce (euh..j’en fais partie) génèrent des milliers de pages. Pitié Pas à la main!.

    Et je vous voie sourire et penser que le Content Spinning n’est pas fait pour les chiens.
    Mais un bon spinning se travaille mot à mot et on en revient au tandem « matière grise+clavier » qui se délocalise mal à ce niveau de SEO sensible à 5% de variation de trafic (et de conversion bien sur).

    David Cohen – SEO Euro

  62. Je ne suis pas expert mais j’ai cru comprendre que plus important que les mots clés dans l’url c’est la réécriture d’url qui est ainsi plus facilement « référençable ».
    comme le dit « referencement » l’ideal serait de personnaliser titre, url, description, mots clés pour chaque pages/posts du blog.

  63. Faut quand meme pas exagérer,
    rendre « propre » une URL fait gagner du trafic.

    Fasse à l’inflation des URL de CMS qui reprennent des titres longs comme le bras, il y a des chantiers de raccourcissement d’URL à faire.
    C’est ce levier qui agit là.

    Moi, je teste des raccourcissements (à la main) en gardant des kws dans l’URL.

    Laurent adopte la méthode radicale de travailler avec des chiffres.

    Dans les 2 cas, on raccourcit.

    Quelle que soit la pondération de kws dans l’URL, 2, 3 ou 6, tant qu’elle est positive, je la prend.

    Il est difficile de faire un test comparatif entre 2 sites dont l’un n’aurait que des chiffres et l’autre 1 à 3 mots maximum.
    Comme la météeo, il n’y a jamais 2 fois les memes conditions de lancement de sites.

  64. @crack-net « La plupart des cms permette la récriture d’url en 1 clic. Pourquoi s’en priver? » je suis d’accord avec toi.

    Les mots clés dans les urls, c’est un plus, c’est clair. Mais je ne pense pas que ce soit un critère très déterminent dans le positionnement. Mais il y a une corrélation très forte entre les libellé des URLS et les sites les mieux classés. Mais là n’est pas la problématique le plus important.

    Je constate et ce n’est pas une nouveauté que l’âge du site et surtout les backlinks sont des atouts majeurs quelque soit l’optimisation du contenu du site. Oui je dit bien quelque soit l’optimisation. Le « googlebombing » est loin d’être fini les amis.

  65. J’avais déjà commenté ce billet sous une autre identité mais, bon, il faut bien que je spamme un peu à mon tour…

    Comme je bossais ce matin sur l’audit d’un site ce billet et ses commentaires me sont revenus en mémoire…

    Il me semble (mais Laurent me corrigera si je me trompe) que ça très longtemps déjà que Google a modifié son algo pour qu’il ne prenne plus en compte les mots-clés contenus dans l’URL (7/8 ans, peut-être ?). Ceci en suite de KW stuffing d’experts SEO qui ont généré des URI à rallonges que le moteur ne voulaient plus voir.

    Du fait les URL doivent être conçus pour les humains et non plus pour les bots : en posant un lien seul (sans ancre) qui permette au lecteur d’appréhender le sujet de la cible depuis son lien lien constitue une bonne pratique. Et, en plus, cet URL contenant ces mots-clés (en éliminant les stopwords) on obtient une belle ancre pour le référencement tout de même.

  66. bah oui je pense que c’est comme tout faut pas en abuser, mais je réagit concernant le post ci dessus:

    « Google a modifié son algo pour qu’il ne prenne plus en compte les mots-clés contenus dans l’URL (7/8 ans, peut-être ?) »

    7 ou 8 ans c’est pas un peu exagéré?

    cordialement.

  67. justement chacun sa manière pour référencer son site , mais ça n’empêche pas d’avoir un site bien fait sans des alias sur les urls comme le votre , pas mal , continuez à partager merci

    et on attends toujours d’avoir des sources USA 🙂

  68. Houlà, je suis à des milliers de kilomètres de ces notions. Par défaut WordPress prend mon titre de page et le transforme en url. Pour le Title, c’est autre chose, je le réécrit, différemment grâce à un plugin SEO, idem pour les champs de métas description et keywords.
    Par contre là tu m’en bouche un coin sur ce que tu annonces.
    Je n’ai pas le temps de revoir tout ce que j’ai écris, en plus je perdrais le référencement de mes articles, sauf si je passe pas un plugin pour faire des redirections d’urls, bon passons, je n’ai pas le temps.
    Par contre pour les prochains articles, je suivrais tes conseils, merci de m’avoir éclaircir l’esprit.

  69. Excellent billet ! Je n’imaginais pas qu’on pouvait passer en Sandbox juste en faisant même ndd, title et h1. En revanche je pense que si on utilise des synonymes cela ne pose aucun probleme à Google.

  70. merci pour ce point de vue très poussé. en lisant l’article, j’ai eu l’impression de me reconnaitre dans certain comportement, oups pas bon signe. je savais la sur-optimisation pénalisante, mais là c’est très bien expliqué.

    tout aussi inquiétant, cette phrase « il est beaucoup plus aléatoire de désoptimiser plutôt que partir léger et monter en puissance »

    à prendre en compte dans les futures optimisations

  71. Merci pour ces éléments… moi, j’ai tout de meme l’impression qu’une url et une balise h1 hyper optimisées ne seront jamais pénalisées dans la mesure où… il y a cohérence avec le contenu de la page. Je crois qu’il faut revenir à cet élément de base et ne pas prendre les choses à l’envers.

    Le problème c’est qu’on a tellement dit pendant un temps que la priorité était d’optimiser les titles puis les urls qu’on a oublié l’importance de la page elle-même ^^

  72. Ce qui est vrai ce que nous ne sommes pas tous égaux, les moteurs de recherche font vraiment la pluie et le beau temps… Je suis d’accord avec le post de Blog Mode Eva Koshka il ne faut pas oublier la page en elle même.

  73. Merci! Mais franchement, plus je suis dans le référencement et plus je me rends compte que beaucoup de personnes oublie des fondamentaux pourtant évidents!

  74. Merci pour ton point de vue intéressant. Pour mon cas je préfère avoir un site avec un url comportant des mots clef spécifique, mais si mon site était plus diversifié, ce serait sans doute pas le cas.

  75. @Forex : le probleme c’est que les bots détectent de plus en plus ce type de pratiques. Donc, le risque est gros de subir des sanctions si ton contenu ne s’enrichit pas lui-meme…

  76. Comme beaucoup ton article m’a donné quelques frissons … Lorsque j’ai commencé le référencement j’ai en effet usé et peut être abusé de la fameuse « triplette ». Je touche du bois sur mes sites les plus anciens, le problème pour moi est que je n’ose pas tout changer à cause du grand risque de pénalisation pour changement global.

    En tout cas je prends note de toutes tes observations pour mes futurs projets, je verrai ainsi la réaction de mes nouveaux sites par rapport à l’évolution des anciens.

  77. @Credit : « Risque de pénalisation pour changement global »??? Je ne vois pas au nom de quoi Google ou un autre bot te pénaliserait pour des changements qui ne visent pas à duper ni à sur-optimiser ton site.

  78. Ping : Attention à l’application d’analyse de concurrence en référencement

  79. Ping : introduction à la notion de référencement post-moderne

  80. Trop drôle ! Tout ce qui semble fait de manière automatisé marche moins bien alors ?

    Donc, si je comprend bien faudrait créer un CMS qui varie l’automatisation de manière automatisée…

  81. C’est tout à fait possible.
    J’ai déjà traité des sites de plusieurs millions de pages où nous avons mis en place des variables, permettant d’éviter la similitude et la répétition bête et méchante qu’on voit partout ailleurs.
    Puis même sans parler de l’enjeu SEO, il suffit de regarder la place rétrécie de l’URL dans les résultats de recherche Google (le lien « en cache » s’est déplacé à côté de l’URL) pour comprendre qu’une URL courte sera bien plus efficace du point de vue incitatif.

  82. Bonjour,

    Y a-t-il d’autres choses horribles à ne pas faire et que tout le monde ou presque fait ?

    Sinon, il va falloir un plugin spécial sur wordpress pour faire en sorte que le h1 et le title soient différents…

  83. Il ne faut quand même pas exagérer: « la triplette du bourrin » n’est pas souvent utilisée. Le plus souvent on retrouve le schéma suivant:
    1.URL du site (pas de mots clés).
    2. Le h1 qui comporte de co-occurence
    3. Des liens avec les mots clés pointant vers cette page.
    4. La balise title comportant le mot clé.
    Je trouve par ailleurs le style d’écriture très humouristique, j’aime…
    Merci pour l’article.

  84. Sympas ce terme « Triplette du bourrin » !
    En ce qui concerne l’optimisation In page je ferais gaffe sur mes projets perso d’éviter les redondances.
    Merci et bonne journée !

  85. Ping : Black Hat, Spam et Charlatans

  86. La plupart du temps je n’utilise pas la triplette du bourrin, par contre je mets souvent le mot clé le plus concurrentiel en title.

    J’ai un bon retour en utilisant le champs lexical direct du mot clé en h1/h2, etc.

  87. Salut

    j’ai un site des huiles essentielles Maroc nommé florafrika.com j’ai utilisé une méthode bien connu du référencement celle des mot clé sur chaque url entre les pages web interne du site et aussi j’ai mis dans chaque page des balises h1 et h2 contenant aussi des mots clé je voulais savoir est ce que le fait de mettre le même contenu des balise h1 et h2 dans tous les pages aurait pas un mauvais impact sur positionnement sur le moteur de recherche google bref si quelqu’un pourrait jeter un coup d’oeil sur mon site http://www.florafrika.com et me répondre merci pour votre aide

  88. Thibault : bel ajout. C’est vrai que dans certaines niches bien saturées, il faut se creuser pour réussir à être original et trouver une incentive réellement motivante.

  89. Ping : Référencement et création de page | Blog Infographie, SEO et web @ TiPi's blog

  90. Ping : SEO : une once de pratique vaut mieux qu’une tonne de theorie ! – Formation Referencement

  91. Ping : Retour sur l'évènement SEO : SMX Paris 2011

  92. Ping : Le titre des articles Wordpress : gestion, référencement et plugins | Bloguer facile

  93. Ping : Compte-rendu du SMX 2012, conférence SEO à Paris

  94. Ping : Astuce e-commerce : ne mettez pas le nom de vos produits dans l'URL - Ninja SEO

  95. Ping : Analyse On-Page SEO : le guide ultime d'une page optimisée pour Google

Laisser un commentaire