AccueilPodcast ➟ Podcast SEO Vol. III Ep.17 : Jérôme Rossignol

Podcast SEO Vol. III Ep.17 : Jérôme Rossignol


Podcast Référencement avec jérôme Rossignol de visiblis.fr

Présentation en exclusivité de l’outil d’analyse sémantique visiblis.fr par son créateur Jérôme Rossignol.

Je suis très fier d’accueillir Jérôme dans le Podcast Référencement car j’ai suivi la gestation de son outil.

C’est le service que j’attendais depuis des lustres pour aider dans ma démarche du cocon sémantique.

Analyse sémantique

Terminé les services has been d’analyse du contenu. Maintenant, on entre dans un nouvelle ère avec un outil d’analyse sémantique inédit.

Après un an de développement, son papa vient nous présenter le bébé dans ce nouvel épisode du podcast.

La vidéo du Podcast Référencement Vol. III Ep. 17

Toutes mes excuses pour le lag du partage d’écran, mais la connexion de Jérôme est en carton.
Le son n’est pas terrible non plus car on est passé par le téléphone (ça buggait avec Skype).

Si vous souhaitez seulement écouter la conversation, voici le lien vers le fichier audio du podcast avec Jérôme Rossignol.

Abonnements

  • Flux RSS des vidéos du Podcast Référencement.
  • iTunes : abonnez vous (mettre une note et une revue serait l’extase) !
Le podcast SEO est sur iTunes

Autre lecture intéressante

Vous avez aimé cette lecture ?
Abonnez-vous à ma newsletter pour être le premier au courant de mes dernières trouvailles SEO, distillées uniquement par ce canal.



15 réponses dans “Podcast SEO Vol. III Ep.17 : Jérôme Rossignol”

  • Fabien dit:

    Attention il y a une coquille sur le pack agence ->
    C’est marqué « Pack Angence » -> http://www.visiblis.fr/tarifs/

  • Guillaume Bonnet dit:

    Ca à l’air très intéressant comme outil, par contre c’est moi où on est limité dans nos requêtes à un seul domaine avec l’offre gratuite ?
    Je viens de voir ça sur la page d’inscription « Attention ! Les analyses seront limitées au domaine attaché à l’adresse mail fournie ! »

    Je me trompe peut-être mais ça paraît dommage, j’aurais bien aimé faire des tests de l’outil sur plusieurs sites.

    D’ailleurs, ce n’est peut-être pas le meilleur endroit pour faire sortir cet info mais dans la page tarif il y a le « Pack Angence » avec un N en trop.

    En tout cas c’est cool de voir le retour des podcasts 🙂

  • BlogMestre dit:

    Oooops! Loin de moi l’idée de considérer les agence SEO comme une « engeance » :mrgreen:

    La coquille est corrigée.

    @Guillaume Bonnet: En effet, le pack gratuit limite les analyses au domaine d’inscription. Mais je pense que cela suffit pour évaluer l’utilité et la qualité de l’outil.

    J’en profite pour remercier Laurent qui m’a effectivement bien accompagné dans la finalisation de ces outils avec une aide très précieuse en matière de formalisation.

    PS: Pour ce qui ne sont pas familiarisés avec l’accent du sud-ouest, on prépare une traduction avec l’accent Breton, Cht’i et Alsacien 🙂

  • Thomas Cubel dit:

    Bonjour à tous les deux !

    Tout d’abord, merci pour ce podcast ! Même si celui-ci était un peu en décalé et un peu limite niveau son, il était passionnant et intéressant. C’est pas souvent quand on parle de sémantique, de math… on s’endort facilement, mais vous avez su tenir le fil et mettre de l’information, de l’entrain, puisque j’ai regardé l’entièreté de celui-ci.

    Concernant l’outil, c’est du beau boulot ! J’ai testé avant d’écrire ce commentaire et effectivement, ça a l’air fiable. À voir comment il se comporte avec d’autres sites. J’ai hâte de voir la suite et les prochaines fonctionnalités, surtout que le contenu, c’est important, et de plus en plus.

    Jérôme, je n’aurais pas voulu être à ta place en ce qui concerne les tests et conditions d’analyse… Parser ça devient vite difficile quand on a effectivement des webmasters ou des outils qui te font du code crade. Il faut envisager beaucoup de possibilités pour appréhender tous les types de sites. Pareil pour la création de ton corpus de référence, je suppose que tu as dû faire appel au principe d’information retrieval pour arriver à tes fins, c’est un sujet chaud à maitriser et à mettre en place, chapeau !

    Pour la version du corpus, tu semblais dire qu’il datait plus ou moins de 2012. Tu as de quoi faire, mais c’est vrai que tu as une grosse problématique à solutionner : comment mettre à jour avec le minimum de coût possible pour gérer les nouvelles informations et contenus.

    Pour Gephi, il est vrai que c’est bien utile. Pour ma part, j’utilise NodeXL où je me suis un peu amusé de temps en temps, mais je ne suis pas matheux, vous m’impressionnez avec vos projets…

    Enfin, je ne pouvais pas finir sans parler du cocon sémantique et des CMS. Il est clair que toutes les technologies comme WP ne sont pas cool si on veut bien cloisonner, mieux vaut des pages comme dit Laurent, ou redescendre à un niveau bas de fonctionnalités (brut). Vive la création de pages HTML à la main (la fainéantise ne nous fait pas faire de DC et nous donne un meilleur contrôle héhé)

    Merci pour tout en tout cas, c’est dans les marques pages 😉

    Bonne continuation pour cette année Laurent (la rentrée commence bien) et à toi aussi Jérôme.

    À bientôt !

  • Flo dit:

    Merci Laurent pour ces podcasts, qui en plus d’être intéressants permettent de faire travailler les méninges et d’ouvrir un peu l’esprit des SEOs.

    Je me suis inscrit et j’ai souhaité tester la bête mais problème je n’ai pas d’email avec @nomdusite.com :-S alors il est écrit : vous pouvez uniquement checker le ndd « gmail.com » ! lol !

    Sinon ca a l’air cool tout ca !

  • Yann dit:

    Pour moi qui vient de terminer les formations des frères Peyronnet, cet outil semble arriver à point nommé ! Le seul truc qui me pose question, c’est le fait que les sources, surtout dans le milieu du référencement, sont très vite pillées. Déjà que DMOZ a été tellement copié et scrapé, wikipedia ou freebase sont également des bases très utilisées. Ne pensez-vous pas que, depuis le temps, Google a pris de l’avance et s’est détaché de ces corpus trop accessibles ?

  • Sylvain (xSpin) dit:

    Ca fait drôlement plaisir de voir que Jérôme n’a pas lâché le morceau (c’est un beau morceau !) et est arrivé à un produit fini: un grand Bravo !

    Quelques perspectives intéressantes dans le podcast, merci à vous deux !

  • Christian Méline dit:

    Bravo Jérôme pour le boulot effectué ici.

    Deux petites remarques,

    1) Puisque tu m’as « emprunté » le système de représentation par multiradars (que moi-même j’avais empreinté à certains systèmes de navigation aérienne), pour donner un sens à la surface de la forme (ou plutôt à son aire), il faut que les arcs tracés entre deux points représentent un glissement réel des valeurs. Autrement dit, n’importe quel point sur une droite reliant deux points a un « sens » (et n’est donc pas là uniquement pour la « beauté » de la figure).
    Dans ce cas, l’aire a effectivement un sens (et tu peux même t’amuser à faire des intégrations en gérant les hors-corpus, recouvrements thématiques, etc. ; c’est marrant comme tout).
    Il faut aussi que les « notes » aient la même échelle, l’idéal étant parfois d’« autonormer » les notes sur celles du corpus => le corpus a forcément la note maximum après que l’on ait exclu la part non sémantique (voir mon dernier billet).

    2) Gères-tu dans cette version les ambiguïtés (le fameux masquage sémantique) ?

    J’espère avoir été clair, le we a été « dense », je suis un peu crevé là… 😉

    Bravo encore en tous cas.

    ps : C’est dommage que je n’ai pas d’email associés à mes ndd.

  • BlogMestre dit:

    @Thomas Cubel: Le plus gros du corpus date effectivement de 2012. Le problème de la mise à jour se résume à veiller à garder son homogénéité tout en intégrant de nouveaux documents prenant en compte les évolutions de contenu du WEB. J’ai déjà commencer à travailler la dessus. Ce que je peux en dire c’est que ce ne sera pas en temps réel car, cela demande de gros calculs. Quoiqu’il en soit, ce n’est pas ma priorité absolue car tel qu’il est, il est assez « robuste »; Je travaille sur une nouveau module permettant de mesurer le glissement sémantique entre deux pages WEB.

    @Yann: Google a à sa disposition l’intégralité de son index, mais il me semble improbable qu’il l’utilise globalement (trop de ressources à déployer) d’autant qu’un corpus réduit mais représentatif permet d’obtenir les mêmes résultats. Tout est un problème d’échantillonnage. Quand à wikipedia ou autre, le contenu reste sémantiquement représentatif de ce que l’on peut trouver sur le WEB.

    @sylvain: Comme tu vois je suis tenace, et je peux dire que nos discutions autour de l’hypersphère m’ont bien éclairé :mrgreen:

    @Christian Méline: J’ai dévoré tes articles sur les multi-radars et ça a tout de suite fait tilt (j’en étais aux prémices de développement de mes outils lorsque tu as publier tes articles); Mon utilisation n’est pas aussi poussée (en particulier les points sur la droite relient deux point du graphe n’ont aucun sens en eux-mêmes). C’est juste une visualisation pour faire apparaître les déséquilibres et les axes d’optimisation. Par contre les valeurs sont bien normées (entre 0 et 1) bien que je les utilise sous forme de pourcentages (entre 0 et 100%) ce qui revient au même. Ensuite, le fait de calculer l’aire donne une valeur bien plus représentative qu’une simple moyenne. Pour ce qui est des ambiguïtés, je ne les gère pas, je travaille avec des « sacs de mots » sans me poser le problème de leur sens. J’analyse juste les fréquences d’association des mots pour déterminer un champ sémantique.

    Pour ce qui est du mail associé au domaine, c’est un choix dicté par la toute petite infrastructure matérielle mise en place (les outils sont gourmand en ressources machine). Mais si les outils marchent (d’un point de vue commercial j’entends) la plateforme serveur évoluera en puissance et je modifierais les contraintes liées au Pack Gratuit 😉

  • Philippe de Graveson dit:

    Évidemment dès que l’on regarde la vidéo on clique rapidement sur pause pour vérifier son score et hop 48,9 pour moi

  • Sylvain dit:

    Salut,

    Un outil qui semble prometteur et surtout novateur !
    Comme Philippe au dessus j’ai testé directement l’engin, et contrairement à lui, j’ai reçu le bonnet d’âne avec un médiocre 8 🙂
    Du coup je me demande, est ce adapté en e-commerce ? Car notre positionnement sur la requête auditée (5) dément notre vilaine note (que je ne vais pas montrer à mes parents pour le moment !)

  • antoine sacco dit:

    Excellent comme outil! C’est pourtant balo de ne pas pouvoir tester: je n’ai pas de NDD associé à mon mail…

  • BlogMestre dit:

    @Sylvain: Les outils mesurent la pertinence mais le positionnement dépend également d’autres facteurs (popularité, autorité …). Mais 8 est effectivement un score très faible. Si ce n’est pas indiscret, peut-tu m’envoyer l’url et la requête (par le formulaire de contact visiblis) car l’outil rencontre peut être un problème pour « parser » ta page ?

  • Sylvain dit:

    Message rapide pour dire que j’ai échangé par mail avec Blogmestre et qu’il a répondu (et corrigé) très rapidement mon problème.
    Merci à lui 😉

  • Midori dit:

    Bonjour,

    Cet outil est vraiment intéressant et je crois que je vais visionner ce podcast quelques fois pour apprendre à bien m’en servir.
    Il ne me reste plus qu’à vous souhaiter de bénéficier prochainement d’une meilleure connexion, car vous devez parfois bien galérer, non?

    Amicalement,

    Midori