Dans notre série d’interviews de spécialistes en eMarketing, nous avons le plaisir d’accueillir une nouvelle fois Ludovic Barthelemy.
Dans cette interview, Ludovic nous parle de deux outils qu’il utilise pour accélérer le référencement de ses sites.
En effet, utiliser des outils permet de gagner du temps et d’automatiser afin de pas devoir tout refaire à la main…
Par exemple de manière traditionnelle, pour se faire connaître dans un secteur d’activité on commence par identifier les blogs influents via le Top Blog eBuzzing, via Google en tapant “mot clé” + blog… puis à laisser tous les jours des commentaires sur une sélection de blogs 1 par 1 (en vérifiant auparavant qu’ils sont bien en dofollow).
C’est long, et cela apporte peu de valeur ajoutée car il faut vérifier à chaque fois si le blog est en do follow, qu’il est bien dans la thématique…
Il est pertinent d’automatiser une partie de ce travail pour se concentrer sur la stratégie de référencement et la création du contenu (articles, commentaires…).
Voici donc les outils qu’il est possible d’utiliser dans une stratégie de référencement.
Attention néanmoins : l’utilisation de ce genre de logiciels réclame une bonne maîtrise…
En les utilisant n’importe comment (ex : en spammant des dizaines de blogs via des commentaires automatiques, en envoyant des messages en masse sur des forums…) on fait plus de mal que de bien, et on peut détruire soit même son référencement.
Donc ces outils sont donc à utiliser avec précautions, ils sont à réserver à des utilisateurs avertis !
1 – Scrapbox
Scrapbox permet d’automatiser la recherche de sites pour intervenir et envoyer des messages liés à sa thématique (blogs, forums, questions de réponses…).
Le but est d’identifier avec scrapbox les meilleurs sites pour obtenir des clients, c’est à dire ceux avec un PageRank élevé, ceux qui font du dofollow…
Par exemple on peut faire une sélection de footprints dans scrapbox sur des mots clés comme « Powered by wordpress », avec les mots clés « tourisme, croisières… », avec “Keyword Luv” puis choisir google.fr…
Cela permettra chercher des blogs francophones, qui acceptent des commentaires via le plugin Keyword Luv …
Heureusement il existe des requêtes prêtes à l’emploi comme sur http://www.littlestar.fr/footrint-keywordluv-commentluv/
Ou comme ce document qui centralise quelques exemples de requêtes en anglais :
Scrapebox Footprints
Ainsi avec une requête ciblée (limitée 1000 résultats), vous pouvez repérer les sites les plus intéressants, et commencer à laisser un commentaire par Blog.
Néanmoins il reste un vrai travail de sélection… cela ne sert à rien de commenter sans réfléchir sur des dizaines de sites !
Il faut analyser les sites qui valent la peine de passer du temps à laisser des commentaires.
Par exemple un “bon” site cible sera un site qui a beaucoup de liens sortant (et peu de commentaires)s, c’est un site qui produit du contenu de qualité…
Or c’est un vrai travail de minutie…
Parfois il faut plusieurs heures pour finaliser une sélection d’une cinquantaine de sites pertinents dans un domaine bien précis !
Il est essentiel de faire de la qualité, car cela ne servira à rien de spammer en laissant des dizaines de commentaires sur un blog du genre « bon article… ».
Il faut faire un vrai commentaire qui soit en rapport avec l’article, qui apporte un complément sur l’article…
En effet Akismet, les webmasters… savent distinguer les faux commentaires, et donc cela ne sert à rien de créer des commentaires qui seront modérés…
Voici ci dessous un tutorial en anglais qui explique comment fonctionne Scrapbox :
2 – Senuke
Senuke est un logiciel un peu plus technique, et moins utilisé en France.
Il va créer des URL sur des domaines en anglais, ce qui permet d’augmenter le PR, mais qui en revanche n’améliore pas ton ranking (le positionnement dans Google).
Pour que cela serve à quelque chose, il faut amener du « jus » (c’est à dire des liens) vers cette page.
Comme c’est un travail délicat et pas facile, Ludovic à fait développer ses propres outils en internes car il faut des liens depuis des sites français (or les outils de SEO US n’exploitent que des sites anglais).
De même il faut un peu de finesse, et pas spammer les blogs, les forums, Viadeo, Twitter…
Il faut vraiment faire du travail manuel car le référencement doit être fait intelligemment.
A la rigueur, une partie du rédactionnel peut être dans certains cas être automatisé (avec des outils de spinning pour “ré-écrire” automatiquement 90% d’un texte afin qu’il semble unique aux yeux de Google) ou sous traité, par exemple lorsqu’il s’agit de créer des pages de “contenu”.
Mais généralement le contenu automatisé ou sous traité est vraiment de qualité “plus que moyenne”, et donc cela ne peut servir que d’un appoint dans une stratégie SEO.
En Conclusion
Le plus difficile dans le SEO, c’est de savoir mesurer ses actions et « jouer le jeu de Google ».
Mais quand on a une pénalité de Google, c’est qu’il y a une raison… et qu’à un moment donné on a flirté avec la limite.
Donc à jouer avec ce genre d’outils, il faut vraiment prendre conscience que vous ne construisez pas un site avec des bases durables, mais avec des fondements qui sont “douteux”.
C’est pourquoi pour éviter de voir tomber son site comme un château de cartes, il vaut mieux éviter de dépasser la limite.
Par exemple pour mes clients il y a des actions que je refuse de faire, car même si je sais que cela peut à court terme booster leur positionnement, à long terme en revanche ils sont quasi certain d’être pénalisés.
Donc je le répète encore, les outils de SEO doivent vraiment être manipulés avec précautions et agilité.
Et si jamais la pénalité arrive, il ne faut pas essayer de réagir tout de suite.
Par exemple une erreur courant de débutants en SEO c’est de créer des milliers de liens le jour au lendemain… ce qui bien entendu sera totalement “louche” aux yeux de Google !
Il vaut mieux attendre deux ou trois semaines avant de mettre en place une stratégie pour reconquérir un positionnement…