Magazine High tech

Faut-il adopter les mauvaises pratiques pour réussir son référencement naturel ?

Publié le 14 janvier 2013 par Nicolas Dugnas @NicolasDugnas

Rentrons dans le vif du sujet. Les mauvaises pratiques SEO, appelées « black hat », sont encore trop utilisées. Pourtant Google ne cesse de nous envoyer des signaux : « oubliez les mauvaises pratiques et faites du naturel ! ». Le but de cet article est de vous indiquer le comportement à adopter et de justifier son intérêt. Dans les débuts du référencement, lorsque le web n’avait pas le même enjeu commercial qu’aujourd’hui, il était plutôt aisé d’obtenir un bon positionnement. La concurrence n’était pas si forte et l’optimisation nécessitait moins de temps : des échanges de liens entre sites et des inscriptions dans des annuaires suffisaient. L’obtention de liens de sites externes, dit « back links », est l’un des critères historique de Google, qui vaut plus que jamais aujourd’hui. La différence est que l’approche à maintenant totalement changée. L’échange de liens n’est plus une simple transaction par E-mail, c’est un vrai partenariat entre sites.

Le combat de Google

Le référencement devient plus difficile ce qui motive les partisans des mauvaises pratiques. Mais ce choix est très dangereux car Google à toujours recherché à combattre les malins qui pensent détourner leurs règles. Cependant cette tâche est compliquée car les mauvaises pratiques évoluent rapidement. Et le système se complexifie par lui-même car si les liens font l’objet de mauvaises pratiques c’est bien parce que Google leur donne de l’importance. Alors pour faire respecter ses règles le moteur de recherche à décidé de passer à la vitesse supérieure surtout depuis 1 an et la mise en place d’un nouveau système de référencement.

Google Panda : le chérif rentre en ville

Surtout aux alentours de 2010, Google faisait l’objet de nombreuses critiques sur la qualité de ses résultats. Le moteur s’est vu apparaitre de nouveaux sites : les comparateurs, les agrégateurs (regroupement d’informations de différentes sources sur un même site), les affiliations (propositions de bons de réductions) et les annuaires. Le problème c’est que ces sites ont développé des mauvaises pratiques et sont devenus moins pertinent pour les internautes. Les annuaires ne remplissaient plus leur rôle, les bons de réductions étaient douteux… Dans le même temps, des sites complètement « illégaux » s’exposaient : les fermes de contenus (sites qui détectent les points d’intérêts des internautes pour leur proposer des articles dans le but de générer des revenus publicitaires), les fermes de liens (plusieurs sites construits dans le but de se faire des liens entre eux, souvent sans réel valeur ajoutée pour l’internaute), et des sites voleurs de contenus.

Google à alors lancé début 2011 une mise à jour de son système, appelé Panda, lui permettant de sanctionner ces sites. Ils ont aussi joué sur l’effet communautaire en proposant aux internautes de les dénoncer. En France le phénomène à été observé juste avant la semaine du 15 août 2011. Je travaillais à ce moment aux Etats-Unis sur la gestion d’un site e-commerce, ce qui m’a permis de comparer son impact. Cette mise à jour à bien marqué un virage dans la politique de Google et de nombreux sites se sont vus sanctionnés.

Google Pinguin : le renforcement des sanctions

Google à continué d’améliorer son système et sorti un filtre, appelé Google Pinguin, permettant de cibler d’avantage les hors la loi. Cette fois les sites de communiqués de presse étaient en ligne de mire car jugés pas assez naturel pour Google. Plus globalement il a pour but de pénaliser les mauvaises stratégies d’obtention de liens externes. Une mise à jour importante de ce filtre est attendue dans les mois qui viennent.

Que recherche Google ?

Beaucoup de référenceurs se posent la question. La réponse est pourtant simple : la qualité et le naturel. J’ai une autre explication sur la philosophie du moteur de recherche, qui m’a paru évidente lorsque je vivais aux États-Unis. Google respecte le principe de démocratie et donne la même chance à tous de réussir sur le web. Ajoutez à cela que les américains ont une véritable culture de la « recherche d’informations ». Certain contesterons que Google cherche à imposer finalement que sa suprématie. Mais regardez-y de plus près :

Google est un distributeur

Pour expliquer le référencement on utilise souvent comme exemple la grande distribution. L’objectif est le même : proposer les meilleurs produits.

Google = Qualité

Dans la même logique, le but du moteur de recherche est de proposer des résultats pertinents à ses utilisateurs. Il devient donc normal de vouloir supprimer les sites qui ne satisfont pas.

Google est en faveur d’une concurrence équilibrée

Les sites avec d’importants moyens ont plus de chance de réussir car ils ont une productivité plus élevée. C’est encore plus marquant avec le référencement payant qui demande de définir un budget. Cependant Google dans sa logique de démocratie ne veut pas créer de déséquilibre. Pour y arriver, il favorise les entreprises et les commerces locaux présent sur internet. Il se base sur les données de localisation de l’internaute, ou même de sa recherche, lorsqu’elle inclut le nom d’un lieu.


Retour à La Une de Logo Paperblog

A propos de l’auteur


Nicolas Dugnas 176 partages Voir son profil
Voir son blog