TRIBUNE 
PAR ARNAUD BRIN
Les pratiques de référencement abusif sont-elles devenues incontournables ?
La récente sanction infligée à BMW.de par Google pose la question des techniques de "spamdexing". Sont-elles indispensables à la création du trafic nécessaire pour garantir la performance des sites Internet ?  (21/02/2006)
 
Consultant e-marketing de SQLI Agency - Groupe SQLI
 
   Le site
SQLI

La fausse promesse d'engagement de résultats en matière de positionnement amène depuis longue date certains professionnels du référencement à mettre en œuvre des pratiques aux limites du cadre autorisé. Avant de lancer une campagne de référencement naturel, c'est la question de la stratégie de création de trafic au sens large qui doit être posée à la fois en termes de performance et de durabilité.

Au-delà des facteurs exogènes que nous évoquerons plus bas, les techniciens du référencement ont en général recours au spamdexing pour deux raisons liées au site lui-même (les facteurs endogènes) : une architecture technique "contre nature" pour un robot d'indexation, et un contenu insuffisamment pertinent et/ou peu actualisé.

En matière d'architecture technique, prenons le cas réel d'un site dont seule la page d'accueil était référencée du fait d'une syntaxe d'url inexploitable pour les robots d'indexation. Un simple "remappage" de l'url a ouvert l'accès à l'ensemble des contenus et décuplé le trafic en quelques semaines. Certes, il s'agit là d'un cas d'école, mais ce type de frein intrinsèquement lié aux choix techniques n'est pas rare.

 
"Dans les faits, bien peu de sites sont techniquement optimisés pour le référencement"
 

Dans les faits, bien peu de sites sont techniquement optimisés pour le référencement. Des observations montrent à contenu identique un volume de trafic au moins 30 à 40% supérieur pour un site qui intègre les bonnes pratiques en matière de référencement, par opposition au même site qui ne les intègre pas.

Et les techniques ne sont pas secrètes ! Adopter une approche de "référencement durable", c'est mettre en œuvre des pratiques analogues à celles des experts en accessibilité : plus un site respecte les recommandations d'accessibilité, mieux il sera noté par les robots d'indexation.

Et tout le monde sait qu'un site accessible respecte les standards du Web et s'inscrit donc dans une démarche qualité, avec tous les bénéfices que cela recouvre dans la durée, et pas seulement en matière de référencement.

La question posée par les contenus est celle de la pertinence et de la fréquence de publication. Sur ce plan, les vérités éditoriales ne se démodent pas : utiliser un langage clair, concis, et ne pas oublier pour être trouvé, d'utiliser le langage de vos visiteurs. La performance des blogs en matière de positionnement illustre sans ambiguïté l'importance de la fréquence de publication. Aurait-on envie de lire un périodique dont les contenus ne se renouvellent pas ?

 
"Plus le réseau est dense et facile à créer, plus la notoriété de la marque est forte, plus l'accès aux premières places sera facile"
 

Avant d'engager une démarche de référencement, la qualité des contenus et l'architecture technique (au sens large : choix technologique, CMS, code HTML) permettent d'estimer la capacité de génération de trafic endogène d'un site internet. Le second pan est sa capacité exogène qui peut être soit "naturelle", soit "provoquée".

Naturelle dans le sens où le sujet traité ou la marque sur laquelle s'appuie le site lui offre une garantie de notoriété : ici c'est le réseau que va créer le site avec son environnement Web et offline qui fait la différence.

Plus ce réseau est dense et facile à créer, plus la notoriété de la marque est forte, plus l'accès aux premières places sur les requêtes stratégiques sera facile. C'est dans le cas inverse que le recours aux techniques "obscures" de référencement naturel devient tentant. Même si être en bonne place dans les moteurs de recherche est essentiel pour assurer le niveau de trafic nécessaire à la viabilité, il n'est pas unique: pensez buzz !

Etre présent, faire du bruit, faire relayer ce bruit (viralité) est essentiel pour ne pas être oublié. Offline, l'url associée aux sujets stratégiques du site doit être sur tous les supports de communication ; tout objet est potentiellement un support de communication.

 
"Les éditeurs de sites qui recourent au spamdexing doivent être prêts à se priver d'un trafic peut-être vital"
 

Sur le Web, les solutions de création de trafic "provoqué" sont nombreuses : jeu concours, e-mailing, partenariat, ou campagne publicitaire (bannière, affiliation, liens sponsorisés) permettent d'aller au contact de l'internaute.

La particularité de la capacité de génération de trafic exogène est d'être facilement mesurable (coût d'acquisition) ; c'est la connaissance et l'analyse de la performance des canaux vecteurs de trafic qui permettent, in fine, de définir les solutions à privilégier.

Dans cette galaxie de solutions, le spamdexing, bien que proscrit, n'est pas mort, et continuera vraisemblablement à exister tant que les moteurs de recherche n'activeront pas les solutions de détections de ces pratiques.

Il faudra alors que les éditeurs de sites qui y recourent soient prêts à se priver d'un trafic peut-être vital pour la rentabilité de leur site, mais peut être sera-t-il alors trop tard pour rebondir rapidement et efficacement, car les pratiques durables se construisent… dans la durée.


Arnaud Brin
 
 

Accueil | Haut de page

 

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Toutes nos newsletters