Spamdexing

Besoin de techniques SEO avancées ?
Consultez un expert du blackhat SEO :

Certaines actions propres au référencement visent à fausser les algorithmes des moteurs de recherche et ainsi à gagner des places dans les pages de résultats : le spamdexing, contraction des mots spam et indexation, regroupe diverses techniques, souvent qualifiées de « techniques de triche », censées tromper les moteurs de recherche et assurer un meilleur classement du site dans les pages de recherche.

User du spamdexing pour sa stratégie de netlinking ?

Définition express

Combinaison des termes spam et index faisant référence aux pratique de suroptimisations visant à modifier les classements de résultats de recherche, derrière le mot-valisme spamdexing se cache de nombreuses pratiques de référencement, prohibées par les moteurs :

  • Meta tag stuffing : bourrage de mots clefs dans les balises Meta
  • Keyword stuffing & Hidden keywords : bourrage de mots clefs et dissimulation de textes
  • Link spamming & Hidden links : backlinks artificiels et liens dissimulés
  • Cloaking : camouflage de pages pièges à robots

Pourquoi le spamdexing est devenu une technique désavouée ?

Aux origines du spamdexing, des techniques, trucs et astuces SEO peu reluisants pour obtenir coûte que coûte un positionnement favorable sur Google... Saupoudrez le tout de la magie qui entoure les référenceurs dits blackhat SEO ; des individus à moitié growthhacker, à moitié pirate informatique... Vous obtiendrez la recette du désaveu du spamdexing.

Le spamdexing fait peur de nos jours car sa pratique même est sévèrement punie par les moteurs de recherche, Google en tête. Mais la frontière est parfois floue entre ce qui est autorisé, ce qui ne l’est pas pas et ce qui se trouve entre les deux.

Les trois castes de référenceurs
Référenceurs Techniques employées
White Hat Respecte les règles des moteurs de recherche.
Black Hat Ne respecte pas les règles des moteurs, exploite des failles techniques comme les cloacking, assimilé à l’automatisation et parfois à une pratique non éthique.
Grey Hat Entre deux eaux, il allie le meilleur des deux mondes et si globalement il suit les consignes des moteurs, il apprécie le hors-piste.

On parle encore de trois pratiques ou styles de référencement, mais dans les faits, 99% des référenceurs ont la même pratique du référencement. Nous ne connaissons aucun référenceur qui base toute sa stratégie sur la pratique du cloacking ou du spamdexing, tout comme nous ne connaissons aucun référenceur qui n’aurait jamais acheté/loué/échangé/soudoyé un lien conformément à ce que Google demande.

Dans les années 2000, cacher des mots clefs dans ses pages internet étaient une pratique presque banale. En bas de nos sites, écrit en blanc sur fond blanc (invisibilité ON !), nous placions communément des listes de mots clefs populaires comme "Pamela Anderson" ou encore "Poker en ligne" sur des sites complètement hors-thématique afin de générer un surcroît de trafic !

Nos bas de page sont aujourd’hui devenus ennuyeux au possible, mais même s’il n’y a pas de code de conduite précis pour les référenceurs, il est parfois difficile de distinguer ce qui relève du référencement abusif ou de « l’optimisation honnête ».

Les techniques habituelles de référencement abusif consistent par exemple à truffer une page satellite de listes de mots-clés (pour attirer les utilisateurs de moteurs qui font une recherche sur ces mots), ou à créer des dizaines de sites qui pointent les uns vers les autres (link farms ou pépinières de liens) pour améliorer leur classement dans les moteurs qui jugent la qualité d’une page en fonction du nombre de liens pointant vers elle.

Google et la chasse aux liens non-naturels

Google est particulièrement vigilant quant à la pratique du spamdexing sur les sites qu’il indexe. Afin de conserver son audience et les revenus publicitaires qui en découlent, il se doit d’assurer un service de qualité maximale aux internautes en leur fournissant les résultats les plus pertinents possibles, et non une page uniquement optimisée pour les robots de recherche mais peu attrayante pour un humain qui se tournerait alors vers un autre moteur de recherche.

Le Trustrank, parade aux liens automatisés ?

Plusieurs outils ont été mis au point par Google afin de limiter le positionnement des sites pratiquant le spamdexing sur son moteur : le trustrank est un indice de confiance qui varie au cours du temps et qui est attribué à un site. Son calcul repose sur de nombreux critères tels que l’ancienneté du site et la qualité de ses liens entrants, comme la prise en compte des backlinks (sites académiques, grands médias…). Ces données, auxquelles Google accorde au fil des ans de plus en plus d’importance, permettent de limiter l’influence des techniques du spamdexing sans toutefois pouvoir stopper le phénomène.

Si l’âge d’or des techniques dites de Black Hat SEO est aujourd’hui bien derrière nous, certaines pratiques prohibées par Google demeurent viables dans certains contextes où lorsqu’il s’agit de secteurs d’activités particuliers.

Dans quels cas les liens non-naturels trouvent-ils leur utilité ?

La génération de liens plus ou moins automatisée est souvent synonyme de piètre qualité. Néanmoins, lorsque la compétition sur un secteur est faible, ou que les concurrents ne font pas mieux, le peu de puissance SEO transmis par ce type de lien pourra dans certains cas s’avérer suffisante pour ranker ou améliorer son positionnement.

S’appuyer uniquement sur ce type de stratégie parait aujourd’hui dangereux dès lors qu’il s’agit de bâtir une stratégie de visibilité pérenne dans le temps.

À contrario, bâtir une stratégie SEO solide et qualitative adossée à des d’actions ponctuels d’acquisition de liens de faibles qualités (réalisés à la main ou automatisés), peut largement accompagner, favoriser et même légitimer la feuille de route SEO dans sa globalité.

Au final, la compréhension de l’algorithme de Google en matière d’obtention de lien relève du bon sens, qui devra guider les choix de l’éditeur et du référenceur :

  • Est-il normal d’obtenir de nombreux liens pour un site fraîchement lancé ?
  • Est-il normal d’obtenir des liens depuis des sites médias de grande qualité pour un artisan local ?
  • Est-il normal d’obtenir des liens exclusivement depuis des annuaires ?
  • Est-il normal d’obtenir des liens exclusivement depuis des forums ?
  • ...

Non, pas vraiment. Le bon sens devrait vous apporter une ligne de conduite relativement simple et tout à fait naturelle :

  • Une entreprise locale devrait obtenir des liens depuis d’autres sites locaux dont la zone de couverture est proche de celle du site à référencer
  • Un site devrait obtenir des liens depuis d’autres sites de partenaires ou de confrères, mais aussi depuis des annuaires et éventuellement des commentaires de blogs ou des forums
  • Un site devrait obtenir peu de lien à son lancement, puis de plus en plus régulièrement
  • Un site devrait recevoir des liens qui transfèrent du jus seo mais aussi des liens sans valeur seo (liens no-follow par exemple)
  • Un site devrait obtenir des liens sous forme de texte mais aussi sous forme d’images (logo cliquable par exemple)

Pour résumer, c’est la diversité des moyens de communiquer à notre disposition, qui devrait être employée afin de reproduire une popularité et une visibilité grandissante et naturelle.

Les outils phare pour le Spamdexing

Scrapebox : boîte à outils

Zennoposter

Alternative plus lègère à Zennoposter, l’extension de naviguateur IMacros permet d’automatiser de nombreuses actions au sein du browser internet (Firefox, Chrome...) :

GHS Tools (plateforme SAAS)

Soumissions aux annuaires, poster un commentaire sur un blog Wordpress, création de profils sur les forums, signature automatisée de pétitions SPIP, validations automatiques des liens de confirmations email, soumissions liens sur les sites de comparaison de WHOIS... Saupoudrez le tout avec un gestionnaire d’identité utilisateurs et d’automatisation pour les réseaux sociaux (Facebook en tête) : GHS Tools est une vaste boîte à outils fournissant d’innombrables services dédiés à l’automatisation de micro-tâches en netlinking.

Oscaar

http://www.deliciouscadaver.com/oscaar-outil-de-spin-des-champs-dannuaire-et-des-autres-ressources

Les outils déchus

Passée l’heure de gloire du spamdexing des années 2000, de nombreux logiciels SEO dédiés à la pratique du spamdexing ont eux aussi disparus où sont devenus inutiles : SickSubmiter, LinkFarmEvolution (LFE),

Les outils complémentaires au Spamdexing

Outils de spinning content, VPN et gestionnaires de proxies...

Par Pierre-Jean Colliot. Version originale issue de l'ouvrage Référencement et visibilité Web : de la stratégie à l'efficacité (ISBN : 978-2-311-00770-1) aux éditions Vuibert, mis-à-jour le 2023-10-16 16:27:33.

Devenez visible sur Google,
captez une nouvelle audience,
dopez votre business de manière pérenne