Le rôle des backlinks pour le SEO
Piliers du référencement naturel et plus largement des algorithmes d’exploration du web, les backlinks sont l’un des principaux facteurs de classement des sites dans les moteurs de recherche, si ce n’est le plus important aux côté des contenus.
Dans cet article nous définirons pour les néophytes ce qu’est un backlink, puis nous explorerons dans le cadre d’une stratégie de netlinking quels méthodes permettent d’obtenir des backlinks, quelles formes ils peuvent prendre, sur quels supports ils peuvent être diffusés.
Nous étudierons aussi quelques notions clefs fondamentales à toute stratégie de linkbuilding (construction/acquisition de liens) d’un point de vue algorithmique : profil de liens, attribut rel, emplacement des liens, transfert de jus SEO par les backlinks, redirection de liens et de noms de domaines...
Comprendre l’enjeux autour des backlinks en 2" chrono
Un backlink est un terme générique qui traduit littéralement en français désigne un lien (link) de retour (back) réalisé depuis un site A vers un site B. Le jargon SEO admet aussi de nombreuses variantes du terme : inlink, lien entrant, inbound link...
Histoire de liens : les backlinks au cœur de l’algorithme Google
Si les backlinks sont si importants en matière de SEO, c’est qu’ils sont avant tout des liens et que sans eux il n’y aurait pas de web. Un web sans lien imposerait de connaitre à l’avance l’URL exacte de chaque page d’un site que l’on souhaite consulter. Une ineptie... Le web est composé de centaines de milliards de liens permettant d’accéder à des ressources diverses (pages, images, documents...).
Afin de trouver la bonne ressource correspondant à une recherche d’un internaute, Google a été le premier moteur a proposer une approche algorithmique au problème en se calquant sur les systèmes de classements en place au milieu des années 1990 dans les bases de données scientifiques.
Dès 1996, Sergey Brin et Larry Pages, tous deux co-fondateurs de Google appliquent la méthodologie du Science Citation Index (SCI) à leur moteur de recherche. Cet indice créé 30 ans plus tôt par le scientifique Eugene Garfield attribue une note de pertinence aux publications scientifiques sur la base du nombre de citations dont une publication bénéficie vis à vis de l’ensemble des publications scientifiques publiées.
Cette méthode de classement est à l’époque disruptive puisque jusqu’à présent les publications scientifiques étaient plus ou moins bien classées selon la notoriété de leur auteur.
L’application de l’indice SCI aux classements des résultats de recherches effectuées sur Google se base alors sur les backlinks ou plus simplement sur les liens réalisées sur des pages web afin de déterminer la popularité d’une page particulière : pour une recherche donnée, c’est alors la page qui obtient le plus de liens entrants qui est déterminée comme étant la plus populaire, elle obtient alors le classement le plus haut au sein de la page de résultats de recherche (SERP).
Un lien permet avant tout de naviguer d’une page à l’autre sur le web, mais il est aussi un élément central de l’algorithme de classement de Google qui détermine la pertinence supposée d’une page web et donc son classement dans les résultats de recherche à travers le nombre de liens qu’elle obtient. Pourquoi ?
Tout simplement car depuis 1996 et la mise en place en 1998 de l’indice de popularité de Google appelé PageRank [1], les liens constituent un marqueur de popularité supposée : "j’aime un site, j’en parle, je le mentionne, je fais un lien vers ce site". Pour en savoir plus, dépliez l’encadré "Histoire de liens : les backlinks au cœur de l’algorithme Google" ci-dessus.
Un lien ça ressemble à quoi ?
Un lien c’est simplement une balise HTML « a » (qui veut dire anchor ou ancre en français) et qui est pourvue d’un attribut href (pour hypertexte référence) :
<a href="https://webvaloris.fr">cliquer ici</a>
Le texte placé entre le début et la fin de la balise « a » est appelé l’ancre ou ancre de lien. C’est sur ce texte que l’on clique pour accéder au contenu référencé par le lien. L’ancre du lien est un élément estimé par les référenceurs puisqu’elle peut permettre de transférer un sens sémantique complémentaire à la page visée par le lien.
L’ancre du lien n’est pas toujours un texte, il peut aussi s’agir d’un autre élément comme d’une image qui est donc cliquable.
L’attribut « rel » et la propriété « nofollow »
Les liens peuvent aussi être pourvus d’un attribut « rel » qui permet de définir la relation qu’il existe entre la page sur laquelle est placé le lien et la page liée. Différentes relations sont possible comme la relation « author » indiquant que l’auteur de la page en cours et aussi l’auteur de la page liée.
En matière de SEO et de backlinks, l’intérêt pour l’attribut rel se cristallise autour de la propriété nofollow qui historiquement indique que l’auteur de la page en cours ne cautionne pas le contenu de la page liée. Mais surtout, l’attribut nofollow placé sur le lien indique aux robots d’indexation (les crawlers) de ne pas suivre le lien. L’exploration du web par les moteurs de recherche s’arrête donc à la première page diffusant le lien. Par extension, Google a fait le choix de ne pas opérer de transfert de popularité (le fameux "jus SEO" ou PageRank) vers la page de destination de ce type de backlinks.
Et ça ressemble à quoi un lien qui ne transfère pas de jus SEO ? À un lien "normal" qui dispose en plus d’un attribut « nofollow » :
<a href="https://webvaloris.fr" rel="nofollow">cliquer ici</a>
Communément, un lien dofollow ne transfère aucune popularité et serait donc inutile à toute stratégie de référencement naturel. Cette logique est vraie, mais incomplète. Consultez dans la suite de cet article la partie consacrée au spamdexing qui pourra vous apporter un autre éclairage sur l’acquisition de liens nofollow et leur intérêt dans le cadre d’une campagne de netlinking qualitative et pérenne.
Combien de backlinks faut-il pour être bien positionné sur Google ?
Minute papillon ! Oui, il est effectivement nécessaire d’obtenir des liens entrants pour faire évoluer son positionnement sur Google, mais ce n’est tout bonnement plus pas si simple !
Obtenir des backlinks en masse
Il fut un temps, à l’heure de gloire du black hat SEO français autour de l’an 2010, où l’obtention de backlinks en masse était devenue une quasi-norme pour obtenir de bons classements sur Google. Cette époque, pas si lointaine, s’apparentait au Far-West du SEO : les référenceurs de France et de Navarre disposaieint dans leur arsenal de nombreux outils d’automatisation permettant de générer des backlinks en pagaille, par centaines, voire par millions (hello XRummer).
De manière non exhaustive, nous utilisions par exemple des outils comme Yooda Submit pour s’inscrire semi-automatiquement sur des dizaines ou des centaines d’annuaires avec des textes automatiquement variabilisés à base de spinning content.
Mais aussi des logiciels comme Sick Submitter permettant de générer des profils utilisateurs avec emails par centaines et de poster des liens par milliers sur des plateformes d’actualités (Pligg), des sites wiki, des forums ou des commentaires de blogs...
Encore, LFE (Link Farm Evolution) permettait de mettre en place des sites Wordpress mutualisés par centaines, de générer automatiquement leur contenu (de la bouillie textuelle) et de réaliser un maillage de liens vers ses money sites (sites d’importances). Le tout, 100% automatiquement.
Pour finir, des boîtes à outils très austères mais aujourd’hui encore très utiles à l’instar de Scrapebox, pouvaient par exemple permettre de générer des listes de sites et blogs sur lesquels il était possible de poser des backlinks grâce à des footprints : des empreintes permettant de déceler sur quels sites il est possible d’automatiser l’acquisition de liens.
Ces pratiques permettaient à l’époque d’obtenir d’excellents résultats de positionnement et cela très rapidement, entre deux Google Dance (période d’actualisation de la SERP) !
Si l’heure de gloire de l’obtention de backlinks en masse est bien révolue, bien que quelques irréductibles persistent avec succès (hello Black Hat Money & ZennoPoster), l’automatisation et les principes du black hat seo sont toujours parfaitement envisageables avec un savant dosage des paramètres permettant de s’affranchir des pénalités et filtres anti-spam de Google.
Mais dans la plupart des cas, l’obtention de backlinks en masse n’est plus une nécessité et représente même un risque. Plus que la quantité, des liens de qualité peuvent aujourd’hui permettre à un site de bien se positionner. Dans certains cas, une poignée de liens sera largement suffisante. Nous observons même encore des mots clés fortement concurrentiels pour lesquels des sites rankent en bonne position avec quelques dizaines de liens face à des concurrents disposant de centaines, voir dépassant le millier de liens sur leur page d’accueil.
Prenons en exemple dans le secteur de la défiscalisation et plus précisément de la thématique "loi Pinel", l’une des plus concurrentielles de France sur laquelle nous travaillons depuis de nombreuses années.
En 2021, le mot clef "simulation pinel" fait apparaître un résultat de recherche à la 9e place qui ne dispose "que" de 202 liens sur sa page d’accueil alors que ses concurrents cumulent en moyenne plusieurs milliers de liens entrants :
Nous remarquons aussi que le site qui ranke à la 4e place dispose de "seulement" 443 liens entrants alors que 4 places plus loin, le 8e résultat de recherche en dispose de 16.000 !
Vous l’aurez compris, la quantité ne fait pas tout et évidemment il n’est plus aujourd’hui question de réduire le référencement au seul travail d’acquisition de liens.
Sur quelles bases déterminer l’effort d’acquisition de liens à réaliser ?
Pour une analyse plus concrète de la concurrence en vigueur sur une SERP, nous analysons principalement les 3 indices off-site suivants qui portent non pas sur le nom de domaine, mais sur la page qui se positionne sur Google pour un mot clé donné :
- Nombre de domaines référents sur la page à positionner
- Trustflow (indice de confiance) de la page à positionner
- Topical TrustFlow (thématisations) de la page à positionner
À condition de disposer d’un site répondant favorablement aux deux autres piliers de l’optimisation SEO que sont la technique (un site fiable et rapide) et la sémantique (le contenu du site), l’effort SEO pourra la plupart du temps être déterminé par l’analyse des 3 critères listés précédemment pour une SERP donnée.
Autrement dit : si vous disposez d’un site techniquement à niveau de vos concurrents et d’un contenu lui aussi à la hauteur des autres productions éditoriales visibles sur la SERP, la politique qualitative et quantitative d’acquisition de backlinks pourra se calquer sur les efforts mis en place par la concurrence.
Nous parlons évidemment de politique quantitative ET qualitative, car tous les liens ne se valent pas.
Un lien de qualité, c’est quoi exactement ?
Pour simplifier la chose, sachez que chaque lien dispose d’un poids SEO particulier. Ce poids, appelée le jus SEO ou linkjuice renvoie à deux composantes : la popularité et la confiance de la page sur laquelle est placée le lien.
Historiquement Google traite ces deux notions sous la forme de deux indices distincts et les principaux outils d’analyse SEO exploitent leurs propres indices correspondant qui font aujourd’hui référence, pour y voir plus clair :
L’indice de popularité | L’indice de confiance | |
---|---|---|
Déterminé par le nombre de liens pointant vers une page | Déterminée par la qualité des liens pointant vers une page | |
Le PageRank (PR) | Le TrustRank (TR) | |
Majestic SEO | Le CitationFlow (CF) | Le TrustFlow (TF) |
Quels principaux critères prendre en compte avant de créer un backlink ?
Le choix des sites « sources » et de la page sur laquelle placer un lien vers votre site doit être guidé par les éléments suivants :
- similarité et/ou complémentarité des thématiques
- mise en place d’une page sur laquelle il y a peu de liens sortants (l’apport de popularité d’un lien diminue proportionnellement au nombre de liens placés sur la page « source »)
- élaboration d’une page riche en contenus qui utilise un champ lexical proche de celui de la page liée sur votre site
La structuration et la place du lien dans la page doivent tenir compte des éléments suivants :
- Éviter si possible de positionner son lien en bas de page (en footer) et à proximité d’autres liens externes : Google dévalue les liens dits non-naturels ; des liens peu mis en évidence ou relégués en bas de page en sont une indication, de même que les liens réciproques que se font deux sites (technique du donnant-donnant).
- Éviter aussi les pages type « partenaires » qui se contentent de recenser des liens vers d’autres sites. Ces pages, souvent à faible valeur ajoutée, sont mal positionnées par Google et le peu de pagerank dont elles disposent devra être réparti entre tous les sites présents, n’apportant alors que (très) peu de popularité à ces derniers.
- Un lien de qualité est donc idéalement placé sur un site de qualité, au milieu d’un texte abordant des sujets proches de celui de la page liée ; enfin, il ne s’agit pas d’un lien réciproque.
Sans sémantique, un lien n’est rien
Un lien de qualité dépendra avant tout de son contexte thématique et concurrentiel.
Pour un mot clef donné, les résultats de recherche disposent de liens entrants plus ou moins qualitatifs et plus ou moins bien thématisés par rapport à la requête visée.
Sur des SERP très concurrentielles, la guerre aux backlinks se joue le plus souvent sur des backlinks parfaitement thématisés et disposant d’un indice de confiance élevé : le thème de la page sur laquelle est placé le lien sera alors très proche de celui de page de destination du lien. Et de surcroît la page supportant le backlink disposera d’un indice de confiance (TrustRank/TrustFlow) élevé.
La thématisation d’un backlink avec le Topical TrustFlow
Un portail immobilier réalisant une campagne de backlinks se tournera plus facillement vers des pages thématisés "Business", "Real Estate", "Homeowners", "Investing"... Cette thématisation qui fait aujourd’hui référence est celle de la société Majestic (éditeur de logiciels SEO) : le Topical TrustFlow (TTF pour les intimes) s’apparente à un flux de confiance thématique permettant de catégoriser les sites et les pages les plus influents dans un domaine particulier.
Il parait évidemment naturel d’obtenir des liens entrants depuis des pages traitants de la même thématique ou de thématiques proches. Cette proximité sémantique est bien sur perçue positivement par Google. Au contraire un site spécialisé dans la défiscalisation immobilière et qui recevrait des liens depuis des sites traitants de mécanique automobile ou encore de cannes à pêche enverrait un signal très ambigüe à Google qui pourrait y déceler une tentative de manipulation des résultats de recherche à travers une stratégie d’acquisition de backlinks qui serait non-naturelle.
Mais tout est une question de proportion, car les relations qui peuvent exister entre diverses entités dans la vie réelle ou sur le web sont souvent complexes et très diversifiées : une agence immobilière locale pourrait très légitimement obtenir un backlink depuis le site d’une association qu’elle parraine, ou bien depuis celui d’un artisan local qui satisfait des services de l’agence en parlerait sur son blog...
Obtenez des backlinks thématiques de qualité !
La fin des backlinks de mauvaise qualité avec Google Pingouin ?
Depuis le lancement de sa première version en date du 24 avril 2012, le filtre algorithmique Google Pingouin s’affaire à repérer et traiter les sites ne respectant pas les consignes de qualité du moteur de recherche.
Dans la ligne de mire de Pingouin,les backlinks artificiels qui pullulent alors sur le web. Le filtre de Google qui travaille en temps réel est particulièrement étudié pour repérer les stratégies de netlinking non naturelles :
- Des ancres de liens (sur)optimisées en quantité
- Des backlinks en quantité en provenance de commentaires de blogs, signatures de pétitions, forums...
- Des backlinks provenant essentiellement de sites ou pages hors-thématique
- Des backlinks provenant essentiellement de pages dans une autre langue
- ...
Pingouin a été un franc-succès pour Google, et pour cause, la SEOsphère a très largement abandonné les techniques d’automatisations type blackhat.
Obtenir des backlinks : les stratégies de netlinking
Pilier de la pratique du SEO-offsite, le netlinking ou linkbuilding vise l’amélioration des positions et donc de la visibilité d’un site à travers la mise en place d’une stratégie d’acquisition de backlinks.
Comme pour toute stratégie, le netlinking c’est avant tout l’élaboration d’un plan d’action coordonné dans un temps imparti visant l’amélioration du positionnement du site à travers l’acquisition de liens.
Critère | Préconisation |
---|---|
Temps | Étalement "naturel" des liens dans le temps |
Répartition | Des ancres variées , des liens variées (texte, image...) |
Qualité | Des liens depuis des sites de qualité (indice de confiance) |
Sémantique | Une bonne thématisation des ancres et de leur contexte (contenu à proximité du lien) |
Quels sont les moyens à la disposition des référenceurs pour créer des backlinks ?
L’échange de liens
Stratégie historique de netlinking, et qui perdure, l’échange de liens entre éditeurs/webmasters est monnaie courante. Simple de mise en place et gratuite, la pratique est néanmoins chronophage : trouver un site dans sa niche disposant de métriques intéressantes, contacter son éditeur, lui expliquer la démarche ("placez un lien vers mon site, et je ferai la même chose en retour"), aboutir et vérifier régulièrement que le backlink reste en place...
Avec pour question de fond : combien d’éditeurs contacter pour obtenir un échange ? Votre temps est-il rentable avec 15 sites trouvés, 15 mails envoyés, 10 retours dont 1 positif aboutissant à un échange de lien ?
D’autant plus lorsque Google veille au grain... Car oui, l’échange de liens n’est pas une pratique rentrant dans les Guidelines Google adressées aux webmasters...
Le deal est simple : un lien réciproque, autrement dit de complaisance, n’a rien de naturel. En soit, il caractérise une volonté mutuelle de deux éditeurs de faire progresser leur positionnement dans les SERP. L’échange de lien représente alors une tentative de manipulation de l’algorithme de Google. Alors, le jeux en vaut-il la chandelle si un risque de pénalité doit en plus pointer le bout de son nez ?
Avec l’expérience, de nombreux éditeurs ou référenceurs tentent de se prémunir du risque de pénalité lié à l’échange de lien en pratiquant l’échange triangulaire : cette stratégie consiste à faire sauter la réciprocité de l’échange à l’aide d’un troisième site internet pour ne pas rendre cette échafaudage repérable.
L’échange triangulaire simplement : un éditeur crée un lien depuis un site A vers un site B ne lui appartenant pas. Le site B fait en retour un lien vers un site C appartenant au premier éditeur.
L’échange de lien nécessite une certaine expertise pour véritablement être profitable :
- savoir reconnaitre les sites susceptibles de répondre favorablement à une demande d’échange
- savoir comment retrouver l’éditeur et le contacter (lecture des Whois, recherche de footprints, utilisation de SimilarWeb...)
- savoir reconnaitre les sites de qualité (RD, Trustflow, nombre de liens sortants, métriques offsite...)
- proposer un échange discret et "naturel" (liens triangulaires)
- suivre ces échanges (Backlink Checker)
L’achat de liens
Stratégie redoutable lorsqu’elle est couplée à un contenu de qualité, l’acquisition de liens joue le rôle de locomotive pour pousser des pages qualitatives en leur fournissant une surcouche de popularité ou de confiance qui manque à l’équation.
Sur des requêtes faiblement concurrentielles, un contenu de qualité peut encore aujourd’hui espérer se positionner dans les SERP, sans ou avec peu de liens entrants.
La location de liens
Similaire à l’achat de liens, la location de liens payants relève pourtant d’une pratique bien différenciée qui vise des objectifs de référencement distincts, notamment dans leurs temporalités.
Le spam, spamco, spamdexing
Automatiseriez votre acquisition de backlinks
Certaines actions propres au référencement visent à fausser les algorithmes des moteurs de recherche et ainsi à gagner des places dans les pages de résultats : le spamdexing, contraction des mots spam et indexation, regroupe diverses techniques, souvent qualifiées de « techniques de triche », censées tromper les moteurs de recherche et assurer un meilleur classement du site dans les pages de recherche.
Tout savoir sur le spamdexingLe linkbaiting
Convertissez votre site en un aimant à liens
Le référenceur du site ne crée pas de liens lui-même, il attend que les internautes ou les webmasters le fassent à sa place en suscitant leur intérêt et en les poussant à parler de leur site sur leurs blogs, les forums et les divers espaces auxquels ils participent.
Il s’agit d’une technique approuvée par Google qui place le contenu au centre de la stratégie de netlinking. On présume qu’un contenu de qualité que l’on ne retrouve pas sur d’autres sites et qui apporte une forte valeur ajoutée à l’internaute
Les Linkwheel
Préserver son Money Site avec une linkwheel
Voici encore l’unes de ces techniques de netlinking non avouables mais qui doivent être dévoilées...
La Linkwheel est un schéma de netlinking optimisé servant à rediriger le jus SEO d’une campagne de backlinks vers un site principal (appelé Money Site), en utilisant des sites fusibles servant à protéger le site principal d’une éventuelle sanction pour génération de liens non-naturels.
Mise en place et intérêt des roues de liensLes redirections et l’achat de noms de domaine expirés
Sur quels supports poser ses backlinks ?
Sur les annuaires de référencement
Des backlinks nombreux et peu onéreux avec les annuaires de référencement
Les annuaires sont des dinosaures du web. Si dans les années 2000 ils étaient le pilier central de nombreuses stratégies SEO, en 2020 ils sont décriés, relégués aux rangs de l’amateurisme et (trop) souvent oubliés lorsqu’il s’agit de mettre en oeuvre une campagne de référencement naturel.
Pourtant, même en 2021, les annuaires de référencement peuvent être un atout et parfois important dans de nombreuses opérations SEO.
Mais alors comment exploiter les annuaires SEO ? Combien en faut-il ? Ne risquent-ils pas de nuire à mes liens plus qualitatifs ?
Apprenez dès aujourd’hui à tirer le meilleur partie des annuaires, qu’ils soient locaux, généralistes ou thématisés, et dynamisez votre SEO à moindre coût.
Domptez les annuaires SEO !Sur wikipedia et les wikilike
Obtenir des backlinks depuis wiki... possible, mais pas si facile !
Quelles que soient les grandes entreprises, de Renault aux sociétés du CAC 40 en passant par Microsoft, elles partagent un lieu commun : Wikipedia. Toute grande entreprise qui se respecte possède sa propre page sur l’encyclopédie basée sur le système de gestion de contenus collaboratif wiki.
Mais comment apparaître sur Wikipedia et y obtenir un lien lorsque l’on est une PME, une TPE ou un modeste acteur du web ? Découvrez 4 solutions pratiques pour bénéficier de la puissance de feu de Wikipedia.
En savoir +