Le netlinking, link building, ou tissage de liens est l'augmentation du nombre de liens hypertextes menant vers un site web, à partir de sites dont le public correspond à celui visé. Il peut se faire par échange ou achat de liens. L'objectif est d'améliorer le référencement dans les moteurs de recherche.

Principe

Au fil du temps, les référenceurs ont développé un arsenal important pour créer des liens vers leurs sites afin d'améliorer leur notoriété aux yeux des moteurs de recherche. La création de sites ou de blogs connexes, l'utilisation des sites de publication d'articles, le blogage d'invité et les annuaires sont autant de techniques de netlinking.

Google reconnait dans ses directives l'utilité des liens dans une stratégie de référencement naturel. Les liens étant produits « naturellement » par les internautes, si le contenu du site leur semble pertinent et original.

referencement - search engine optimisation - linkbuilding - consultant seo - seo experts - referencer

Parmi les critères majeurs que distingue Google dans son célèbre et secret algorithme de référencement, les liens envoient un signal significatif à Google quant à la qualité d'un site. Les autres critères que sont le contenu du site et son architecture technique (optimisation on-page / URL) restant des fondamentaux.

Voici un extrait des recommandations de Google sur les systèmes de liens : « Le classement de votre site dans les résultats de recherche Google est en partie basé sur l'analyse des sites qui comportent des liens vers vos pages. La quantité, la qualité et la pertinence des liens influencent votre classement. Les sites proposant des liens vers vos pages peuvent fournir des informations sur l'objet de votre site, et peuvent indiquer sa qualité et sa popularité[1]. »

seo manager - seo plugin wordpress - freelance seo - seo optimisation - seo plugin

Google, lors de sa mise à jour d'algorithme d'avril 2012 baptisée Google Pengouin, a sanctionné les pages des sites web ayant abusé de techniques de référencement abusif. La mise à jour Google Pengouin n'a pas signifié la fin de l’intérêt de référencement naturel, mais la fin des techniques de référencement abusif (Black hat) générant massivement et automatiquement des liens de faible qualité vers une page web. L'algorithme Google a été mis à jour le 22 mai 2013. Penguin 4 pénalise encore plus fortement le netlinking. Celui-ci doit être de plus en plus naturel. Comme toujours, la sur-optimisation est pénalisée par Google. Avec Penguin 4, 2,3 % des requêtes seront affectées, d'après Google.

seo wordpress plugin - expert seo - plugin seo wordpress - référencement gratuit - référencement web

Google filtrant les liens qu'il considère comme abusif, les pratiques de tissage de liens évoluent vers des solutions plus qualitatives en termes de contenu et de liens produits. Les pratiques historiques comme l'inscription dans les annuaires font partie des systèmes basiques, mais ils ne concourent que peu au bon référencement d'un site.

À l'inverse, les liens issus de blogs thématiques ou les liens spontanés issus de sites de presse ou de sites fortement appréciés par Google sont devenus les plus recherchés car les plus pertinents. Le lien devant se situer sur une page web traitant d'une thématique proche du site web vers lequel il pointe.

sem search engine marketing - seo smo - optimisation seo - référencement - référencement seo - référencement google

La progression forte de l'audience des plateformes sociales comme Facebook ou Twitter a amené les webmestres et mercaticiens web à se poser la question de l'utilité des liens issus de ces sites web. L'audience issue de ces sites est croissante, mais la question est de savoir si les liens issus des sites sont pris en compte par Google. Matt Cutts, lors d'une conférence à Washington en 2012[2], a indiqué que le signal social envoyé par Google+ n'était pas un signal de qualité et que les liens restaient supérieurs en efficacité.

Moteur de recherche

La recherche correspond à la partie requêtes du moteur, qui restitue les résultats. Un algorithme est appliqué pour identifier dans le corpus documentaire (en utilisant l'index), les documents qui correspondent le mieux aux mots contenus dans la requête, afin de présenter les résultats des recherches par ordre de pertinence supposée. Les algorithmes de recherche font l'objet de très nombreuses investigations scientifiques. Les moteurs de recherche les plus simples se contentent de requêtes booléennes pour comparer les mots d'une requête avec ceux des documents.

agence référencement - référencement internet - sem manager - seo freelance - référencer

Mais cette méthode atteint vite ses limites sur des corpus volumineux. Les moteurs plus évolués sont basés sur le paradigme du modèle vectoriel : ils utilisent la formule TF-IDF pour mettre en relation le poids des mots dans une requête avec ceux contenus dans les documents. Cette formule est utilisée pour construire des vecteurs de mots, comparés dans un espace vectoriel, par une similarité cosinus.

référencement naturel - référencement site web - référencement site internet

Pour améliorer encore les performances d'un moteur, il existe de nombreuses techniques, la plus connue étant celle du PageRank de Google qui permet de pondérer une mesure de cosinus en utilisant un indice de notoriété de pages. Les recherches les plus récentes utilisent la méthode dites d'analyse sémantique latente qui tente d'introduire l'idée de cooccurrences dans la recherche de résultats (le terme « voiture » est automatiquement associé à ses mots proches tels que « garage » ou un nom de marque dans le critère de recherche).

Retour à l'accueil