Le netlinking post Penguin abordé au Seocampus 2013

Par  le 25 mars 2013 - 11:34 dans

L’édition 2013 du Seocampus nous aura rappelé que Penguin et notamment le sujet du netlinking restait une des préoccupations principales des SEO en 2013. Il a donc fallu jouer des coudes pour pouvoir trouver une place assise et assister aux conférences du jeudi qui abordaient ce sujet.

C’est Sébastien Monnier qui s’est jeté le premier à l’eau en présentant sa vision du netlinking post-Penguin.

Le netlinking post Penguin, ce n’est pas pour les manchots

Sébastien Monnier

Sébastien Monnier

Fort de son expérience au sein de la Search Quality Team de Google, lors de l’audit de son profil de liens, Sébastien suggère à juste titre de se placer à la place du Quality Rater (qui lui se mettra à la place du webmaster) et qui vérifiera à la main la légitimité globale des liens en s’attardant sur les ancres, les urls de destination, le contenu, les habitudes de linking et également sur le passé du webmaster (« Est-ce que le webmaster est un voyou ? »). Google exploite également les données qu’il a accumulées depuis plusieurs années pour décider de la mise en place ou non d’une pénalité si l’on franchit la ligne jaune. La question que se pose la Search Quality Team est sur le « Comment ? » du lien, Sébastien précise qu’il devrait plutôt se demander « Pourquoi ? ». N’oublions pas que outre l’intérêt SEO d’un lien, celui-ci existe pour une raison.

Qu’est-ce qu’un lien naturel ? C’est un lien qui va apporter une valeur ajoutée à l’internaute (un complément d’information, un point de vue alternatif, un service, une référence, etc.). Le site du SEOCampus pourrait par exemple proposer des liens vers des hôtels environnants pour faciliter l’accueil des participants. C’est tout à fait naturel bien que les sites n’aient à première vue aucun rapport !

Dans l’optimisation de ses liens entrants, Sébastien propose de travailler en 2 temps. Un premier temps de recherche et de mise en place d’un lien en partant d’une raison permettant d’avoir des liens puis d’envisager l’optimisation de ceux-ci (ancre, url de destination, placement dans la page, etc.).

Et si à l’avenir nous utilisions l’attribut rel sur chacun de nos liens pour définir la nature de la relation entre un site A et un site B et mettre en avant la légitimité de leur maillage ?

Sa présentation : Techniques de netlinking après Google Penguin – SEO Campus 2013

Du link building au link earning

Laurent Peyrat

Laurent Peyrat

Laurent Peyrat est revenu sur les différences parfois énormes entre la théorie et la pratique sur la compréhension de Penguin. Sur 2 sites ayant un profil de liens similaire, qu’est-ce qui va faire qu’un site sera pénalisé et non un autre ?

De nombreux critères peuvent rentrer en compte, mais ceux visés par Penguin sont les tentatives de spam et notamment de sur-optimisation des liens.

Le bénéfice du netlinking peut être découpé en 3 axes : popularité, confiance et pertinence. Exploiter un de ces axes lors de la génération des liens ne poserait pas de problème. Les choses se complexifient lorsque l’on souhaite avoir le beurre et l’argent du beurre et qu’on veut être parfait sur les 3 tableaux en travaillant chacun de ces leviers en même temps.

Sa présentation : Le linking SEO avancé

Un lien vaut mieux que deux tu l’auras, où comment la fonction de désaveu des backlinks change le paysage du SEO

Sébastien Bulté

Sébastien Bulté

J’ai de mon coté présenté l’outil de désaveu de liens lancé par Google en Octobre dernier. Son objectif est de permettre aux webmasters ayant reçu un message d’alerte de liens entrants factices de pouvoir indiquer au moteur de ne pas prendre en compte certains d’entre-eux lorsqu’ils n’ont pas la possibilité de les supprimer.

Pour répondre à la question de « Quand dois-je utiliser cet outil ? », j’ai proposé 2 critères. Après avoir rappelé qu’il s’agit là d’un outil de dernier recours, son utilisation peut être envisagé après avoir reçu un message d’alerte de liens factices via Google Webmaster Tools et avoir constaté une baisse de trafic organique suite à une mise à jour Penguin.

Attention cependant à ne pas écarter tous les autres facteurs pouvant expliquer une baisse de positionnement : erreur humaine (un mauvais Disallow dans le robots.txt par exemple ;) ), sur-optimisation du contenu, duplication de contenu, une baisse de crawl de GoogleBot, etc.).

La grande question qui se pose concerne l’utilisation des données transmises à Google via cet outil. Il y a fort à parier que cela serve au moteur pour affiner sa compréhension d’un bon et d’un mauvais liens. Si nous sommes 10 personnes à désavouer les liens provenant d’un domaine particulier, est-ce que Google va sanctionner ce site ou ignorer tous ses autres liens sortants ? Il est encore top tôt pour l’affirmer.

Alors qu’auparavant l’algorithme bridait la popularité envoyée par un lien « spammy », aujourd’hui ce même lien peut vous être sanctionné. Google responsabilise ainsi les webmasters en leur demandant de faire le ménage. Le negative SEO a donc encore de l’avenir :(

Croisons les doigts pour que Matt Cutts tienne sa promesse d’enrichissement des messages envoyés avec des exemples nous permettant d’y voir plus clair sur ce qu’il considère être un lien non-naturel.

La présentation : Désavouer ses liens. Comment cela change le paysage du SEO ? – SEO Campus 2013

Tweet about this on TwitterShare on LinkedInShare on FacebookEmail this to someone
Partagez cet article!
Ajouter le votre
2 commentaires
ErwanSo 25 mars 2013 - 18:24 - Répondre

des conférences intéressantes. Celle de Sébastien Monnier a l’air très intéressante. A force de lire des comptes rendus, je comprends un peu plus ce qu’il faut faire.

Herve 27 mars 2013 - 10:47 - Répondre

Intéressant la réflexion de début d’article sur les liens naturels. Au final un lien pourrait avoir une pertinence dans un contexte précis, même s’il diffère avec la thématique générale du site.