Le décryptage des tweets non factices de Matt Cutts

le 23 Juil 2012
5 min de lecture
Le décryptage des tweets non factices de Matt Cutts

Suite à la vague de messages reçus par différents webmestres ce 19 juillet sur des liens factices, le représentant de la webspam team a tenté d’apporter quelques informations après ce coup maladroit. Les derniers tweets de Matt Cutts suite aux messages d’alerte sont notamment riches en enseignements.

Décryptage de sa TL

A propos du manque de clarté exprimé par les différents SEO, il semble que le message soit passé si l’on en croit les tweets des deux derniers jours :



Sur l’échange avec Jon Reiter, Matt Cutts dit que si une lettre a été envoyée, alors c’est une action manuelle. Attention, il s’agit d’un cas où la personne parle de désindexation. Il se peut que Jon confonde et parle en fait de pénalité, baisse de trafic ou de ranking

En tout cas il s’est passé quelque chose pour ce site.

Le plan de Google …

Matt Cutts parle beaucoup des prochaines étapes du plan « plus de transparence« . Les premières étapes ont été :

  1. La mise à disposition d’une liste de backlinks que Google identifie pour un site de manière beaucoup plus exhaustive que ce que Google offrait jusqu’à présent. Cette liste se trouve dans GWT
  2. L’envoi de ce message d’alerte que Cutts compare à un pic de tension électrique…

Mais de nouvelles communications ciblées et actions devraient arriver prochainement.

Le prochain move de Google serait d’après MC un plan permettant de réduire les effets du negative SEO.

Notez au passage le fait que Matt ne tente pas ici de nier l’impact potentiel du negative SEO

On pense bien sûr au fameux formulaire annoncé par Google récemment pour permettre aux webmasters de désavouer eux même les liens factices…

Il ne dit pas quels seront les autres next steps, mais il insiste bien sur ce point :

Notez que Google aurait donc trouvé le fameux point G 🙂

Le principe de l’avertissement à degré variable

Une des informations les plus importantes du message de Cutts est le fait que Google désavoue manuellement des liens de manière plus granulaire (je ne sais pas comment traduire ce terme), qu’auparavant.

C’est d’ailleurs écrit explicitement dans le post initial sur G+(Voir le message en entier) :

 » In the past, these messages were sent when we took action on a site as a whole.
Yesterday, we took another step towards more transparency and began sending messages when we distrust some individual links to a site.  « 

La différence avec ce qu’il se passait avant, selon Monsieur Cutts, c’est donc qu’auparavant Google envoyait un message uniquement lorsqu’une action manuelle {avait été|allait être} prise sur un site dans son ensemble, tandis que désormais il sera possible de recevoir ce type de message lorsqu’une action aura été prise uniquement à l’encontre de certains liens considérés comme étant « factices« .

Au delà du changement de process de communication avec les webmasters, Google confirme par là l’existence de dévaluations ciblées de certains liens. Ce n’est pas nouveau, dès 2006, beaucoup de SEO pensaient que les liens présents sur les sites considérés comme vendeurs et qui avaient perdu du PR avaient été annihilé.

Ce que Matt Cutts ne dit pas en revanche, c’est ce qu’il entend réellement par « distrust« . Le terme laisse penser qu’il s’agit au mieux d’une dévaluation du poids des liens incriminés, au pire d’une stérilisation totale de ces liens. Mais il se pourrait très bien que ces liens génèrent à terme un effet négatif sur le classement, ou sur les ancres des liens incriminés.

D’ailleurs, si ce n’était pas le cas, est-ce que le negative SEO fonctionnerait ? ^^

Ce qui semble certain, c’est que ces actions prises au niveau des liens individuels sont manuelles. Il le confirme dans un tweet à @yoast :


Un choix cornélien pour les webmasters

Au final, quelle est la stratégie à adopter lorsqu’un site est touché par ce type de communication ? Le dilemme n’est pas simple :

  • Ne rien faire : prendre le risque que le site connaisse une baisse dans les SERPs. Il est vraisemblable que la puissance du déclassement dépende alors du volume de liens que Google aura manuellement flagués comme étant factices… Même s’il y a de fortes chances pour que Google ait décidé d’envoyer ces messages alors même que les liens ne pénaliseront pas le site.
  • Nettoyer les liens et demander un réexamen : prendre le risque d’entrer dans une spirale où pour couvrir les liens détectés par Google, il va falloir ratisser très large et supprimer ainsi des liens ayant toujours un impact positif. Cela pourrait tout de même permettre de montrer aux quality raters qu’on a tenu compte de leur alerte en nettoyant une partie des liens et ainsi lever potentiellement l’alerte

La décision rationnelle serait de faire un choix en fonction de l’impact de la pénalité. Si celle-ci est inférieure au bénéfice des liens qu’il faudrait nettoyer pour s’en débarrasser alors cela ne vaut pas le coup… et inversement.

Un bel exemple de choix cornélien digne du dilemme du prisonnier de Tucker

La finalité du 23 juillet

Suite à la mise à jour du post de G+, MC nous annonce que depuis dimanche 22 juillet  tous les mails envoyés sont bien séparés en 2 envois distincts suivant le problème remonté :

Et un peu plus tard dans la journée nous apprenons également que des envois allaient être  reprogrammés pour permettre aux éditeurs de site ayant reçus les mails depuis jeudi de connaître la source d’erreur (ou pas) remontée dans GWT…

Et en effet, voici les nouveaux messages reçus dans les consoles WMT des sites touchés :

We’ve detected that some of the links pointing to your site are using techniques outside Google’s Webmaster Guidelines.

We don’t want to put any trust in links that are artificial or unnatural. We recommend removing any unnatural links to your site. However, we do realize that some links are outside of your control. As a result, for this specific incident we are taking very targeted action on the unnatural links instead of your site as a whole. If you are able to remove any of the links, please submit a reconsideration request, including the actions that you took.

If you have any questions, please visit our Webmaster Help Forum.

Là encore, il est question de confiance en les liens, et d’actions ciblées sur ces liens plutôt que sur la totalité du site.

Une réserve est émise sur le fait que certains liens sont en dehors du contrôle des éditeurs. Google en a conscience, mais cette « excuse » ne tiendra bientôt plus avec le nouveau formulaire annoncé…

Au final, toute cette histoire n’aura été qu’un épiphénomène, mais elle est aussi un présage aux futures actions de l’équipe anti spam… et aux réactions des SEO tenterons de forcer la génération de liens naturels 🙂

Vous avez un projet ?

Vous aimerez aussi

Quelles sont les intelligences artificielles qui font parler d’elles en 2024 ?

Quelles sont les intelligences artificielles qui font parler d’elles en 2024 ?

IA

“Automatisation” et “optimisation” : si vous évoluez dans l’univers du marketing, ces deux concepts vous sont familiers.Ensemble, ils forment le [...]
2 nominations au SEO CAMP’us Paris 2024

2 nominations au SEO CAMP’us Paris 2024

Inside RESONEO

Nomination dans la catégorie « Meilleure campagne de content marketing » Déjà récompensée aux SEMY AWARDS du SMX Paris 2024 en mars [...]