Rencontre avec un membre de l’équipe anti-spam de Google

Par  le 07 octobre 2011 - 18:01 dans

Il y a deux ans, j’avais eu l’opportunité de pouvoir rencontrer Matt Cutts au Googleplex lors d’un congrès des entreprises partenaires de Google Analytics. Cette année, j’ai voulu retenter ma chance et le rencontrer à nouveau, mais il était sur la côte Est. Il m’a en revanche arrangé un RDV avec Brian White, un membre de son équipe travaillant avec lui dans l’équipe anti spam depuis 2005. L’objectif était de pouvoir discuter SEO avec un Googler qui passe son temps à analyser ce que font les SEO et qui potentiellement aurait quelques info exclusives à partager… Cette fois encore, j’ai été agréablement surpris de la disponibilité et l’ouverture des membres de cette équipe. Il faut dire que je l’avais allègrement appâté avec de grosses requêtes FR, sur lesquelles notre collègue @Julien_Crenn a positionné des sites suite à des tests peu recommandables ^^

Ce fut l’occasion d’échanger sur le SEO de manière générale, son évolution, l’impact du BH, Panda et la lutte contre le link spam. Voici en vrac quelques éléments dont nous avons discuté et quelques interprétations de ma part, issues de l’analyse des hochements de têtes et autres onomatopées de notre ami Brian – sont pas forcément prolixes les gars de l’équipe anti spam… Pas d’info exclusive donc, mais quelques réflexions à partager.

Tout d’abord sur l’évolution du SEO.
Le constat actuel est que la capacité d’un contenu à remonter dans les résultats dépend largement de la puissance du domaine qui l’accueille, même si Google a fait quelques efforts pour apporter une certaine granularité de positionnement page à page. Si vous publiez un même contenu sur Wikipedia ou sur votre nouveau blog, vous n’obtiendrez pas les mêmes résultats : il y a des chances pour que la page Wikipedia ressorte très haut et celle du blog pas du tout. Et ce, quelle que soit la qualité du contenu.

L’orientation que semble prendre Google aujourd’hui, avec la prise en compte des signaux sociaux, l’arrivée des balises Canonical, Author, etc. constitue un changement de paradigme où l’autorité, l’influence, la confiance, et donc la capacité de positionnement n’est plus uniquement rattachées à un nom de domaine, mais à une entité émettrice. Cette entité pouvant être théoriquement toute source à laquelle un contenu peut être affecté : individu, organisation, entreprise, association, communauté…

L’objectif serait par exemple pour Google de parvenir à mieux classer un contenu produit par une personne influente – ou dont les publications sont généralement perçus par les internautes comme étant de qualité – en haut des résultats quelque soit le site sur lequel le contenu est publié.
Nous pouvons donc présager que le « fake identity spam » a de beaux jours devant lui, mais c’est moins facile à faire que de spammer du lien ;)

Le black hat
Sur la partie black hat, ils sont a priori bien au fait des outils de génération de liens, mais semblent trouver que ça n’est bien utilisé que de manière très marginale.
D’ailleurs, il semble que le spam issu des LFE et autres Xrummer soit bien représenté en France par rapport à d’autres pays. Chose étonnante toutefois, je n’ai pas eu l’impression que mon interlocuteur connaissait en détail le fonctionnement des principaux outils et il semble qu’ils n’aient personne en interne en charge de tester chaque nouvel outil BH du marché.
A la question pourquoi ils font tout un foin avec Panda alors qu’ils continuent à se faire gruger par les liens, la réponse est que les choses évoluent au moins autant sur ce plan là mais qu’il leur est beaucoup plus difficile de communiquer dessus. Il ne leur est pas possible de prouver qu’une technique de link building sauvage ne fonctionne plus, car cela donnerait trop d’indications sur ce qui fonctionne encore… C’est toutefois la posture qui est adoptée. La meilleure preuve de la lutte anti spam serait finalement le nombre de reconsidérations quotidiennes qu’ils reçoivent via Google Webmaster Tools. Une bonne partie du travail de l’équipe anti spam consiste en réalité à traiter ces demandes…

Outils internes
Dernier point : ils ont l’air très fiers de leurs outils internes de lutte anti spam, le link graph de n’importe quel site n’ayant aucun secret pour eux. Et on imagine facilement le type d’alerte qu’un quality rater pourrait recevoir, dès lors qu’un indicateur statistique s’affole et constitue une anomalie par rapport aux autres sites Internet. Par exemple lorsque le trafic envoyé par Google sur un site explose de manière anormale. Lorsque l’on voit les infos qu’ils sont capables de partager via Google Webmaster Tools, on peut à raison imaginer qu’il ne s’agit que de la partie émergée de l’iceberg.
Finalement, un conseil pour ceux qui voudraient tenter l’aventure black hat, serait de ne pas être trop ambitieux pour un seul site, mais plutôt de prévoir une galaxie de plusieurs petits sites, de quelques dizaines de pages chacun, destinés à ranker sur un champ lexical réduit et pas trop compétitif. C’est finalement la meilleure manière de rester « under the radar ».

Les commentaires sont ouverts pour ceux qui auraient des remarques et commentaires à partager !

Tweet about this on TwitterShare on LinkedInShare on FacebookShare on Google+Email this to someone
Partagez cet article!
Ajouter le votre
26 commentaires
Tiger 07 octobre 2011 - 18:08 - Répondre

T’aurais pu mettre ta photo avec Matt Cutts de la première rencontre :)

Seg 07 octobre 2011 - 21:38 - Répondre

Faut que je remette la main dessus ! Mais j’en ai des nouvelles : je me suis baladé chez Google avec ce t-shirt : http://twitpic.com/6k3h6n :D

LaurentB 10 octobre 2011 - 11:49 - Répondre

Hihi c’est comme ça qu’on voit un Panda après une prise de LSD !

Toucouleur 07 octobre 2011 - 18:12 - Répondre

Chouette résumé, le salut va venir de la capacité à pouvoir faire du BL de masse avec un fort signal des réseaux sociaux pour rester crédible.

Merci pour les partages d’infos :)

Seo F1 07 octobre 2011 - 18:29 - Répondre

Excellent article avec une superbe réflexion sur le référencement. Je suis un peu surpris sur la partie BH où Google ne test pas en interne les derniers outils. Si c’est vraiment le cas, nous avons encore de longues années devant nous !!
Pour les réseaux sociaux, il est clair qu’il faut envisager sérieusement d’aller jouer sur ce terrain avec des comptes Facebook & Twitter à gogo. Il existe de bons outils comme TweetAdder pour gérer les profils en masse.

Recruteo 07 octobre 2011 - 18:29 - Répondre

Quelle star cet Olivier. :)
Je te rejoins sur le fait que l’intégration des signaux sociaux dans l’algo complique la tâche. Pas parce que c’est plus dur à faker, mais parce qu’on a pas encore les outils pour spammer les réseaux sociaux. Mais soyons en sûr, ça viendra.
En revanche, ce que je vois c’est que cela crée une barrière de plus à l’entrée des marchés qui se jouent sur le web. Pour lancer avec succès un site sur le web, il faut aujourd’hui être beau, riche et déjà célèbre. Sinon, la notoriété faker ta notoriété (liens ou réseaux sociaux) est la seule manière d’initier la pompe.

Seg 07 octobre 2011 - 21:23 - Répondre

Salut Lionel,
la seule barrière que le vois aux outils, c’est la qualité des profils qui seront manipulés. Imagine 1000 profils G+, FB ou Twitter qui like, +1 ou RT un contenu. Ce serait un jeu d’enfant pour GG d’identifier que parmi ces profils, plus de 90% d’entre eux ont moins de 1 an d’existence alors que c’est 40% pour les autres contenus…
Et même si on arrive a faire de l’élevage de profils sur la durée, en simulant correctement les interactions entres profils G+, il va falloir aller beaucoup plus loin : pour être credible, une partie des profils doivent aussi utiliser Gmail sur leur même compte, sinon GG trouvera cela louche, et échanger des emails avec d’autres profils qui ressemblent a des vrai gens… Une partie devra également avoir un compte adsense ou adwords ou checkout, avec CB validée..
Si un contenu a plein de share et de RT mais peu de +1 ou alors depuis des comptes G+ peu credible, alors ca sentira le spam pour gg
Bref, G+ s’il se répand sera l’arme anti spam ultime de google ;)

Sublimeo 07 octobre 2011 - 19:25 - Répondre

Brian White (hat) pour lutter contre le Black Hat, il sont fort chez Google ;)

Ramenos 07 octobre 2011 - 19:43 - Répondre

Merci pour ce résumé.

Par contre, Google a beau vouloir dire qu’il gère mieux les effets de duplications, notamment avec le canonical tag, je peux t’assurer qu’à ce jour, le tag canonical n’est qu’un simple canular.

Pour le prouver, je t’invite à lire le 2ème post de mon blog intitulé « Cas pratique seo Microformats et tag canonical ».

Et la conclusion de cela rejoint ce que tu dis au début. La puissance du domaine compense largement le reste, canonical ou pas :).

Seg 07 octobre 2011 - 21:29 - Répondre

Bonjour,
j’avais vu ton billet sur le sujet en effet. Le plus puissant l’emporte. Combien de temps au final le site a-t-il eu les rich snippets avant que l’autre site ne canibalise le tout ? Je me demande dans quelle mesure il n’y a pas des batch reguliers qui font le menage dans le duplicate des resultats enrichis, a echeance plus longue sur pour le search.

Jori 07 octobre 2011 - 19:48 - Répondre

Une petite approche de ce qui va se passer dans le futur repose peut être dans l’identification des personnes telle qu’elle est progressivement déployée sur Google +

Ils ont décidé de vérifier les profils des gens « connus », pour s’assurer que le profil correspond bien à la personne. En revanche, mystère et boule de gomme pour savoir comment font-ils pour vérifier un profil.

Si par exemple je peux prouver que je suis diplômé en Design, automatiquement Google me donnera de l’autorité vis à vis du Design. Les anonymes qui font autorité dans leur domaine, genre Maître Eolas, vont grincer des dents.

Donc : une carte d’identité sur le web est en cours de gestation. Pour quand… on ne sait pas.

Seg 07 octobre 2011 - 21:32 - Répondre

Ton compte Google constitue déjà ta carte d’identité : il connaissent ta fréquence de connections, le volume de mails envoyé, le nombre de contacts, tes revenus adsense, etc ;)
En effet, ça pose un réel probleme pour l’anonymat leur histoire de compte vérifiés !

Casino Lemonade 07 octobre 2011 - 20:50 - Répondre

Salut Olivier,

Alors comme ça tu va taquiner le quality rater en loucedé, sans appeler les copains ?
Dans le temps ce sport se pratiquait entre amis.
On avait un fixeur qui allait débusquer le QR.
Puis il l’amenait dans un bar tranquille où l’alcool coulait à flot.
Une fois le QR à point (c’est à dire saoul comme un polonais) le fixeur appelait le reste de la troupe composée de SEO et de BH.
Et la c’était Question pour un champion façon fête de la bière…je vois les traditions se perdent et qu’on se la joue perso de nos jours.
Et sinon tu as montré à ton nouvel ami Julien ton réseau de sites sur la niche mature gay zoo lover ?

Seg 07 octobre 2011 - 21:36 - Répondre

Salut Alex,
« gay zoo lover » ?? Quand t’auras terminé de répandre tes requêtes « de mauvais voisinage » sur notre nouveau blog tout propre, je t’invite fortement à chercher une adresse de bar louche pour qu’on se cale asap un rdv de travail ;)

Casino Lemonade 07 octobre 2011 - 23:24 - Répondre

« MATURE gay zoo lover »…genre ils sont plus tout jeunes.
Si malgré tous mes efforts tu ne récupères pas un trafic d’initiés…
Sinon pour le bar je te proposes Au Bon Café à République comme d’hab’.
Mercredi ou jeudi soir ?
Tu feras tourner ton petit QR ou bien tu le gardes juste pour toi ?
Au fait, tu lui as parlé de tes errances passées du côté obscur de la force ?
Tout ça me rappelle un temps où je faisais ami-ami avec un certain Emmanuel Arendarczyk ex-QR qui venait juste d’être embauché par NetBooster.

Yassine - consultant seo 08 octobre 2011 - 9:11 - Répondre

Bonjour et merci pour cet article, ce que je retiens c’est que le black hat doit simuler une évolution naturelle de BL tout en s’attaquant à des expressions moyennement concurrentielles. Il doit aussi travailler sur le temps et de façon intelligente.

Laurent 08 octobre 2011 - 10:20 - Répondre

Ah la la, quand je pense à ceux qui, toutes ces années, ont bu religieusement vos paroles et répandu le culte de votre immense savoir googlesque, et que tout ça n’était en fait que résumés d’élucubrations d’ivrognes et comptes-rendus de délires éthyliques…

Merci pour le retour ;)

jerome 09 octobre 2011 - 16:55 - Répondre

Alors comme ça chez Resoneo on fait du BH.
Je reste sceptique sur le fait que chez Google personne ne teste les nouveautés BH. Je me demande s’ils ne sont pas bon acteur…afin de garder leurs petits secrets…

Olivier de Segonzac 12 octobre 2011 - 13:38 - Répondre

Oui, en effet tout est communication ! Et je rajouterai même que tout est cloisonné entre les différents services chez Google : il se peut que des Googlers ne sachent pas ce que font leurs propres collègues.
Sinon non, on ne fait pas de BH chez RESONEO, ça ne nous empêche pas de faire des tests :)

backlinker 10 octobre 2011 - 9:07 - Répondre

Merci pour ce résumé :). Sans vouloir faire vibrer la communauté BH, il me semble quand meme clair qu’à l’heure actuelle,dès lors qu’on apprend à rester de dehors des radars des filtres automatiques, on ne craint pas grand chose de la team anti-spam de google au cas par cas. (mais cela doit être une politique, il vaut mieux améliorer un algo global que flinguer des NDD au cas par cas, ce qui prendrait enormément de temps)

contrat site internet 10 octobre 2011 - 9:38 - Répondre

… Et il t’a pas donné une date de sortie pour la Béta Public de leur outils interne ?? ;-)
Ce serait cool de pouvoir jouer avec…

Bah … c’est un peu normal qu’ils disent pas tout, mais ça doit être dur en interne de pas pouvoir en parler. Perso ça me démangerai !
Matt

aem 10 octobre 2011 - 9:54 - Répondre

est ce que ca veut dire que nous sommes des bourrins en FR ?
je connais pas du tout les méthodes utilisées dans d’autres pays …

+ 1 pour les comptes google … ils connaissent le métier, les outils, les clients etc …

Seb

olivier clémence 10 octobre 2011 - 10:40 - Répondre

A mon sens c’est normal que l’équipe antispam ne prend pas le temps de tester les outils BH. Après tout leur but n’est pas de savoir comment il créé des liens mais plutôt de trouver une solution pour trier les liens honnête des liens malhonnête.

Discodog 10 octobre 2011 - 12:15 - Répondre

Super Seg! Merci pour le retour!!! :)

Marco 10 octobre 2011 - 15:34 - Répondre

Autant je comprend bien l’intérêt de Google concernant l’aspect social dans leur algo, autant ca fait franchement flipper concernant le futur du web. Mais bon, j’ai encore du mal a voir comment Google pourrait conserver une telle position de monopole, et donc je ne penses pas que leur scénario idéal se réalise (je demande a voir si ils arriveront à positionner Google+ devant facebook en terme d’échange social)

Barriere 06 novembre 2011 - 23:12 - Répondre

Les outils de Google sont de plus en plus fin, mais avec un peut de malice, les maîtres Seo ont encore une petite longueur d’avance. Je pense que le référencement professionnel intelligent (black ou white) (qui est marginale au sens de rare) n’est pas une priorité pour Google, ce qu’il veut pouvoir contrôler c’est la plus grande masse ou les abus flagrants. Selon moi, Les extrémités de la courbe de Gauss n’intéresse que très peut Google.