Qualité d’un site pour Google : critères d’évaluation

Par  le 20 octobre 2011 - 21:06 dans

Les récentes évolutions de Google ont pu faire grincer des dents plus d’un référenceur ou pire, faire pleurer plus d’un e-commerçant. Des évolutions pouvant sembler totalement incompréhensibles, mais qui ne sont pas sans apporter leur lot de bonnes résolutions pour beaucoup de webmasters : c’est le moment où jamais d’appliquer enfin ces recommandations devant améliorer la qualité du site pour un internaute, mais éternellement remises au lendemain, faute de motivation commerciale. C’est également le temps pour RESONEO de refaire un tour sur ce qui est considéré qualitatif pour Google, basé sur la récente fuite des dernières recommandations au Quality Raters de la firme de Moutain View.

Principes généraux de la qualité d’un résultat

Aux yeux des internautes, la qualité des résultats obtenus après avoir effectué une recherche dans un moteur est fondamentale. Permettre de trouver rapidement, voir instantanément des résultats pertinents et cohérents est tout ce qui devrait compter pour un moteur de recherche : c’est ici que se joue la grande bataille du succès qui départagera Google de la concurrence.

Il faut comprendre une chose : Google n’oblige pas l’internaute à s’adapter, même en situation de quasi-monopole. C’est Google qui s’adapte à l’internaute. Toutes les évolutions récentes de Google visent à satisfaire de plus en plus l’internaute, le mieux et le plus rapidement possible. Mais Google est également une entreprise commerciale, qui doit faire des profits sur le long terme. Il n’y a pas de philosophie ou d’idéalisme. Ceci étant dit et assimilé, nous pouvons mieux comprendre le mécanisme qui régit Google et toutes ses décisions, en posant la bonne question : comment répondre aux attentes des internautes, tout en gagnant de l’argent ?

Il faut présenter des résultats pertinents immédiatement

L’idée essentielle est que la qualité d’une page doit être en rapport direct avec la requête. Un site de vente de chaussures est de très faible qualité pour Google sur la requête « parapluie », mais de très haute qualité sur la requête « chaussure ». Le résultat doit être en adéquation totale avec la requête.

Comment Google évalue la qualité de ses résultats ?

Qu’est-ce qu’un internaute satisfait par les résultats présentés par Google ? La réponse est évidente : quelqu’un qui a trouvé ce qu’il cherchait. Si l’internaute ne trouve pas, il fera une nouvelle recherche. Quoiqu’il arrive, un site, pour être de qualité, doit donc répondre à la requête de l’internaute, qui n’aura ainsi pas besoin de faire une nouvelle recherche.

L’algorithme de Google va tenter de faire un premier filtrage du web, afin de générer sa page de résultats. Ces critères sont connus depuis longtemps : liens pointant vers une page, contenu en rapport avec la requête, accessibilité du site… Mais ces seuls critères ne suffisent pas, il faut pouvoir raffiner les résultats pour séparer le bon grain de l’ivraie.

Google utilise (aussi) des humains pour évaluer un site !

Parfois, les robots ne peuvent pas remplacer l’humain. Google évalue donc la qualité de ses résultats de façon algorithmique, automatiquement, mais utilise également une armée d’humains, chargés d’évaluer la pertinence des résultats. Pour minimiser les éventuelles erreurs de jugement humaines, plusieurs personnes évaluent la même chose, les mêmes pages.

Les résultats présentés aux personnes de chair et d’os ont été générés préalablement de façon algorithmique. Le raffinement humain qui est ensuite opéré permet d’améliorer ces résultats. Comment est-ce que ces résultats humains sont utilisés et intégrés ? Mystère. Mais quand un site voit le jour, il faut toujours avoir en tête qu’il y a de fortes chances pour qu’il soit passé en revue par des humains s’il commence à être trop visible.

Critères de qualité d’une page

Il faut toujours évaluer le couple requête/page présenté. Les situations où la qualité d’une page est prise de manière individuelle sont assez rares (pages contenant un virus, pages vides…). Une requête peut-être ambiguë, de très bons résultats à priori pertinents pour quelqu’un pouvant ne pas l’être pour un autre internaute, qui aura pourtant tapé rigoureusement la même requête. Un concept fondamental pour Google est « l’intention de l’internaute ». Qu’est-ce que veut vraiment un internaute ? Il s’agit pour Google de deviner ce qu’un internaute a l’intention de faire en ayant fait sa recherche : est-ce qu’en ayant tapé le mot « orange », l’internaute voulait des informations sur le fruit, sur la couleur, la ville ou sur l’entreprise ? Google, pour répondre à ces ambiguïtés de requêtes, a joué la carte des résultats diversifiés, en présentant, lorsque la requête le justifie, des résultats pour chacune de ces différentes intentions de l’internaute. Toujours dans cet esprit, Google a créé l’historique de recherche et la personnalisation des résultats.

Les requêtes peuvent ainsi mener à trois types de volontés différentes de la part de l’internaute :

  • L’internaute peut vouloir « faire » quelque chose : sa requête implique une action. Il peut faire un achat, regarder une vidéo, jouer à un jeu en ligne…
  • L’internaute peut vouloir « savoir » quelque chose : sa requête implique une recherche d’information. Il peut par exemple vouloir connaître le nombre d’habitants en Ouzbékistan.
  • L’internaute peut vouloir « aller » sur un site en particulier. Il veut par exemple trouver la page web de contact du service après-vente de Darty.

Bien sûr, une même requête d’un internaute peut impliquer plusieurs volontés. Il est ainsi très probable qu’une personne tapant « Galaxy Nexus » cherche à obtenir des informations sur le dernier mobile Samsung, mais également à l’acheter.

Chaque type de requête est ainsi associé à une ou plusieurs volontés de l’internaute. Un internaute qui tape « acheter chaussures rouges » ne veut pas tout savoir sur les chaussures rouges, il veut en acheter. De même, un internaute qui tape la requête « banque » ne veut probablement pas tout savoir sur la banque, il veut plutôt connaître les banques proches de chez lui : à priori, il y a de fortes chances pour qu’il sache déjà ce qu’est une banque.

La page idéale pour Google

Il faut retenir que tout n’est pas blanc, tout n’est pas noir pour le moteur de recherche. Une page web peut correspondre totalement à la volonté de l’internaute, mais elle peut également ne correspondre que partiellement. Google n’a pas encore les moyens de déterminer de façon algorithmique et efficacement la parfaite adéquation d’une page par rapport à une autre : comment distinguer la satisfaction d’un internaute qui a acheté chez Amazon son nouveau téléphone, par rapport à un internaute qui a acheté sur eBay ?

La page idéale pour Google est également la page idéale pour l’internaute : celle où il trouve ce qu’il cherchait, sans intermédiaires. Cette page idéale présente de l’information si l’internaute cherche de l’information ou présente des offres commerciales si l’internaute veut acheter quelque chose. Une petite note tout de même : Google gagne de l’argent sur les requêtes à forte valeur ajoutée, comme celles impliquant un achat. Si une requête est ambigüe, pouvant signifier soit la recherche d’information, soit la recherche d’une offre commerciale, à volume d’intentions identique, quelle sera la requête privilégiée à votre avis ?

Les humains se chargent donc de donner une note, suivant l’adéquation d’un site à la requête. Il est ainsi impossible pour un site autre que le site officiel de Renault d’être devant la célèbre marque de voitures. Par contre, vu que l’internaute veut forcément du « renault », on présentera plusieurs liens sur le site officiel directement sur la page de résultats.

Un bon site doit ainsi être en adéquation totale avec les requêtes où il est présent. Si une recherche est ambigüe, le site a tout intérêt à jouer sur les deux tableaux, quand c’est possible : un site informatif sur le Galaxy Nexus a tout intérêt à présenter également à ses internautes la possibilité de l’acheter : avec un lien vers le site du fabricant ou une publicité contextualisée par exemple.

Ces données que nous vous présentons ici constituent l’ossature de la stratégie de Google. Google, on l’a dit, cherche à s’adapter aux internautes et à leurs habitudes, forçant s’il le faut les webmasters à s’adapter eux aussi aux internautes. Google montre la voie, en quelque sorte. Même si aujourd’hui, le moteur de recherche n’arrive pas encore à montrer les meilleurs résultats aux internautes, nous pouvons au moins voir l’idéal voulu par la société « qui ne fait pas le mal » :

Tweet about this on TwitterShare on LinkedInShare on FacebookShare on Google+Email this to someone
Partagez cet article!

2 Trackbacks

Par Veille référencement le Retour! | |  le 16 décembre 2011

[...] recommandations données par Google à ces fameux Quality-Raters, ou plus communément appelés le facteur humain de google ! D’où il ressort que si les liens peuvent booster votre site, une grande exposition de [...]

Par Pourquoi Wikipédia est tout le temps en premier sur Google ? - RESONEO  le 28 février 2012

[...] en essayant de comprendre ce que désire l’internaute, comme exposé dans notre article sur les critères d’évaluation de Google. Une requête à un mot clé est très souvent synonyme de la recherche de signification de ce mot, [...]

Ajouter le votre
36 commentaires
Olivier Duffez 20 octobre 2011 - 22:30 - Répondre

Très bon résumé du pavé (que je n’ai pas eu le temps de lire complètement). Dans le fond tout ça est du bon sens, mais dit clairement c’est plaisant à lire.

Bon, concrètement, comment peuvent s’en sortir les sites qui ont le malheur d’être un des intermédiaires dont veut se débarrasser Google ?

Jori 24 octobre 2011 - 10:54 - Répondre

Je leur suggérerais de vendre en marque blanche, d’apporter plus d’infos et d’actions différentes utiles aux internautes. On peut être créatif et présenter des images plus grandes et plus belles des produits, ou de véritables avis, ou n’importe quoi d’autre qui apporte une vraie valeur ajoutée.

Stéphane TESOLARI 03 novembre 2011 - 15:11 - Répondre

>> »Dans le fond tout ça est du bon sens »
Cette phrase reste un avis subjectif. Je ne trouve personnellement pas que l’ensemble des choix faits par Google pour juger de la pertinence d’un site relève du bon sens.
Quant aux moyens utiisés par Google pour y parvenir… bof bof, que Google tente de « deviner ce que j’ai l’intention de faire » ne me transporte pas de joie, et que Google utilise mon historique à moins de naviguer InPrivate reste irritant au quotidien…
Quand à la phrase d’introduction de l’article :
>> « Qu’est-ce qu’un internaute satisfait … Si l’internaute ne trouve pas, il fera une nouvelle recherche. »
Non, ce n’est pas parce qu’il fait une nouvelle recherche qu’il n’a pas trouvé… il peut par exemple comparer les prix sur d’autres sites, ouvrir volontairement plusieurs onglets pour avoir plus d’infos ou relancer son navigateur qui vient de planter :-)

Discodog 21 octobre 2011 - 8:59 - Répondre

C’est le meilleur article SEO existant que j’ai lu depuis longtemps, je vais le quoter sur mon nouveau (futur) forum d’affilié!

Merci pour la fraicheur actuelle de ce blog!

stephane lanteri 21 octobre 2011 - 9:43 - Répondre

Bon résumé, je n’ai pas lu le document.

Doit on en déduire que Google ne s’intéresse qu’aux sites marchants de grandes tailles qui génèrent du chiffre d’affaire ? Et qu’il veut tuer les plus petits sites qu’il voit commes des parasites (comme les petits sites d’affiliés ).

Mais quand tout les gros seront en première page, qui va acheter des adwords ?
Ce n’est pas se tirer une balle dans le pied à très long terme ?

Jori 24 octobre 2011 - 10:56 - Répondre

Les gros continueront toujours à acheter des adwords, il est prouvé que adwords ne cannibalise pas le SEO, au contraire. Ce qui est important, c’est d’occuper le terrain, et d’être le plus visible possible sur le moteur de la recherche. La somme AdWords (places premimum) + première place SEO apporte plus de trafic et plus de conversions que la première place SEO seule.

Marco 21 octobre 2011 - 12:07 - Répondre

Merci pour cet article.

Je pense que d’un point de vue utilisateur, même les sites intermédiaires ont encore une raison d’être, à partir du moment ou ils apportent des informations (commentaire client, test poussé, …) ou des fonctionnalités qui ne sont pas proposés par les sites marchant.

Par exemple, tripadvisor apporte une vraie plus value en terme d’information ( grace à l’UGC), et il est encore très présent dans les SERP.

Jori 24 octobre 2011 - 10:57 - Répondre

L’UGC est une bonne piste effectivement pour passer le grand test de Panda.

jay4sem 21 octobre 2011 - 14:47 - Répondre

lol…j’adore le commentaire d’Olivier…
J’aurais aimé qu’il développe, qui sont les intermédiaires dont BigG veut se débarasser ?

Jori 24 octobre 2011 - 10:50 - Répondre

Je pense qu’il veut parler de tous les intermédiaires qui n’apportent pas de valeur ajoutée à l’internaute.

Du moins, pour Google. Un comparateur rentre dans cette catégorie là. Google veut diminuer le nombre d’étapes nécessaires entre la recherche et l’achat.

Annuaire 21 octobre 2011 - 18:33 - Répondre

Bonjour,

effectivement, les critères de qualité de Google pour classer un site sont au plus proche des critères « humains », il est de plus en plus évident que le seul travail de SEO d’un site ne suffit plus.

Il est fort probable que dans un temps futur, la communication remplace le SEO « technique », ou du moins la supplante. Les signaux positifs d’un site très bien conçu en communication, explicite et ergonomique sont de plus en plus importants pour Google et le classement des sites dans les serps.

Le « codage » si important aux yeux du SEO n’est plus la panacée, le codage ou la « bonne mise en forme » de l’agence de communication à déjà pris le dessus.
Pour schématiser cette différence, le pur SEO aura tendance à placer des mots clé dans une balise H1, alors que l’agence de communication placera un texte plus intelligible et avenant pour l’internaute.

Entre le contenu un peu « haché » des trois balises principales (titre, description, H1) réalisé par un spécialiste SEO et ce contenu réalisé par une agence de communication, au final, c’est très probablement ce dernier qui remportera la faveur d’un clic supplémentaire ou même de départ dans les serps.

Pour la nouvelle version de l’Annuaire Français (V2 Dauphin) en béta test, l’optimisation du code et du linkage à été stoppée totalement.
Le site est construit pour un confort, une qualité, dans son style et dans sa façon de considérer le meilleur service possible a l’internaute et a l’entreprise.
Sans faire de pub, la page entreprise est représentative (aucune pub, clarté des informations …) ex: -http://pro.annuairefrancais.fr/75/2855666-iclg-informatique-75011-paris-75.html.

Cela ne signifie pas que la pertinence est au RDV pour Google vu que le site est encore bloqué aux robots durant cette restructuration, mais nous savons que nous ne pouvons pas rendre meilleur service aux utilisateurs en tout cas.

Jori 24 octobre 2011 - 10:52 - Répondre

à ce niveau, on peut parler tout de suite de LSA. Mais même si c’est une volonté de la part de Google d’aller vers ça, ce n’est pas encore tout à fait en place, loin de là. Par contre, faire correspondre un texte à ce que les gens cherchent et tapent, ça fonctionnera toujours.

Fanny Sylvestre 21 octobre 2011 - 19:34 - Répondre

Merci pour cette synthèse. Depuis toujours, dès qu’on cherche à faire un pas en avant pour comprendre et mettre en œuvre ce qui fonctionne, ça fonctionne un temps mais Google en fait deux de plus pour nous contrarier ! Y fait rien qu’à nous embêter ! :-) le terme SEO n’aura peut-être plus de raison d’exister à ce train-là… ^^ il faudra utiliser le terme HUO (happy user optimization) :-)

Jori 24 octobre 2011 - 10:57 - Répondre

J’aime ce nouvel acronyme, adopté!

Jean-Louis Bourghol 21 octobre 2011 - 20:54 - Répondre

En réaction à ce que Stéphane Lanteri à dit : [...]Mais quand tout les gros seront en première page, qui va acheter des adwords ? [...]
Je réponds : les mêmes. Le naturel ne remplace pas le payant et vice versa. Chacun sa cible, chacun son territoire.

Jori 24 octobre 2011 - 10:58 - Répondre

Les deux se complètent, même.

Aurelien 21 octobre 2011 - 21:17 - Répondre

Merci beaucoup pour ce résumé.

kais 27 octobre 2011 - 23:14 - Répondre

rencontre en ligne.rencontre gratuit.rencontre tout le monde.rencontre.tchat.tchatagratuit.tchat tout le monde.annonce

Leref 21 octobre 2011 - 21:24 - Répondre

Merci pour cet article qui met (ou remet) certaines idées en place. Google a en effet bien changé et tous les référenceurs ont pu s’en rendre compte, il y a des tournants à prendre et il va falloir de plus en plus s’adapter aux changements pour éviter de foncer bêtement dans le mur !
Tout à fait d’accord sur le fait que certaines évolutions ont du en dérouter plus d’un, le tout est d’analyser ses « pertes » comme ses « gains » pour avoir une idée de la route à suivre (s’il y en a une :)).

Jori 24 octobre 2011 - 10:59 - Répondre

Il existe quand même pas mal de gens qui passent entre les mailles du filet, malgré tout. Alors ça ne marche pas sur le long terme, mais en attendant, ils se remplissent les poches, se font blacklister, changent de fusil d’épaule et recommencent. Ce sont eux les pires ennemis de la pertinence des résultats, ce sont eux que GG n’arrive pas à combattre.

David Eichholtzer 21 octobre 2011 - 23:47 - Répondre

Bonjour,

Je me suis farci les 125 pages finalement, c est long mais vraiment bien structure, c est a lire et a mémoriser, comme un fondement de notre boulot !
Disons que ça confirme beaucoup d informations théorisees par les référenceurs depuis un moment.
David

Jean-Patrick Grumberg 22 octobre 2011 - 9:44 - Répondre

@ David Eichholtzer: de quelles 125 pages parlez-vous ?

Mon PR est subitement passé de 4 à 0, alors que mon lectorat progresse ainsi que le nombre de liens, je cherche à comprendre pourquoi, donc j’arrive ici : merci google ! Dur dur pour un site politique et qui ne vend rien, d’après ce que je lis ici. Plus de SEO, donc il reste quoi ?

Jori 24 octobre 2011 - 11:00 - Répondre

Un conseil : oubliez le PR. Concentrez-vous sur vos visiteurs.

Nicolas 22 octobre 2011 - 11:49 - Répondre

Bon résumé, le vrai travail du « SEO » est de comprendre avant tout les intentions et motivations des internautes.

« faire, savoir, aller » me fait penser à « AIDA » qui se traduirait par un classement des requêtes en phase de « découverte », « comparaison », « achat ». On peut encore penser à « navigationnel », « transactionnel » ou « informationnel ».

Maintenant, comme donner en exemple avec la requête « Galaxy Nexus », le besoin est peut être mal exprimé : de l’information et/ou acheter ? Tout va dépendre de l’historique de navigation/recherche et c’est ce qui est le plus difficile à comprendre pour un « SEO.

Ainsi, une fois le besoin exprimé identifié, reste à proposer une offre (un contenu, un service) adapté (de qualité). Pour cela, il me semble intéressant de suivre les bonnes pratiques de qualité du projet Opquast dans lesquels on retrouve de nombreux critères de qualité d’une page.

Jori 24 octobre 2011 - 11:02 - Répondre

Tout à fait d’accord avec vous. En résumé, de plus en plus, un SEO deviendra également un ergonome, un marketeur, un rédacteur de contenus, et ainsi de suite.

SEO : le chef d’orchestre. Pas un petit gars qui travaille dans son coin.

Ringout 07 novembre 2011 - 20:38 - Répondre

Je pense aussi que dans les prochaines années sans une grande structure de travail ou une organisation et une répartition parfaite des tâches il sera de plus en plus difficile de ranker surtout dans les domaines concurentiels.

Philippe 22 octobre 2011 - 17:26 - Répondre

Merci pour ce résumé, car lire le document sur les recommandations au Quality Raters de Google en anglais n’est pas facile pour tout le monde.

Samuel 22 octobre 2011 - 18:32 - Répondre

Merci pour ce résumé qui me conforte encore et toujours dans l’idée de faire des sites à forte valeur ajoutée.
PS : j’ai découvert votre blog grâce à Vince de encoreunblogseo et en suis fort aise, continuez le bon boulot les gars. ;)

José da Silva 24 octobre 2011 - 14:56 - Répondre

Merci à lui alors!

Busfront 24 octobre 2011 - 19:39 - Répondre

Merci de ce résumé qui me conforte dans mes choix pour mes clients :)

Tutoriaux Webmasters 28 octobre 2011 - 8:43 - Répondre

Merci pour cet article de qualité.
En résumé « Content is king » !

Vincent 02 novembre 2011 - 15:30 - Répondre

J’avais osé louper cet excellent article. Une bonne piqure de rappel avec un très bon article comme on en lit rarement (la preuve je laisse même un pti commentaire) ;)

Buzz 03 novembre 2011 - 15:01 - Répondre

Un article très sympa effectivement ! Malgré tout ce que je peux lire, je me pose quand meme une question sur la pertinence des resultats par google. On nous rabache souvent les oreilles sur le fait que le contenu est roi et qu’une mpise à jour régulière du site/blog est necessaire pour apparaitre dans les bonnes graces du dieu Google.

Mais que penser alors quand je vois dans les premiers resultats affichés par google sur des dizaines de mots cles des sites qui ne sont plus à jour depuis… 2007 ! Ou est la pertinence dans tout cela ? Alors d’accord, le contenu du site est peut etre toujours en adequation avec ce que cherche le visiteur mais a quoi bon vouloir continuer a proposer du contenu nouveau si GG n’en tient pas vraiment compte ?

Amister - le roi du cadeau personnalisé 03 novembre 2011 - 19:20 - Répondre

Entièrement d’accord avec Buzz. Je ne comprends d’ailleurs pas pourquoi des référenceurs professionnels s’obstinent à parler de « contenu roi », de penser « internaute au centre des intérêts de Google », alors qu’il parait plutôt clair que la pertinence n’est pas autant au rendez-vous qu’elle devrait l’être compte tenu de toutes ces formidables modifications d’algorithme dont on nous loue les mérites… Elle est certes meilleure que pour d’autres moteurs de recherche mais il doit forcément y avoir des facteurs obscurs (pas forcément des intérêts commerciaux) qui balaient l’idée du contenu roi.
Le nombre de fois où je suis obligé de passer en recherche avancée pour ne pas avoir des résultats qui datent de plus de 2 ans… Le nombre de fois où je suis obligé d’utiliser la navigation anonyme pour ne pas voir mes bookmarks dans les 5 premiers résultats… En quoi est-ce pertinent de me présenter des résultats qui sont dans mes favoris alors que je pourrais y aller directement sans passer par GG ?

Barriere 16 novembre 2011 - 12:14 - Répondre

Merci pour ce très bel article qui permet de mieux comprendre la façon dont Google fonctionne.

Cibleweb 16 décembre 2015 - 18:09 - Répondre

L’arrivée du web mobile va considérablement faire évoluer le regard de Google sur le web. Avec de plus en plus de requêtes effectuées depuis le mobile, cet aspect va faire grandement évoluer le référencement.