Vous êtes ici : Accueil > Le blog > Humeurs et réflexions > SEO : la qualité en question(s)

6

aoû
2014

SEO : la qualité en question(s)

Depuis 2011, avec les débuts du "zoo de Google" [1] , le géant de Mountain View est littéralement parti en guerre contre les techniques habituelles du SEO.


JPEG - 51.9 ko

On peut le comprendre : en basant à l’origine son classement de pertinence sur le netlinking, Google a ouvert grand la porte à toutes sortes de manipulations de son algorithme, dans laquelle se sont engouffrés tous les référenceurs. Ceux que l’on pointent aujourd’hui du doigt comme "Black Hat" n’ont fait qu’industrialiser, en quelque sorte, des techniques que tous les SEO - ou presque - utilisaient plus ou moins parcimonieusement.

Conséquence : le classement des résultats en fonction de leur pertinence par rapport à la requête d’un internaute s’est retrouvé complètement perverti. On ne peut donc pas en vouloir à Google de tenter de remettre de l’ordre dans tout ça.

Le credo de Google, que son porte-parole se plait à répéter à l’envi, est à présent : "Faites du contenu de qualité".

La qualité, parlons-en !

La qualité… bien malin qui peut la définir. Dans sa communication, Google s’en tient le plus souvent à une définition pour le moins simpliste : c’est ce qui intéresse le surfeur. Ah bon ? Et quel surfeur, s’il-vous-plaît-bien ?

Non parce que je ne sais pas vous mais moi, je peux tomber sur un article de grande qualité sur le syndrome de Gilles de la Tourette, ça ne m’intéresse pas énormément. Par contre, si un jour un membre de mon entourage en est atteint, il est fort probable que j’aurai envie d’en connaître davantage sur la maladie.

Si j’arrive, au hasard de mes clics, sur un article décrivant les retombées du sponsoring d’une compétition de curling pour telle grande marque de luxe, fut-il écrit par le meilleur journaliste économique du monde, je ne risque pas de m’y intéresser à moins d’être une grande fan de la marque en question ou marketeur dans le luxe.

La qualité objective ne peut donc être intrinsèquement liée à ce qui intéresse l’internaute à un temps "T".

Les "critères" de Google

Heureusement, sur ses pages dédiées aux webmasters, Google donne quelques indications sur les critères pris en compte… à condition d’aimer les jeux de devinettes. Au travers de quelque 22 questions qu’un humain pourrait se poser pour déterminer si l’info que le site lui donne est de qualité ou non [2], le webmaster, rédacteur ou référenceur doit déduire ce que Google attend de lui pour être séduit. Ces conseils ne sont pas très opérationnels !

JPEG - 42.6 ko

Mais surtout, il me paraît totalement illusoire de croire qu’aujourd’hui, Google puisse répondre algorithmiquement à l’entièreté de cette série de questions. La preuve : une soupe de mots, se succédant sans faire sens pour un humain, peut très bien se positionner sur une thématique si les vocables du "texte-charabia" sont sémantiquement logiques avec cette thématique.

En vérité, il semble relativement évident que Google joue sur le sentiment de peur des référenceurs (notamment en communiquant sur quelques pénalités exemplaires) parce que son algorithme est encore trop faiblard pour réellement distinguer le texte "de qualité".

Les sites qui sont tombés en disgrâce dans le sillage de Buzzea étaient-ils tous de mauvaise qualité ? Certes ils ont triché avec les guidelines de Google, mais étaient-ils pour autant à jeter ?

Parmi les premiers à avoir subi les foudres de Google, on trouve les comparateurs de prix. Voilà qui paraît bien injuste, non ? Un scrapper de prix qui les compare entre eux, c’est a priori intéressant car ça fait gagner du temps ! Oui mais bien sûr, ça faisait de l’ombre à un Google shopping qui s’annonçait…

Le nœud du problème, on y est !

Doit-on considérer comme légende urbaine le fait que Google modifie les résultats en fonction de sa propre stratégie commerciale ? N’étant pas dans ses petits papiers, je n’ai personnellement pas de certitude quant à la réponse.

Quoi qu’il en soit, on ne peut nier qu’en se positionnant de plus en plus comme moteur de réponses plutôt que de recherche d’une part [3], et en développant une offre grandissante de résultats payants d’autre part, Google est à la fois juge et partie. Ce qui pose un réel problème déontologique.

Quelle solution ? Bonne question !

PNG - 44.8 ko

La qualité est une chose trop sérieuse pour être confiée à un acteur commercial. Je me prends à rêver à un W3Q, un consortium international à but non lucratif à la manière du W3C [4], chargé d’évaluer la qualité des sites. La solution se confronte cependant à des questions à résoudre.

  • La technique : comment déterminer la valeur des contenus ?
  • Les moyens : où stocker l’énorme masse des données recueillies ?
  • L’aboutissement : à quoi cela mène-t-il ?

Voici mon humble raisonnement, mais je compte vraiment sur plus spécialistes que moi pour apporter leurs avis et éclairages.

La technique

On ne peut pas comparer le W3C à ce que serait le W3Q. Il est évidemment plus simple de juger de l’adéquation technique d’un code à une norme que d’un concept aussi peu tangible que celui de qualité. Je ne suis pas algorithmicienne mais je crois que l’intelligence artificielle est encore loin d’égaler l’intelligence humaine dans le champ sémantique (et j’ai plutôt tendance à m’en réjouir !).

J’ai néanmoins l’impression que tous les outils existent pour arriver à déterminer si une page livre un texte cohérent et intéressant.

  • Des outils d’analyse sémantique (LSA - Latent Semantic Analysis) existent et certains fonctionnent plutôt bien. Google en a d’ailleurs certainement toute une batterie derrière son moteur.
  • Pour distinguer le texte correct de la soupe de mots, certains outils de correction orthographique et surtout grammaticale ont pu démontrer leur puissance à déterminer la cohérence des phrases (pensons simplement à Antidote, pour ne parler que de lui).
  • L’intérêt de l’internaute peut se mesurer en mettant en relation le taux de rebond et le temps moyen passé sur la page, ce n’est pas un scoop.

Rien que sur cette base, on a déjà un bon début. Il existe certainement encore un tas d’autres outils que je ne connais pas ou auxquels je ne pense pas. La clé est de réunir les bons acteurs dans le W3Q… et pourquoi pas Google lui-même ?

Les moyens

La masse des données recueillies pose un problème de coût de stockage pour un consortium à but non lucratif.

On pourrait évoquer une solution de type peer-to-peer où chaque utilisateur concède quelques mégas d’espace de son disque personnel mais ça me paraît utopique. Quel intérêt direct l’utilisateur percevrait-il, à part ceux qui sont acteurs du web ? Par contre, ne pourrait-on pas imaginer que chaque hébergement de site comprenne automatiquement cet espace où les données seraient stockées cryptées, le tout financé par une augmentation de quelques centimes/euros de notre abonnement annuel ?

L’aboutissement

C’est sans doute la partie la plus hasardeuse du raisonnement. A ce stade, imaginons que nous avons stocké un indice de qualité pour chaque site. Qu’est-ce qui oblige Google à en tenir compte : rien !

Rien, si ce n’est la possibilité de consacrer ses moyens à autre chose. Il a de toute façon suffisamment d’autres catégories de signaux pour conserver son avance sur ses concurrents, et il a plus ou moins emprisonné les internautes dans sa galaxie.

Après avoir claironné à qui voulait l’entendre que son seul et unique objectif était (en douteriez-vous ?) de fournir à l’utilisateur de son moteur les résultats les plus pertinents possibles, peut-il faire l’impasse sur l’indice W3Q sans perdre la face ? Non. Peut-il quand même l’ignorer ? Oui.

La question n’est donc pas entièrement résolue, mais elle faciliterait peut-être l’émergence de concurrents disons… moins cupides. Et rien que pour ça, je continue à rêver à un W3Q.

Tim [5], si tu m’entends…

[1L’expression "zoo de Google", très en vogue dans le monde du SEO, fait référence à une série de modifications majeures de l’algorithme de Google, répondant aux doux noms de "Panda" et "Penguin". Depuis leur introduction, ceux-ci ont fait l’objet de multiples upgrades, au rythme moyen d’une fois par mois, provoquant quelques chutes retentissantes dans le positionnement de certains sites et faisant couler beaucoup d’encre.

[2Par exemple : "Les informations contenues dans cet article vous semblent-elles fiables ?", "L ’article offre-t-il plusieurs points de vue sur ce qui s’est passé ?", "L’article est-il soigné ou semble-t-il avoir été rédigé à la va-vite ?"

[3Durant le mondial de foot, par exemple, Google affichait en live les résultats sur sa page d’accueil, au détriment de tous les sites qui s’étaient sans doute préparés de longue date à se positionner sur cette requête, et que les internautes n’avaient plus guère de raison de visiter.

[4Le W3C (World Wide Web Consortium) est l’organisme qui établit les normes et recommandations en vue d’assurer la compatibilité des technologies.

[5Tim Berners-Lee est le principal inventeur du World Wide Web (www) et le fondateur du W3C.

tags Analytics   •   Google   •   SEO

Vos commentaires

7 Messages


  • 6 août 2014  à 15:48 — Par Sylvain Richard • Site web :

    Il y a deux ans environ, je me suis mis à utiliser Bing car je ne retrouvais plus un article que Google avait dégommé (il n’aimait plus le site qui avait sans doute exagéré à ses yeux).
    Bing l’avait gardé dans son index, merci à lui.

    Tout cela pour dire que cette notion de qualité est très relative comme tu le dis.
    J’avais rédigé un truc à propos de celle perçue par Google d’ailleurs : http://blog.axe-net.fr/qualite-du-contenu-pour-google/

    Dans ma petite histoire, on constate que la qualité n’est pas perçu de le même manière par Bing ou Google, mais les deux utilisent quand même un certain nombre de signaux pour tenter de faire le tri.
    Après, les limites techniques et le coût de mise en oeuvre nivellent forcément. Mais les moteurs se disent sans doute qu’il suffit d’un niveau de qualité "acceptable". La qualité totale n’est sans doute pas leur but, en plus des freins techniques rencontrés.

    Pour revenir à Bing, MS est tout aussi cupide mais je l’utilise maintenant fréquemment.
    Il est aussi bien que Google (aussi pertinent), sa page d’accueil est plus sympa et change tous les jours.

    Sinon, ton W3Q doit faire rêver un grand nombre de personnes !



  • 6 août 2014  à 17:11 — Par Julien • Site web : http://www.soref.fr/

    Salut,
    Une précision me vient à l’esprit en lisant ce passage (je cite) "en basant à l’origine son classement de pertinence sur le netlinking (...)" :

    1/ Le lien EST l’essence même du web. Sans lien, pas de documents interconnectés mais des milliards de milliards de pages dont il faudrait connaître toutes les adresses individuelles à l’avance afin de pouvoir les consulter.

    2 / Il aurait été bien difficile de faire autrement à l’époque du lancement de Google (et des autres) puisque les bases lexicales et autres thésaurus n’étaient pas aussi bien exhaustives et compartimentées qu’aujourd’hui : le nombre de critères pouvant intervenir dans le classement de pertinence s’en trouvait forcément plus limité. Le volume de lien est une métrique très pratique à exploiter, qui ne demande "QUE" de la comptabilité (quantitatif), pas d’analyse qualitative en tant que telle, ce qu’essaie de faire aujourd’hui Google avec un croisement plus fin de ses différents critères, mais également un travail humain collaboratif (quality raters, webspam team).

    Sinon, tout le travail de réflexion de cet article sur l’aspect qualitatif et l’évaluation des contenus est une excellente piste à explorer, bonne continuation :-)



  • 6 août 2014  à 19:31 — Par Carine (eComPosition) • Site web :

    @Sylvain

    Merci pour la référence à ton article qui tantôt confirme, tantôt complète celui-ci. On arrive globalement aux mêmes conclusions : la limite de la machine quand il s’agit de juger de quelque chose qui tient davantage de la perception individuelle.

    @Julien

    Nous sommes d’accord sur le fait que le lien est l’essence du web et que les limites de l’époque rendaient difficiles d’autres critères de classement. D’ailleurs, si l’on y réfléchit, classer les résultats sur le principe "1 lien = 1 vote positif" était plutôt une logique pertinente jusqu’à ce que nous, vilains SEO, pervertissions le système. ;-)

    Ce qui est gênant, à l’heure actuelle, c’est que Google veuille gendarmer sur un critère qu’il ne semble pas (encore ?) avoir les moyens de juger. Et qu’il soit en outre juge et partie, comme je le dis dans l’article.

    En tous cas, merci pour ton appréciation de l’article et tes encouragements.



  • 6 août 2014  à 19:46 — Par Bert • Site web :

    Salut,

    Si tu changes les 2 dernières lettres à ton projet W3Q, tu obtiens WOT, déjà bien en place : https://www.mywot.com ;-)

    Démo au hasard : [edit : lien supprimé]*
    *Ndlr : désolée Bert, si je me montre laxiste dès le début, je suis foutue ! ;-)



  • 7 août 2014  à 20:38 — Par Carine (eComPosition) • Site web :

    @Bert
    Merci de ton commentaire.

    WOT pourrait être intégré comme signal pour le classement d’un moteur de recherche, on peut l’imaginer. Mais quid de tous les sites qui ne sont pas notés ?
    De plus, sauf si j’ai loupé un truc, WOT donne un indice de confiance (genre : vas-y, tu ne vas te faire arnaquer, véroler, ...) mais n’est pas un jugement sur la qualité du contenu.



  • 7 août 2014  à 22:18 — Par Bert • Site web :

    Ah je te proposais juste un W3Q, existant et déjà bien populaire. Après oui, qu’est-ce qu’on fait des sites non évalués ? Ben je leur propose ni bonus (réservé aux sites de qualité = note supérieure à la moyenne), ni malus (réservé aux... oui bon t’as compris).

    Yep, t’as peut-être loupé le second point d’évaluation qui concerne bien la qualité du site, même si c’est pas super clair et bien hiérarchisé. Démo : https://www.mywot.com/en/scorecard/bestbuy.com#comment-list&rate (je sens que je vais encore filer dans tes spams avec ça ^^)

    Sinon, j’ai pas trop capté pourquoi t’as supprimé le lien vers une page de rapport de WOT qui illustre bien l’outil (et sachant que ce n’est pas du tout mon site), mais why not, tu es chez toi !-)



  • 25 novembre 2014  à 12:14 — Par outsourcing madagascar • Site web : http://www.dago-business.com

    Google montre qu’il reste encore le gendarme du monde dans tout le domaine du SEO, mais des concurrents commencent aussi à trouver la lumière. N’est-ce pas !

Vous brûlez d'envie de laisser un commentaire ?

Qui êtes-vous ?
Votre message

 Merci de prendre le temps de lire les conditions d'utilisation du blog avant de poster