Google va favoriser les sites « de haute qualité » dans ses résultats

Des effets sur les sites qualifiés de « sains » par Google

Google anticipe déjà quelques grincements de dents : « Nous ne pouvons pas apporter une amélioration importante sans affecter le classement (« ranking ») de nombreux sites ». C’est ainsi que certains vont voir leur classement augmenter, d’autres être rabaissés. « Google dépend de la haute qualité des contenus créés par de merveilleux sites à travers le monde et nous avons la responsabilité d’encourager un écosystème web sain.»

Le moteur prévient que cette mise à jour n’est aucunement liée à l’extension Chrome qui permet depuis peu de dénoncer au moteur les « fermes de contenus », ces sites au contenu « dortoir » artificiels, dont la seule vocation est de grappiller des places dans les résultats. Le moteur admet cependant avoir comparé la liste des sites dénoncés par les utilisateurs et les effets du nouvel algorithme. Selon ses constats, le nouveau classement a bien impacté 84% d’entre eux.

Google ne donne cependant aucun détail sur l’exact impact de sa nouvelle alchimie sur les sites jugés « sains » selon ses critères.

Google, les contenus « illicites » et ceux labellisés par Hadopi

Le diable est dans les détails. Par exemple, Google a pris voilà peu des mesures pour vidanger les contenus un peu trop « pirates » de son mécanisme d’autocomplétion, sans jugement, sans notification particulière. Google avoue aujourd’hui simplement, qu’ « il est important pour les sites de haute qualité d’être gratifiés et c’est exactement ce que ce changement fait ».

Soulignons cependant que Google s’était opposé au mécanisme de surréférencement des offres légales labellisés par l’Hadopi dans les résultats de son moteur. A l’époque, Google France affirmait :

« Un moteur de recherche tel que Google détermine les résultats d’une recherche automatiquement sur la base d’algorithmes. Il n’y a pas d’intervention humaine qui viserait à juger qualitativement chaque site, une telle intervention humaine serait incompatible avec la taille de la Toile qui augmente de façon exponentielle. Nous espérons vivement qu’il s’agit ici d’un malentendu découlant d’une formulation sujette à interprétation. Ce serait aller loin que de demander aux moteurs de recherche de surréférencer certains sites labellisés, cela constituerait une forme de censure. De plus une telle demande méconnaîtrait le fonctionnement automatisé des moteurs de recherche. Nous espérons qu’il ne s’agit pas là de la véritable intention du legislateur ».

Rédigée par Marc Rees le vendredi 25 février 2011 à 09h06 PC Inpact

Laisser un commentaire