Google exige des sites de qualite !

Google SEO qualitatif

Google SEO qualitatif


Google indique avoir modifié cette semaine le fonctionnement de son algorithme de recherche, de façon à dégrader la position des sites « de faible qualité » au profit de ceux qui produisent des contenus de « bonne qualité ». S’il ne les mentionne pas explicitement ici, le moteur cherche notamment à répondre à la problématique des « fermes de contenu ».

Cette modification concerne déjà 1,8% des requêtes effectuées sur son moteur aux Etats-Unis, indique Google, qui la justifie par la nécessité de favoriser les éléments les plus « sains » de l’écosystème Web. Autrement dit, ce n’est pas le site qui joue au mieux des techniques de référencement naturel qui mérite la première position sur une requête donnée, mais le site qui fournit le résultat plus pertinent. Reste à savoir quels sont les sites qui méritent de voir leur classement amélioré et dans quelle mesure un algorithme peut juger de la « qualité » d’un site ?

« Cette mise à jour a été pensée pour réduire le classement des sites à faible qualité – des sites qui ne présentent que peu de valeur ajoutée pour l’utilisateur, copient du contenu d’autres sites ou ne sont tout simplement pas très utiles. Dans le même temps, elle améliorera le classement des sites de bonne qualité – des sites avec du contenu original, des articles de fond ou des analyses pertinentes, etc. », répond Matt Cutts, ingénieur chez Google en charge des questions liées au référencement naturel.

A l’heure où beaucoup de sites construisent leur audience sur leurs positions, la proposition risque d’en inquiéter plus d’un. « Nous ne pouvons opérer un changement majeur sans affecter le classement de nombreux sites. Certains sites vont donc monter et d’autres descendront », admet Matt Cutts, assurant toutefois que ce changement ne peut entraîner le moteur que dans la bonne direction.

Certains pourraient tout de même grincer des dents, à commencer par les services de type « ferme de contenus », qui tentent de faire produire à bas coûts des contenus optimisés pour permettre une large couverture de l’éventail des requêtes d’internautes, avec un très important travail d’optimisation du référencement naturel.

Google indique par ailleurs ne pas exploiter, pour l’instant, les données remontant de la toute jeune extension Personal Blocklist. En revanche, le moteur se félicite que les sites bloqués soient bien souvent ceux sur lesquels les changements apportés à son algorithme sont sensibles.

Si vous aimez, partagez!

Articles lies:



Laisser un commentaire