Référencement: conseils à un webmestre pour ne pas se faire écraser par un Panda

Votez pour cet article

High Quality Sites Algorithm A.K.A. Panda Update !En avril 2011 Google a lancé une modification à son algorithme appelée « Panda Update ». Cet algorithme a pour but d’éliminer des pages de résultats de Google les contenus de piètres qualités en provenance de « fermes de contenus », des sites à valeur ajoutée minimale et qui créent des dizaines de milliers de pages de résultats simplement pour gagner quelques dollars avec la publicité affichée sur celles-ci.

Ce nouvel algorithme, qualifié par Google d’algorithme High Quality Sites Algorithm, risque d’affecter particulièrement le référencement internet des pages de certains types de sites, particulièrement les sites qui comportent plusieurs milliers de pages avec les caractéristiques suivantes :

  • contenus minces,
  • recopiés d’autres sites,
  • sans valeur ajoutée,
  • à contenu répétitif, dupliqué, indifférencié,
  • pages de catalogues de sites marchands recopiés des pages des fournisseurs,
  • pages de type répertoires et annuaires d’entreprises,
  • pages de type question et réponses (Q&A),
  • fermes de contenus ou répertoires d’articles (ehow.com, article,
  • pages avec peu de liens externes,
  • pages avec peu de liens internes.


Cet algorithme de Google porte une attention particulière aux signaux suivants :

Critères on-page

  • Grand nombre de fautes d’orthographe
  • Grand nombre de publicités par page
  • Faible ratio entre le contenu et la publicité

Critères off-page

  • Peu d’informations de partage social en provenance de sites tels que Bit.ly ou d’autres outils qui raccourcissent les liens, les likes, les partages, les commentaires et les clics en provenance du Social Graph de Facebook, les clics, Tweets et Retweets en provenance de Twitter, de LinkedIn et de son bouton de partage social, ou en provenance de site de partage de signets comme Delicious.
  • Faible popularité générale – nombre de visiteurs uniques
  • Faible portée géographique – nombre de visiteurs en provenance de régions géographiques différentes
  • Faible temps passé sur le site, taux de rebond
  • Faible nombre de visites successives, de revisites

Les pages qui satisfont ces critères sont considérées par Google comme étant de peu de qualité, de peu d’intérêt et sont donc envoyées dans l’index supplémentaire de Google (Supplemental index) d’où elles ont peu de chance d’être sélectionnées pour apparaître dans les résultats de recherches. Ce sont les « limbes » de Google, ou du moins son purgatoire, si ce n’est l’enfer pour les sites qui sont affectés.

Supplemental Index Hell

La mise à jour Panda affecte particulièrement les sites qui disposent de milliers, voire de dizaines de milliers de pages et dont l’analyse révèle que :

  • Celles-ci obtiennent très peu de liens externes ou internes.

Le fait de publier un si grand nombre de pages et qu’elles n’obtiennent presque aucun lien de qualité est un signal pour Google que ces pages sont peu importantes.

L’objectif de Google, qui doit conserver un index (littéralement, une copie complète du web), a toujours été de ne conserver, et de ne promouvoir, que les « meilleures » pages, les « bonnes » pages de qualité.

Anciennement, Google conservait les pages de moins bonne qualité dans un « Index supplémentaire » le Supplemental Index. Les pages qui s’y retrouvaient l’étaient pour 3 raisons principales :

  • Contenus dupliqués
  • Pages sans contenu réel
  • Pages orphelines (sans liens)

Si vos pages étaient affectées vous pouviez y remédier en apportant les correctifs suivants :

  • Contenus dupliqués : apporter des modifications
  • Pages sans contenu réel : ajouter et bonifier les contenus
  • Pages orphelines (sans liens) : ajouter des liens vers ces pages, autant de façons externes qu’internes

Améliorer l’engagement des visiteurs envers votre contenu

Depuis l’arrivée de la nouvelle infrastructure « Caffeine » de Google, et maintenant avec la mise à jour Panda, la recherche sociale est de plus en plus prise en compte et on assiste à un glissement des signaux de qualité pris en compte par Google vers des signaux plus sociaux.

Google détermine maintenant de plus en plus la qualité des contenus en fonction de l’engagement des visiteurs envers ceux-ci.

De différentes façons :

  • Le temps passé sur la page
    Est-ce que les gens passent plus de temps sur le site de vos concurrents que sur le vôtre?
  • Le nombre de pages visitées
    Est-ce que les gens qui viennent sur votre site s’intéressent à votre contenu et visitent plusieurs pages ou quittent-ils rapidement celle-ci?
  • La loyauté à votre « marque »
    Est-ce que les gens qui visitent votre site reviennent le visiter?
  • Le taux de clic
    Est-ce que les gens cliquent sur votre site dans les résultats de recherches? Mais de façon plus importante : est-ce que les gens qui cliquent sur votre site dans les résultats de recherches de Google reviennent en arrière pour recliquer sur le résultat d’un concurrent? Et restent-ils ensuite sur le site du concurrent?

La façon dont les usagers interagissent avec votre site est très importante

Ce sont toutes des choses que Google connaît sur votre site grâce à ses différents outils et services web (Analytics, Google Toolbar, Comptes Google, Comptes Gmail, historique de recherche, etc.).

Amit Singhal de Google, a dit, à propos de l’algorithme Panda, que Google regardait maintenant de nombreux nouveaux signaux ou facteurs qui sont maintenant incorporés dans leur algorithme de classement des sites.

Parmi ceux-ci, on retrouve « la façon dont les usagers interagissent avec un site » :  « Google has said previously that, among other things, it often measures whether users click the “back” button quickly after visiting a search result, which might indicate a lack of satisfaction with the site. »

La récente mise à jour de Google a été conçue pour réduire le classement des sites de faible qualité, donc l’élément clé est de s’assurer que votre site est de la plus haute qualité possible.

Google examine une variété de signaux pour détecter les sites de faible qualité.

Gardez à l’esprit que les personnes effectuant des recherches sur Google ne cherchent généralement pas à voir des contenus minces ou mal écrits, des contenus copiés à partir d’autres sites, ou des informations qui ne sont tout simplement pas très utiles.

En outre, il est important de savoir que le contenu de faible qualité dans une partie d’un site peut avoir un impact sur le classement d’un site dans son ensemble.

Pour cette raison, vous devez faire de votre mieux pour améliorer la qualité globale des pages sur votre domaine. Supprimer les pages de mauvaise qualité, ou mieux les améliorer et les bonifier pourrait aider le classement de vos contenus de meilleure qualité.

Dans une autre entrevue, cette fois au magazine Wired, deux ingénieurs de Google, Matt Cutts et Amit Singhal, donnent d’autres informations :

  • Wired.com: How do you recognize a shallow-content site? Do you have to wind up defining low quality content?
  • Singhal: That’s a very, very hard problem that we haven’t solved, and it’s an ongoing evolution how to solve that problem. We wanted to keep it strictly scientific, so we used our standard evaluation system that we’ve developed, where we basically sent out documents to outside testers. Then we asked the raters questions like: “Would you be comfortable giving this site your credit card? Would you be comfortable giving medicine prescribed by this site to your kids?”
  • Cutts: There was an engineer who came up with a rigorous set of questions, everything from. “Do you consider this site to be authoritative? Would it be okay if this was in a magazine? Does this site have excessive ads?” Questions along those lines.
  • Singhal: And based on that, we basically formed some definition of what could be considered low quality. You can imagine in a hyperspace a bunch of points, some points are red, some points are green, and in others there’s some mixture. Your job is to find a plane which says that most things on this side of the place are red, and most of the things on that side of the plane are the opposite of red.

Et, donc, cela ne peut certainement pas faire de mal de regarder vos pages et de vous poser des questions du type de celles-ci:

  • Vous sentiriez-vous à l’aise de donner votre carte de crédit à ce site?
  • Le site a-t-il des annonces publicitaires en quantité excessive?
  • Pensez-vous que ce site fasse autorité?
  • Est-ce que vous vous sentiriez à l’aise de donner les médicaments prescrits par ce site à vos enfants?

Comme si ce n’était pas assez, Google proposait récemment, toujours par la voix d’Amit Singhal, 23 questions supplémentaires à se poser pour savoir si votre site sera dans la mire ce nouvel algorithme. Ne vous laissez pas écraser par le Panda!

Références

Cet article est le premier d’une série qui portera sur l’algorithme Panda

Crédit photo :
http://www.flickr.com/photos/sky817/2138097450/

 

À lire également :

À propos de Louis Durocher

Consultant principal et président d'Orénoque interactif, l'agence de référencement No1 de Montréal. Son expérience dans le domaine du référencement et du marketing Internet et son expertise technologique lui permettent d'offrir une approche holistique du référencement et du positionnement. +Louis Durocher

,

  • Info

    test