Faire du SEO négatif… sans liens externes ?

Mythe pour certains, préoccupation croissante chez d’autres, le SEO négatif est sans contredit un thème d’actualité en 2015.

Même si le nombre de cas documentés prouvant la réalité du SEO négatif ne cesse d’augmenter, nombreux sont ceux remettant en cause son existence, choisissant de se fermer les yeux sur une pratique qui vise à volontairement casser la réputation du site Internet d’un concurrent. Même Google choisit délibérément de ne pas aborder le sujet, conseillant du bout des lèvres d’utiliser l’outil pour désavouer les liens lorsqu’on le croit être la cible d’une attaque.

S’il est facile de suivre l’évolution de son profil de liens entrants et remarquer rapidement si son site Internet reçoit un nombre anormal de nouveaux liens externes de basses qualités, la situation peut drôlement être compliquée lorsqu’un concurrent vous attaque sans liens entrants, et ainsi sans laisser de traces.

Le blogueur Bartosz Goralewicz a publié sur son site une étude de cas fort intéressante à ce sujet, qui démontre une escalade dans les tactiques utilisées pour faire du SEO négatif.  Dans cette analyse, on découvre qu’il n’est même plus nécessaire d’utiliser les liens entrants comme arme de prédilection, et que d’autres moyens existent pour détruire la visibilité d’un site.

Aujourd’hui dans cet article, nous analyserons cette étude de cas fortement intéressante portant sur le SEO négatif, et comment l’expérience utilisateur est un facteur central de l’algorithme de Google.

Une attaque sournoise et invisible

L’histoire commence à l’été 2014, période durant laquelle deux sites Internet appartenant à des clients de Bartosz commencent à éprouver des sérieuses difficultés dans les résultats de recherche, et dégringolent de la première page sur laquelle les deux sites se classent pour des mots-clés depuis longtemps acquis. Bartosz, un consultant SEO expérimenté, analyse la situation de fond en comble et améliore/corrige chaque élément pouvant expliquer cette chute, mais sans succès. Clairement, vu que les deux sites sont “propres” en terme de stratégies SEO, Bartosz réalise qu’il y a anguille sous roche.

En analysant les fichiers du serveur d’hébergement d’un des sites, il se rend compte d’un débit de trafic fort inhabituel, aux petites heures du matin :

seo negatif 1

La tactique apparaît alors très simple : tous les matins entre 2 am et 5 am, un fort trafic est généré sur le site Internet du client, dans ce qui semble des bots automatisés, et inonde le serveur du site de trafic et créé une charge presque intolérable en téléchargeant continuellement une image de 5 MB sur le site.

Ainsi, le serveur à peine a répondre à la demande de ce trafic inhabituel, et subit de courtes pannes de services le temps qu’il se remette en ligne. On voit d’ailleurs le temps de réponse dans l’encadré rouge de chacun des visiteurs, un temps de chargement plutôt lourd lorsqu’un nouveau visiteur est généré chaque seconde.

La situation semble différente pour le deuxième site. Après enquête (les détails demeurent obscurs), il semble que la chute du deuxième site provient d’une attaque visant le taux de clic naturel du site. En effet, un concurrent ou autre utilisateur malveillant aurait programmé un bot reposant sur un fonctionnement à la fois simple et diabolique : le bot doit lancer plusieurs fois par jour la même requête comprenant le mot-clé de la marque du site en question, et cliquer sur tous les résultats naturels sauf le site Internet du client. Pour vous aider à visualiser, c’est exactement comme si un nombre massif d’internautes cherchent chaque minute le nom de votre marque ou domaine Internet, et ne cliquerait jamais sur votre résultat, même s’il apparaît premier et en tête de liste.

Ainsi, la théorie de Bartosz est que Google se laisserait berner par les attaques où le résultat est que le site du client possède un énorme taux de rebond organique, et n’est jamais sélectionné par les utilisateurs de son moteur de recherche, même si ceux-ci sont en réalité des bots.

Bien sûr, cette explication pour le deuxième sabotage semble à première vue tirée par les cheveux, et l’hypothèse de Bartosz fait l’objet de nombreux débats dans les forums SEO.

Donc, une seule façon de vérifier la validité de sa théorie, soit en reproduisant le test, sur un site que Bartosz contrôle lui-même.

Un test concluant

Pour le test, Bartosz décide de sacrifier son blogue personnel, ainsi que sa première position naturelle sur le mot-clé “Pingouin 3.0”. Bartosz décide alors de programmer un bot qui possède une seule instruction : durant l’espace d’une journée, soit le 16 août 2014, lancer une requête sur Google à chaque minute pour le mot-clé “Pingouin 3.0” et ne pas cliquer le résultat du blogue de Bartosz.

Ainsi, le bot vise donc à réduire le taux de clic organique du blogue, soit de faire en sorte que ce dernier ne reçoit aucun clic pour un mot-clé pour lequel il se classe pourtant premier sur Google.

Avertissement aux coeurs sensibles, le résultat qui s’ensuit peut faire très mal :

Tableau 1 :

 seo negatif 2

Le tableau ici haut démontre que très peu de temps après le lancement du bot programmé pour ne pas cliquer le blogue de Bartosz, la visibilité naturelle du blogue, mesurée en impressions, chute lourdement sans crier gare.

Tableau 2 :

seo negatif 3

Deuxièmement, grâce à l’outil SearchMetrics, on remarque que le blogue a perdu des échelons naturels, déboulant de la première à la 6e position.

Même s’il s’agit d’un test sur un seul site, et que d’autres facteurs pourraient expliquer cette perte de visibilité, on doit tout de même avouer que la coïncidence est forte, si on choisit de ne pas y croire. Pour ma part, il s’agit d’une étude de cas qui prouve très clairement la pertinence de l’hypothèse de Bartosz, et qui démontre que la guerre du SEO négatif a atteint un niveau supérieur en terme de sophistication.

L’expérience de l’utilisateur : un facteur clé de l’algorithme de Google

Hormis cette démonstration très pertinente d’un possible cas de SEO négatif, une autre découverte que je juge fort importante est la réalisation que l’expérience de l’utilisateur est un élément clé de l’algorithme de Google.

En effet, selon les deux exemples ici haut, soit le premier impliquant le site du client de Bartosz et le deuxième son propre blogue, on voit que le fait de ne pas obtenir de clics dans les résultats de recherche peut être très dommageable pour la crédibilité d’un site. Cela est très logique, puisque Google tient à ce que les utilisateurs soient satisfaits des résultats associés à leurs requêtes.

Si votre site se classe parmi les premiers résultats pour son mot-clé, mais que personne ne clique votre résultat, soit, car la balise description est impertinente ou que votre listing est peu crédible, il est clair que votre site descendra rapidement dans les résultats.

Personnellement, je suis en faveur de cet élément qui vise à récompenser les sites qui font le maximum pour offrir un résultat pertinent aux chercheurs, sous la bonne requête. Ce qui est très dommage d’apprendre, par contre, est qu’il facile de manipuler Google à cet égard.

Et maintenant ?

La suite risque d’être fort intéressante, à savoir si cette technique deviendra monnaie courante, et si elle devient de plus en plus publicisée. Ce qui est inquiétant avec cette forme de SEO négatif sans liens entrants est que cette approche est complètement invisible et transparente. C’est une chose être un stratège SEO d’expérience et savoir où regarder, mais sans aucune façon 98% de mes clients ne sauraient comment identifier cette situation.

Dans tous les cas, un dossier qui sera intéressa à suivre, et qui poussera peut-être Google à avouer avec plus de fermeté la validité du SEO négatif.

Vous avez apprécié cet article ?

Inscrivez­-vous à l’infolettre DCHQ afin de recevoir en primeur les derniers articles de ce blogue.

13 Comments

  1. Bonjour David, merci pour cet article, c’est vraiment très instructif. Étant donné que l’expérience utilisateur joue un rôle de plus en plus grand pour Google, on risque de voir de plus en plus de travers de ce genre. Au delà de la SERP, on peut même imaginer des parcours de navigation de bots sur un site qui amèneraient à faire dégringoler des pages profondes non ?

    Répondre
    • Salut Quentin, merci pour le commentaire. Tu as probablement raison, il est clair que l’étude de cas de Bartosz ouvre la porte ou du moins les esprits à toutes sortes de réflexions sur les possibilités de nuire à un site, ou encore du moins quoi enquêter si l’une de nos page se met à chuter..

      Répondre
    • Merci Yannick, mais vous devez remercier le blogueur Bartosz en premier, je n’ai relaté que ses faits ;-)

      Répondre
  2. Merci pour cet article très intéressant sur un phénomène peu étudié. Si l’expérience utilisateur (clic dans les serp) est bien pris en compte dans l’algorithme Google, cliquer sur un site et revenir immédiatement aux résultats de recherche n’est il pas, autant voir plus négatif ? Un petit test sur la toile ?

    Répondre
  3. Bonjour et Bravo pour cet article très instructif. Il se termine par une note d’espoir…l’expérience utilisateur joue un rôle clé …C’est encourageant, car cela replace bien l’Internaute au coeur des évolutions à venir….c’est au référencement de s’adapter et non l’inverse…une lapalissade peut-être mais qui avait les dents dures il y a encore quelques mois

    Répondre
  4. Je ne sais pas si mon commentaire est passé, du coup je recommence et même complète : je disais donc que même si l’article original est à mes yeux l’article le plus intéressant de 2014 (et par ricoché démontre l’intérêt de celui-ci), je n’aurais personnellement jamais publié. J’ai déjà fait l’expérience il y a fort longtemps d’allumer une mèche sans le vouloir. La réalité, c’est qu’il faut aussi prendre du recul sur ce qu’on écrit. ;)

    Répondre
  5. Ce qui laisse finalement à penser que Google n’est pas sit efficace que ça en terme d’analyse de l’expéreince utilisateur… Qu’il déclasse un site sans se rendre contre d’un activité anormale et de façon chronograhe ouvre la porte à un bons nombre de tactite grey/hat & black/hat à explorer…

    Répondre

Laissez un commentaire