Guide : comment diagnostiquer une perte de trafic naturel en 4 étapes

L’une des plus grandes frustrations pour tout gestionnaire d’un site Internet est sans contredit de voir son trafic naturel chuter, que ce soit de façon graduelle ou subite. La frustration vient souvent du fait que l’on vit cette situation comme une injustice : on travaille fort à mettre des contenus de qualité en ligne, on réfléchit à des promotions et des nouvelles offres, on fait une refonte du design… mais rien ne semble pouvoir renverser la situation : le site continue à perdre le même trafic naturel qui a été si durement acquis dans le passé. Pour le spécialiste SEO, un site en pleine dérive au niveau de son trafic organique représente souvent une excellente opportunité de démontrer son expertise. Aussi excitant soit ce challenge, il faut ne pas perdre de temps et agir rapidement : il faut diagnostiquer les raisons expliquant la chute du trafic, et stopper l’hémorragie. Ce guide visera donc à vous présenter la procédure que j’applique lorsque je débute un mandat teinté par une perte de trafic naturel. Dans 99% des cas, cette marche à suivre me permet d’identifier rapidement les causes expliquant le déclin, et permet ainsi d’agir rapidement. Si votre site perd son trafic naturel depuis un certain temps, voici le processus que je vous recommande de suivre.

Avant l’analyse : comprendre le contexte et poser les bonnes questions

D’entrée de jeu et avant de se lancer dans toute analyse, il est important de comprendre le contexte de la chute. Que l’on soit spécialiste SEO ou tout un webmestre désireux de trouver la vérité, le travail sera immensément facilité si on peut obtenir des indices sur les éléments déclencheurs. Ainsi, on commence par poser les bonnes questions au client. S’il s’agit de son propre site, on réfléchit, entre autres, aux éléments suivants :
  1. Est-ce que la chute du trafic naturel coïncide avec un quelconque déploiement, par exemple une refonte du site ou un déménagement ? Avons-nous déplacé une section de contenu, voire supprimé d’anciennes pages qui généraient du trafic?
  2. Est-ce que l’industrie dans lequel le site opère se porte bien, ou un certain ralentissement est observé ? Souvent en jasant avec les concurrents et/ou les fournisseurs, on peut obtenir le pouls de l’industrie, et savoir ainsi si un certain ralentissement est observé.
  3. Est-ce que les internautes ciblés ont un comportement saisonnier ? Par exemple, si le site opère dans l’industrie immobilière, il sera normal d’observer moins de trafic en automne, par exemple.
  4. Est-ce que des nouveaux joueurs ont fait leur apparition sur le marché, le genre de marque crédible qui lance un nouveau service et ainsi récupère le trafic naturel?
  5. Est-ce que nous avons ralenti les efforts en marketing et publicité ? Par exemple, un arrêt des publicités dans les médias traditionnels, une activité diminuée sur les réseaux sociaux ou la mise en pause d’une stratégie de contenu ?
  6. Finalement, une question qui pourrait expliquer bien des choses… s’il s’agit du site d’un client, est-ce que celui-ci travaillait avec une agence SEO lorsque la chute s’est déclenchée ?
Si nous sommes chanceux, une simple réponse à l’une de ces questions vous aiguillera sur la bonne piste, et en conséquence, à mettre en place les actions nécessaires pour renverser la tendance. Par exemple, de réinvestir en publicité, ou sinon la réalisation que l’industrie au complet tourne au ralenti. Si au contraire l’explication ne vient pas suite aux questions, aucun problème, il est simplement temps de se retrousser les manches, et plonger dans le processus d’analyse présenté dans les sections suivantes.

Première étape : comparer le déclin avec les mises à jour de Google

En premier lieu, il faut rapidement éliminer une cause qui est de plus en plus fréquente : les mises à jour d’algorithme de Google. Ainsi, la première étape consiste à identifier, voire éliminer, la possibilité que la chute du trafic soit le résultat d’une intervention de Google, qu’elle soit algorithmique ou manuelle. Et pour déterminer si Google est en cause, il faut faire une corrélation entre le moment où le site a commencé à perdre son trafic naturel, et les principales dates connues des mises à jour de Google. Deux choix s’offrent à nous pour tenter cette analyse de corrélation :
  1. On peut effectuer cette analyse à la main et comparer avec les plus importantes mises à jour, par exemple cette liste de Moz.
  2. On peut aussi utiliser des outils spécialement conçus pour cette tâche. Personnellement j’aime bien l’outil « Panguin tool » de l’agence Barracuda qui, à l’aide de votre profil Google Analytics, fait une corrélation de votre trafic naturel via les dates connues des mises à jour de l’algorithme de Google : barracuda-v2
L’exemple ci-haut est évidemment très facile à diagnostiquer, ce qui n’est pas malheureusement toujours le cas. Deuxième outil un peu plus complet – Le « Penalty checker » de Fruition, qui prend non seulement plus de mises à jour en compte (exemple la mise à jour Phantom), mais définit également un pourcentage de chance qu’une mise à jour en particulier ait touché votre site : fruition Si vous êtes « chanceux » et que les outils indiquent que votre site a fort probablement été touché par une mise à jour de Google, et bien vous avez donc entre les mains la piste qui peut mener jusqu’à l’élucidation de votre enquête. Votre analyse devient donc à ce moment principalement concentrée sur les critères de la mise à jour responsable, par exemple les facteurs au niveau de la qualité contenu et/ou l’engagement. Si au contraire vous ne pouvez tracer de corrélation entre le trafic de votre site et les mises à jour de Google, il faut donc creuser un peu plus loin, et passer à la deuxième étape.

Deuxième étape : analyser les sections du site ayant perdu du trafic

Que le problème soit causé ou non par une mise à jour de Google, il est toujours recommandé de plonger dans l’analyse des statistiques du site en question, et tenter de découvrir des indices supplémentaires. Avant de plonger dans les données, il faut avant tout identifier la date associée au début de la glissade. Avec l’aide de Google Analytics ou tout autre outil d’analyse d’audience, on remonte dans le temps pour tenter de déterminer à quand remonte la perte de trafic naturel. Est-ce que le site perd du trafic naturel depuis 3 mois, 6 mois, 2 ans? Identifier la date coïncidant avec le début du déclin du trafic nous permettra d’établir une date de comparable pour l’analyse à venir. Maintenant que vous savez à quand remonte la perte de trafic, notre analyse peut commencer. Toujours dans Google Analytics, la prochaine action consiste à activer le segment « trafic généré par les résultats naturels », qui permet de dissocier le trafic naturel du trafic global, et ainsi concentrer les statistiques sur le trafic organique. segment trafic naturel Une fois le segment activé, on navigue à la section « Comportement » et « Contenu du site », et finalement au rapport « Pages de destination »: pages de destination Rapide parenthèse : à mon avis, « Pages de destination » est l’un des plus importants rapports dans Google Analytics, car il contient la liste des principales portes d’entrées de votre site. Lorsque combiné avec le segment du trafic naturel, nous avons un puissant indicateur de la performance SEO de votre site. On voit ainsi rapidement quelles sont les pages internes qui génèrent du trafic naturel, et à l’inverse, si des pages que l’on croyait importantes sont absentes. Pour pleinement exploiter les données des pages de destination, il faut s’assurer de sélectionner les bonnes dates d’analyse. On sélectionne la période de temps couvrant la chute de trafic, soit depuis le début de la glissade jusqu’à la date la plus récente, et on active la comparaison avec la période précédente, avant le déclin du trafic. Notre objectif : identifier si des pages internes ont enregistré une baisse de trafic naturel notable depuis le début de la chute, comparativement avec la période précédente. Dans le rapport des pages de destinations (toujours avec le segment du trafic naturel activé), on cherche les pages affichant les plus fortes baisses de trafic : cHRM chunklen 32 ignored: ASCII: ..z&..€„..ú...€è..u0..ê`..:˜...p HEX: 00007A26000080840000FA00000080E8000075300000EA6000003A9800001770 À travers cette analyse, nous devons rapidement clarifier un point, soit si le déclin du trafic est observé à une ou quelques pages, ou plutôt est répartie à l’ensemble des pages du site. Cette observation est très importante. Si vous remarquez que la perte de trafic est attitrée à une ou quelques pages, cela veut dire que ces pages sont au coeur de la baisse de trafic. Si tel est le cas, on concentre donc notre analyse sur ces pages, et on tente de savoir si elles ont été modifiées, voir si elles sont encore accessibles, bref pourquoi ces pages qui attiraient autrefois du trafic naturel ont des difficultés présentement. Si dans le cas contraire où la chute de trafic est plutôt observée à la presque totalité des pages internes du site, et bien, nous avons une autre étape d’analyse à accomplir avant de crier mission accomplie.

Troisième étape : vérifier les URL de destination avec un crawler

Maintenant que nous avons identifié les pages jouant un rôle clé dans la perte de trafic, nous allons tenter de savoir si celles-ci sont toujours accessibles. Voici la marche à suivre : 1) Toujours dans Google Analytics, nous allons exporter la liste des pages de destinations ayant connu une chute importante de leur trafic, soit celles identifiées à la deuxième étape. 1) On navigue au rapport « Pages de destination », on met les bonnes dates d’analyse en place, et on s’assure d’avoir le segment « Trafic naturel seulement » activé. On débute par changer le nombre de lignes affichées, en sélectionnant un minimum de pages qui vous permettront de bien analyser la situation. Par exemple, si vous analysez un site volumineux, vous voulez probablement inclure un minimum de 1000 pages et plus. google_analytics_-_nombre_de_lignes-v2 2) Maintenant que nous avons le rapport de pages de destinations avec le bon nombre de lignes, on clique « Exporter » en haut de page : exportation URL-v2 Le format de fichier est selon votre préférence; en ce qui me concerne, je préfère travailler directement avec Microsoft Excel. Je choisis donc « Excel (XLSX) » : 3) L’ouverture du fichier Excel nous amène sur une belle liste d’URL… Mais sans le domaine. Pour pouvoir analyser ce fichier, il faut ajouter le nom de domaine devant les URL de pages, afin d’avoir les adresses des pages complètes. Ceux qui connaissent bien Excel savent probablement comment ajouter une colonne et ensuite utiliser la fonction « And » pour combiner les informations de deux colonnes. Sinon voici la procédure: a) À gauche de la colonne A (pages), on ajoute une colonne à gauche, qu’on nomme « Domaine ». b) À droite de la colonne « Pages » (maintenant la colonne B), on ajoute une colonne vide, qu’on nomme « URL». c) Dans la nouvelle colonne A (Domaine), inscrivez le nom de domaine de votre site. Par exemple, « www.davidcarlehq.com », dans chaque cellule de la colonne A. d) Dans la nouvelle colonne C (URL), entrez la formule =A2&B2 dans la cellule C2, ce qui combinera l’information de la colonne A (Domaine) avec la colonne B (Page). On ajoute la formule pour chacune des cellules dans la colonne C. e)Si vous avez bien suivi la procédure, la colonne C (URL) devrait maintenant contenir donner les URL complètes des pages. URL export 4) Maintenant, nous avons besoin d’un outil pour crawler les URL que nous avons exporté. Pourquoi? Car nous voulons analyser le code de réponse serveur des pages, pour identifier toute potentielle erreurs techniques avec ces URL. À partir du fichier Excel, on copie les URL de la colonne « C », et on ouvre notre logiciel favori de crawl d’URL. Dans mon cas, il s’agit de Screaming Frog, un outil essentiel pour tout SEO qui se respecte. Dans la fonction « Crawl », j’entre les URL de mon fichier Excel, et on démarre le crawl… screaming frog2 Oops! Dans les boîtes de réponses du statut, on note beaucoup de code 404… ainsi que des 403, 301 et 302. Nous avons donc la preuve, rapport de Crawl à l’appui, que les URL qui autrefois généraient du trafic naturel, ont été en majorité supprimées, redirigées, ou ne sont plus accessibles. Dans tous les cas, voici ce qui explique ce cas précis de chute de trafic. Les pages « piliers » du trafic naturel ont été modifiées et n’ont plus le même potentiel qu’auparavant. Quel que soit le cas que vous examinez, je vous invite à faire le test. Je vous garantis que vous découvrez probablement beaucoup d’erreurs également.

Quatrième étape : corriger les erreurs, mettre à jour la stratégie… et relancer la machine**

Nous arrivons finalement à la dernière étape de notre analyse. Avant de poursuivre, débutons par un léger récapitulatif des trois premières étapes : Premièrement, nous avons comparé la chute du trafic du site avec les mises à jour de Google. Notre intention était de voir si le déclin du trafic pouvait être blâmé sur une récente mise à jour de l’algorithme. Deuxièmement, avec l’aide du rapport des pages de destination et du segment de trafic naturel, nous avons identifié si la perte de trafic était liée à quelques pages précises, ou dans le cas contraire à l’ensemble des pages du site. Troisièmement, nous avons identifié les pages de destinations qui étaient autrefois des piliers pour le trafic naturel, mais dont le déclin du trafic naturel coïncide avec la descente du site. Nous avons passé les pages dans un crawler, et obtenus des codes d’erreurs pour la plupart d’entre elles. La quatrième étape, quant à elle, est probablement la plus importante, alors qu’il est maintenant temps de préparer un plan d’action visant à corriger les faiblesses. En effet, les trois premières étapes avaient pour objectif d’identifier les raisons de la chute de trafic naturel, soit l’une ou plusieurs des raisons suivantes : Une chute causée par une mise à jour de Google, tel que le Panda. Une chute de trafic liée à une ou quelques sections particulières du site. Une chute de trafic causée par des URL supprimées et/ou redirigées. Maintenant que la cause est identifiée, il est maintenant temps de remettre votre chapeau d’expert SEO et proposer les solutions visant à corriger les problématiques :
  1. Si la chute est causée par le Panda, vous devez vous concentrer sur l’amélioration de l’expérience utilisateur et les taux d’engagement, sans oublier la profondeur et la qualité du contenu, principalement.
  2. Si le trafic perdu vient d’une section ou deux, renforcez celles-ci en développant la profondeur du contenu, en améliorant la navigation interne, ou tout simplement en analysant la concurrence vis-à-vis les mêmes mots-clés.
  3. Si les pages qui généraient autrefois du trafic ont depuis été modifiées, il faut les corriger, par exemple éviter les pages 404, les redirections temporaires 302, et vérifier si les redirections 301 pointent vers des pages de qualité équivalentes.
Par expérience, près de 90% des dossiers où un site perd du trafic naturel seront élucidés par l’une des trois réponses ici haut. Par contre, si le dossier que vous étudiez ne semble pas trouver réponse parmi les trois solutions ci-haut, ne vous découragez pas, le problème n’est pas au niveau technique, mais est probablement lié à des effets externes : ralentissement de la demande, diminution des efforts marketing ou augmentation de la concurrence. Ainsi, vous devez repartir la machine au niveau des efforts marketing, améliorer les stratégies de contenu, et analyser si le site n’est pas simplement déclassé par ses concurrents.

Conclusion

J’espère que vous avez apprécié ce guide, et qu’il vous sera utile la prochaine fois que vous devrez analyser un site qui éprouve une descente de son trafic naturel. Merci d’avoir lu jusqu’ici, et n’hésitez pas à laisser un commentaire sur les autres techniques et astuces utiles dans ces mêmes cas.

Vous avez apprécié cet article ?

Inscrivez­-vous à l’infolettre DCHQ afin de recevoir en primeur les derniers articles de ce blogue.

Laissez un commentaire