En savoir plus
C'est quoi une analyse de logs SEO ?
Une analyse de logs prend la forme d’une présentation qui donnera aux développeurs en charge d’un site web les recommandations utiles à l’amélioration du crawl de Google. Cette analyse permettra d’aider à la désindexation d’URL qui polluent votre visibilité naturelle ou pour le moins à faire cesser leur crawl par Google.
- Identifier les ressources utilisées par Google
- Optimiser la découverte et l’exploration
- Diminuer l’impact énergétique de l’exploration
Accompagnement SEO
Notre méthode
Mener une analyse de logs se fait en plusieurs étapes qu’il ne faut pas négliger sinon on court le risque de passer à côté d’une source de données importante et ainsi fausser les résultats. Des résultats faussés induiraient des chantiers mal priorisés ou inutiles voire même contre productifs pour votre visibilité naturelle.
-
1
Identifier les sources de données à analyser
Pour commencer nous entrons en contact avec votre équipe de développement et plus particulièrement avec les personnes en charge des serveurs qui délivrent votre site. Nous les questionnons alors sur les serveurs, le load balancing, le reverse proxy, le CDN, etc. Le but : comprendre comment le site est connecté au web. -
2
Récupérer les données sur un outil d’analyse
Une analyse de logs peut être ponctuelle ou récurrente. Lorsqu’elle est ponctuelle, le plus souvent la personne en charge des serveurs s’occupe de mettre à disposition un outil d’analyse de logs. Dès lors qu’on souhaite une analyse régulière des logs, il s’agit alors d’automatiser la mise à disposition des fichiers de logs serveur sur l’outil d’analyse prévu. -
3
Vérification & nettoyage des logs
Dès lors que la donnée est mise à disposition de l’outil d’analyse, il faut l’anonymiser en supprimant les adresses IP. Pour ce qui est des hits Googlebot que vous souhaiterez analyser, il faudra également procéder à un nettoyage afin dégager les hits à analyser. Un simple reverse DNS permet de s’assurer que les IP liées à un user agent Googlebot sont bien Googlebot. -
4
Analyse des hits serveur et croisement des données
Dès lors que vous avez nettoyé les données vous pouvez procéder à l’analyse en fonction du volume de hits, de leur fréquence, des URL concernés, etc. Le but est de s’assurer que tout ce qui est observé est normal et souhaité. Il est important de garantir un passage régulier des crawlers sur vos pages dès lors que vous changez certains paramètres comme le prix. -
5
Restituer les conclusions dans une présentation
Une fois l’analyse terminée, il s’agit de présenter aux développeurs en charge du site web les actions à mener pour effectuer les corrections nécessaires. Il sera important de prioriser les corrections en fonction de leur envergure afin de traiter le plus pénalisant le rapidement possible. Une restitution orale aux équipes IT par notre expert SEO permettra de fluidifier les correctifs.
Infos complémentaires