Blog
L’analyse de logs en SEO : pourquoi faire ?
- 19/08/2022
- Posted by: Babbar
- Category: SEO
Le SEO (Search Engine Optimization) recouvre un large champ d’actions à mettre en place pour espérer gagner en visibilité sur les moteurs de recherche. Le référencement naturel d’un site web est une succession de processus à mettre en place, d’analyses à réaliser pour espérer gagner des places dans le positionnement Google. Aussi, parmi les actions à mener : l’analyse des logs. De quoi s’agit-il réellement ? Que sont les logs ? Quelle est leur utilité dans une stratégie SEO ? Tour d’horizon.
Log SEO : qu’est-ce que c’est ?
Dans le domaine du référencement naturel, le log est une ligne d’information enregistrée par le serveur qui gère un site web. Il s’agit donc des données relatives à la requête du chargement d’une page internet, sous l’impulsion d’une recherche effectuée par l’internaute sur un moteur de recherche.
Ainsi, les logs indiquent généralement les données suivantes, réunies en un fichier nommé logs serveur :
- l’adresse IP de la machine de l’internaute à l’origine de la requête ;
- les fichiers demandés,
- les heures,
- les images chargées,
- les fichiers CSS, etc.
Les logs apparaissent sous forme de code HTML, et sont généralement traités par les outils d’analyse d’audience (Google Search Console, Google Analytics).
C’est en analysant ces logs que les experts SEO peuvent adapter la stratégie mise en place autour du référencement naturel d’un site web pour gagner en performance.
Analyser les logs d’un site web revient donc à s’intéresser à la manière dont le moteur de recherche va parcourir le site en question pour en indexer les pages.
Les experts SEO peuvent s’aider de la Google Search Console pour analyser les logs de leur site web mais aussi les crawls Google (Googlebot).
Les objectifs d’une analyse de logs
L’analyse des logs est un audit très précis et poussé d’un site internet. Généralement, les sites concernés par cette analyse doivent avoir un très grand volume de pages pour que les résultats soient probants. A noter que l’analyse des logs prend du temps et demande une expertise du consultant SEO qui en est responsable.
Il s’agit alors de comparer le volume des pages d’un site, triées selon leur catégorie, au trafic SEO qu’elles génèrent. En fonction des résultats, le consultant SEO pourra déceler les catégories à fort potentiel, qui nécessitent peut-être d’être retravaillées pour gagner en visibilité.
Cette analyse des logs permet aussi de :
- gérer la pagination de votre site internet ;
- optimiser le temps de latence et de chargement de vos pages ;
- mettre en évidence les pages orphelines, qui n’ont pas été maillées, ayant donc un effet néfaste sur le crawl budget ou budget d’exploration de votre site ;
- découvrir les pages privilégiées par Google ou le moteur de recherche ciblé ;
- s’assurer que les pages importantes pour votre référencement naturel soient bien crawlées par Googlebot ;
- visualiser les réponses des requêtes d’internautes (301, 404, etc) ;
- identifier les erreurs techniques de votre site, négatives pour votre référencement naturel.
En résumé, il s’agit de s’assurer que le crawl de Google est totalement optimisé en fonction de la stratégie de votre business.
Crawl Google : qu’est-ce que c’est ?
Afin d’indexer les pages web sur internet, les moteurs de recherche utilisent des robots, aussi appelés Spiders ou Crawlers. Ces robots passent en revue l’intégralité des pages internet pour les trier lors des requêtes des internautes.
Le robot de Google est le GoogleBot.
Le crawl d’un site web est un processus en trois étapes, réalisé par le robot de Google :
- Dans un premier temps, Googlebot va atterrir sur l’une des pages web du site, par exemple, la page d’accueil.
- Le robot va sauvegarder le code HTML de la page web en question (d’où l’importance d’optimiser chaque balise de votre page internet pour garantir de belles performances en référencement naturel).
- Le robot va ensuite suivre les liens de vos pages (liens internes et externes). On comprend alors le besoin indispensable de mailler l’intégralité des pages web de votre site, avec cohérence, en choisissant les bonnes ancres et les bonnes redirections. Plus les liens sont pertinents et nombreux, plus Google indexera vos pages.
Il faut savoir que Google dispose d’un budget crawl, c’est-à-dire d’un nombre maximal de pages à visiter selon différents critères, relatifs aux Core Web Vitals :
- La vitesse de chargement de votre page ;
- La qualité du contenu proposé ;
- Le nombre de liens de la page ;
- La mise à jour régulière du site.
Plus ces facteurs seront performants, plus votre site sera crawlé par Google et donc indexé sur le moteur de recherche.
A noter : les robots sont aussi capables d’analyser les versions mobiles des sites web. Pensez donc à optimiser votre version mobile-friendly pour garantir votre visibilité sur les moteurs de recherche multisupports.
L’analyse des logs répond au crawl de Google. Cette analyse permet à l’équipe SEO d’une entreprise de mettre en place une stratégie de perfectionnement de son référencement naturel bien plus poussée que la simple création de textes optimisés. Il s’agit alors de prendre en considération l’intégralité des fonctionnalités de votre site, les Core Web Vitals, les contenus (articles de blog, textes seo, etc), mais aussi ses aspects techniques, pour garantir une bonne expérience utilisateur et être indexé sur les moteurs de recherche.