
Vous cherchez à améliorer les performances SEO de votre site internet ? Il semble que la réponse se trouve dans l’analyse des fichiers de logs. En effet, grâce à ces données, vous serez en mesure de comprendre comment est crawlé, analysé, indexé et classé votre site internet par les moteurs de recherche. Il vous est alors plus facile d’améliorer votre classement, augmenter votre trafic, faire évoluer votre taux de conversion, etc.
Il s’agit d’un fichier, fait à partir d’un serveur web, qui répertorie toutes les requêtes reçues par le serveur. Ces données sont stockées et recensent des informations telles que :
Analyser les fichiers logs vous aide à comprendre comment les robots des moteurs de recherche crawlent votre site internet. Grâce aux requêtes enregistrées sur le serveur internet, vous êtes en mesure d’analyser le comportement des robots lorsqu’ils ont crawlé votre site web. Comme notamment, de quelle manière est dépensé le budget crawl ? Y-a-t’il des erreurs d’accessibilité durant le crawl ? Si oui, lesquelles ? Quelles pages ne sont pas crawlées et celles qui le sont ?
L’analyse des fichiers logs va aussi vous permettre de mettre en lumière des défaillances au niveau de l’architecture de votre site (pages orphelines, pages inactives, linking interne, profondeur de clic, etc).
Grâce à l’analyse de logs, vous pouvez étudiez plusieurs métriques qui vont vous aider à booster votre SEO.
Qu’est-ce que le budget crawl ? Il s’agit du nombre maximal de pages que le bot va regarder et indexer de votre site internet. Pour ce faire, plusieurs critères sont à prendre en considération : la vitesse de réponse du serveur, la profondeur des pages, la qualité du contenu, la récurrence des mises à jour, l’autorité du domaine, la popularité du site, etc.
En analysant cette métrique, vous pouvez voir si le budget crawl alloué à votre site internet est dépensé de manière intelligente. Si le robot passe trop de temps à crawler une page qui pour votre business n’est pas intéressante, il est alors pertinent de mettre en place des actions correctives.
Il s’agit du nombre de requêtes faites par les robots des différents moteurs de recherche. Grâce à cette donnée, vous savez quel moteur de recherche à crawler votre site web. Cela peut être intéressant si vous souhaitez être vu par un moteur en particulier, comme par exemple un moteur de recherche étranger (Chine, etc).
Afin d’éviter au maximum que certaines de vos pages ne soient ignorées par les robots, vous pouvez paramétrer la priorité de crawl dans le sitemap XML de votre site. Notez également, qu’une bonne structure de maillage interne pallie parfaitement à ce type de problème.
En analysant les fichiers logs, vous pouvez également constater à quand remonte le dernier crawl d’une page en particulier. Cette métrique est très intéressante si vous souhaitez indexer rapidement une page.
Analyser les logs vous aide à repérer ce type de redirection temporaire qui n’est pas idéale pour un bon SEO. En effet, la redirection 302 ne permet pas de transmettre le jus des liens externes de l’ancienne URL. Préférez plutôt la redirection 301 permanente qui elle transmettra le jus de référencement entre l’ancienne URL et la nouvelle.
L’analyse des logs vous permet de repérer les erreurs 4XX et 5XX qui nuisent à votre SEO. C’est pourquoi il est important de les connaître et de les rectifier au plus vite.
Voici la liste des différentes erreurs statuts codes que vous pouvez trouver :
