Lun - Ven 08:30-19:00
contact(@)pappleweb.com Appelez-nous ! 04 58 10 14 58
Lun - Ven 08:30-19:00
contact(@)pappleweb.com Appelez-nous ! 04 58 10 14 58

L’analyse des logs SEO

Accueil / L’analyse des logs SEO

Vous cherchez à améliorer les performances SEO de votre site internet ? Il semble que la réponse se trouve dans l’analyse des fichiers de logs. En effet, grâce à ces données, vous serez en mesure de comprendre comment est crawlé, analysé, indexé et classé votre site internet par les moteurs de recherche. Il vous est alors plus facile d’améliorer votre classement, augmenter votre trafic, faire évoluer votre taux de conversion, etc.

Définition d’un fichier de log serveur

Il s’agit d’un fichier, fait à partir d’un serveur web, qui répertorie toutes les requêtes reçues par le serveur. Ces données sont stockées et recensent des informations telles que :

  • L’heure et la date de la requête.
  • Le serveur IP.
  • L’URL demandée.
  • Le contenu demandé.
  • L’user agent du navigateur.
  • Le nom de l’hébergeur.
  • Les octets téléchargés.
  • etc.

Pourquoi analyser les fichiers de logs en SEO ?

Analyser les fichiers logs vous aide à comprendre comment les robots des moteurs de recherche crawlent votre site internet. Grâce aux requêtes enregistrées sur le serveur internet, vous êtes en mesure d’analyser le comportement des robots lorsqu’ils ont crawlé votre site web. Comme notamment, de quelle manière est dépensé le budget crawl ? Y-a-t’il des erreurs d’accessibilité durant le crawl ? Si oui, lesquelles ? Quelles pages ne sont pas crawlées et celles qui le sont ?

L’analyse des fichiers logs va aussi vous permettre de mettre en lumière des défaillances au niveau de l’architecture de votre site (pages orphelines, pages inactives, linking interne, profondeur de clic, etc).

Du SEO dans les données de logs

Grâce à l’analyse de logs, vous pouvez étudiez plusieurs métriques qui vont vous aider à booster votre SEO.

Le budget de crawl

Qu’est-ce que le budget crawl ? Il s’agit du nombre maximal de pages que le bot va regarder et indexer de votre site internet. Pour ce faire, plusieurs critères sont à prendre en considération : la vitesse de réponse du serveur, la profondeur des pages, la qualité du contenu, la récurrence des mises à jour, l’autorité du domaine, la popularité du site, etc.

En analysant cette métrique, vous pouvez voir si le budget crawl alloué à votre site internet est dépensé de manière intelligente. Si le robot passe trop de temps à crawler une page qui pour votre business n’est pas intéressante, il est alors pertinent de mettre en place des actions correctives.

Le volume de crawl

Il s’agit du nombre de requêtes faites par les robots des différents moteurs de recherche. Grâce à cette donnée, vous savez quel moteur de recherche à crawler votre site web. Cela peut être intéressant si vous souhaitez être vu par un moteur en particulier, comme par exemple un moteur de recherche étranger (Chine, etc).

La priorité de crawl

Afin d’éviter au maximum que certaines de vos pages ne soient ignorées par les robots, vous pouvez paramétrer la priorité de crawl dans le sitemap XML de votre site. Notez également, qu’une bonne structure de maillage interne pallie parfaitement à ce type de problème.

Date de crawl

En analysant les fichiers logs, vous pouvez également constater à quand remonte le dernier crawl d’une page en particulier. Cette métrique est très intéressante si vous souhaitez indexer rapidement une page.

Les redirections 302

Analyser les logs vous aide à repérer ce type de redirection temporaire qui n’est pas idéale pour un bon SEO. En effet, la redirection 302 ne permet pas de transmettre le jus des liens externes de l’ancienne URL. Préférez plutôt la redirection 301 permanente qui elle transmettra le jus de référencement entre l’ancienne URL et la nouvelle.

Les erreurs statuts codes

L’analyse des logs vous permet de repérer les erreurs 4XX et 5XX qui nuisent à votre SEO. C’est pourquoi il est important de les connaître et de les rectifier au plus vite.
Voici la liste des différentes erreurs statuts codes que vous pouvez trouver :

  • 401 : utilisateur non authentifié.
  • 403 : accès refusé.
  • 404 : page non trouvée (l’erreur statuts codes la plus courante).
  • 500 : erreur serveur.
  • 503 : erreur serveur.
  • 504 : le serveur ne répond pas.
Besoin d’un conseil ?
Nos experts sont
à votre écoute !

Contactez-nous

Agence web Annecy

Des compétences variées grâce à vos projets et à notre équipe toujours à votre écoute !