Analyse de logs : orienter efficacement ses actions SEO

Sans recours à l’analyse de logs, on s’évertue parfois à optimiser une page sans qu’elle ne soit explorée ou trop peu pour produire un résultat tangible. L’analyse des logs fournit des informations accessibles nul part ailleurs, et oriente les actions SEO sur des éléments factuels.

Les données présentées dans cet article proviennent d’OnCrawl. Les noms des groupes de pages ont été modifiés afin de conserver la confidentialité du site web (ecommerce) mais cela ne va pas nous empêcher d’étudier les logs dans le menu détail.

Première étape : la configuration du crawl

Avant de me jeter tête baissée dans l’analyse des logs, j’ai configuré mon crawl de manière à isoler mes groupes de pages en fonction des silos définis en amont pour la mise en place du maillage interne. Plusieurs moyens existent en fonction de la configuration de votre site web. Pour ma part, le champ « data-universe » dans le body m’a permis d’isoler mes groupes de pages mais il est aussi possible de le faire via le container Tag Manager par exemple.

Mise en place de la regex
Un grand merci à Erlé qui, depuis le fin fond d’une gare il y a quelques mois, m’a expliqué le fonctionnement de cette partie de la configuration du crawl

Je choisis ensuite de corréler mes données à celles de Google Analytics via l’option d’intégration. À ce stade, la jonction avec les données de Majestic SEO ne m’intéresse pas car les optimisations SEO techniques et éditoriales nous permettent de produire du résultat sans besoin d’acquisition de liens (le pied).

Analyse du comportement du crawl

La répartition des hits (le passage du bot sur chaque page) me permet de connaitre quel bot parcourt le plus mon site web. Une donnée qui ne manque pas de m’intéresser, s’agissant de l’Index Mobile First en cours de déploiement.

Répartition du User Agent

C’est Googlebot Mobile qui explore le plus mon site web (à 54,4%) ! Ce n’est pas forcément une bonne nouvelle car les temps de chargement du site sur mobile ont toujours été plus longs que sur desktop. Pis encore, je sais que le site web est un mauvais élève car les concurrents ont déployé de meilleures optimisations sur ce sujet. Si j’émets l’hypothèse que Google parcourt l’ensemble des sites web de ce secteur d’activité via Googlebot mobile, cela risque de freiner ma progression à court terme (au niveau des positions). L’optimisation des temps de chargement est parfois un lourd et long combat à mener auprès des développeurs. 🙂

Comparaison sectorielle

Le graphique dédié au comportement du crawl m’intéresse par rapport à la diminution du nombre de pages crawlées et de bots hits en date du 8 janvier. Le site web en question est la cible de tentatives de piratage quotidienne depuis de nombreuses semaines, et cela impacte parfois de manière importante le serveur ce qui cause des dysfonctionnements de la classique erreur 500 à la page de paiement qui ne fonctionne plus correctement.

Comportement du crawl

La courbe des pages nouvellement crawlées est aussi plate d’un encéphalogramme plat mais nous allons voir plus tard pourquoi.

Impact sur le SEO

Les données sur l’impact SEO sont riches en enseignement et, pour les besoins de mon analyse, je relève en premier lieu le Fresh Rank. Une mesure mise au point par OnCrawl et qui permet de connaitre le nombre de jours nécessaires avant qu’une page ne génère une visite SEO depuis sa première exploration. Ici, il est question de trois mois. C’est relativement long sachant qu’il s’agit pour l’essentiel de fiches produits qui sont ajoutées tout au long de l’année. L’offre en elle-même n’évolue que très peu (le marché est mature depuis plusieurs années). Le travail commun avec le référencement payant est ici fort utile car la synergie mise en place permet d’activer une campagne agressive de liens sponsorisés les 90 premiers jours suivant l’ajout d’un produit. Par la suite, les liens sponsorisés sont désactivés ou la campagne est moins agressive car le SEO enregistre de meilleures performances en termes de qualité de visite et de génération de chiffre d’affaires.

Impact SEO

Je peux ensuite analyser les visites SEO par groupe de pages, ce qui me permet de confirmer que ce sont les fiches produits qui représentent l’essentiel du trafic naturel capté.

Visites SEO

Les groupes de pages Orange, Jaune et Vert constituent les pages sur lesquelles le mot-clé principal subit une très forte concurrence. De plus, malgré des positions qui varient entre 3 et 8 sur la première page des résultats de recherche, la notoriété active de certains concurrents disruptent les CTR théoriques associés à chaque position. L’arrivée récente d’Amazon côté payant a également rebattu les règles du SERP, et a renvoyé le marché vers une stratégie SEO agressive pour récupérer le chiffre d’affaires perdu via Google Shopping notamment.

L’évolution des pages actives démontre évidemment une évolution au moment des soldes :

Pages actives

Qualité de l’exploration

Globalement, je suis satisfaite des performances présentées ci-dessous. Le cycle de vie des produits étant soumis à de forts changements, notamment en fin d’année et en début d’année, le nombre d’erreurs 404 était considérable en 2016 au moment de la mise en place de la stratégie SEO. L’implémentation de règles de redirection permanente automatique des erreurs 404 en fonction d’une dizaine de scénarios a permis de les éradiquer. Les erreurs 404 affichées ci-dessous (543 au total) concernent les redirections non encore mises en place (l’automatisation s’enclenche après 7 jours, si aucune intervention humaine n’a été détectée).

Qualité exploration
Soulignons que le fait de travailler sur Symfony simplifie grandement les actions de SEO car tout est possible. Nous ne faisons face à aucune contrainte liée au framework, contrairement à Prestashop et Magento par exemple.

Le croisement des données avec Google Analytics

Comportement du bot

Pages uniques crawlées Google

La graphique parle de lui-même. Les efforts SEO à produire sont encore conséquents et cela passe notamment par le maillage interne afin de favoriser l’exploration des pages qui ne sont pas crawlées par Google (je précise que la catégorie qui n’est absolument pas crawlée concerne des URLs générées automatiquement par l’ajout de produits à une « wishlist ». Le résultat est ici à interpréter à l’envers).

Impact sur le trafic

Visites SEO pages uniques crawlées

Les deux premières lignes représentent mes catégories les plus importantes et celles sur lesquelles les actions SEO se concentrent (à l’exception donc des fiches produits représentées sur la dernière ligne). J’ai encore de nombreuses opportunités à explorer.

J’ai ensuite accès à une vue plus fine des visites SEO à partir des pages connues par OnCrawl et Google.

Sessions SEO

Les pages inactives sont relativement importantes sur le site web. De nombreuses pages ne reçoivent pas de visites SEO. Ce sont ces pages là qui, potentiellement, peuvent être optimisées « dans le vent » sans accès aux données de logs. Il est nécessaire de déployer des actions SEO à partir des pages actives pour réduire les taux de pages inactives.

Pages actives SEO

Pages orphelines

Pour la définition, une page orpheline est absente de la structure du site. Autrement dit, aucun lien ne permet d’arriver à elle. Il s’agit ici d’un mauvais maillage interne. Nous avons vu plus haut que nous devons implémenter un maillage interne plus efficient, et cela concerne notamment les pages orphelines présentes en nombre.

Pages orphelines

J’ai ici une vue plus précise des pages orphelines recevant du trafic naturel : il s’agit des pages marques et de certaines fiches produits.

Visites SEO pages orphelines

Quelles actions SEO mettre en place suite à l’analyse de logs ?

OnCrawl recèle de nombreux autres graphiques, de nombreuses autres possibilités de traitement des données et de corrélation à d’autres sources de données (dont Majestic SEO) pour affiner l’analyse. Selon moi, deux axes de travail majeurs se dessinent :

  • L’optimisation des temps de chargement.
  • L’implémentation d’un maillage interne efficient.

En fonction des catégories et des produits sur lesquels il est nécessaire de travailler d’un point de vue marketing et en fonction des données recueillies par typologie de pages, je vais pouvoir mettre en place mes optimisations en priorité sur les pages les plus susceptibles de conduire à un résultat à court terme. OnCrawl permet en effet de connaitre le détail des URLs concernées pour chacun des graphiques, ce qui permet d’orienter sa roadmap SEO sur des pages précises via des éléments tangibles.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Up Next:

Réussir son site ecommerce

Réussir son site ecommerce