On dit qu’en études de lettres, l’objectif est de réussir à comprendre la pensée d’un auteur et de la restituer par écrit. Il convient d’avoir une autonomie de pensée et un esprit critique. Il y a là un parallèle avec une de mes expériences en SEO.

Rétrospective

En mars 2016, l’agence dans laquelle je travaillais était appelée en renfort suite à la refonte d’un site ecommerce pour lequel le SEO avait été oublié. Dans le cahier des charges du site web que nous nous étions procuré pour étudier le site, un paragraphe de quelques lignes était consacré au SEO : « […] seront conservées les bases actuelles du référencement naturel ». Difficile de comprendre ici l’intention de l’auteur. Il n’était cependant pas difficile de comprendre pourquoi ce même référencement naturel avait été le parent pauvre de la refonte.

La refonte avait eu lieu en novembre 2015. Depuis le jour de la mise en ligne, le trafic organique diminuait de plus en plus au point de perdre plus de 50% dès fin décembre par rapport à l’année précédente. L’impact était encore plus rude sur le chiffre d’affaires. Puis, en mars 2016, seuls les clients historiques et quelques utilisateurs atterrissant sur le site via de la très longue traine représentaient la faible part du trafic organique.

L’enjeu

En tant qu’agence, il ne suffisait pas d’illustrer les problématiques identifiées sur un beau PowerPoint et d’y accoler un budget. Non. Il fallait démontrer que nos actions allaient empêcher notre interlocuteur de fermer son site web pour se reposer uniquement sur son magasin. Du moins, que nos actions allaient lui permettre de sauvegarder son investissement dans le web (le site lui ayant coûté environ 200 000 euros).

Le site était une véritable passoire et chaque élément audité faisait redouter que le trafic plonge encore davantage avant même qu’on applique nos recommandations. L’autre difficulté étant le secteur d’activité : quelques acteurs seulement se partageaient les parts de marché et l’un d’eux, le leader, disposait d’une telle force de frappe qu’il était parfaitement impossible de le rejoindre sur le terrain de la notoriété active. On savait d’avance que l’acquisition de backlinks ne fonctionnerait pas et tant mieux, je n’ai jamais aimé ça. Il fallait donc trouver d’autres facteurs clés de succès.

L’approche SEO sans filtres

A ce stade, j’ai envie de dire que l’audit n’était pas vraiment utile car rien ou presque ne fonctionnait correctement en terme de SEO (je noircis peut-être le tableau mais … c’était vraiment pas beau à voir). J’ai donc passé plus de temps à étudier les requêtes les plus intéressantes en terme de chiffre d’affaires potentiel en prenant évidemment en compte le prix d’achat, la marge, les charges et donc le bénéfice potentiel. Je souligne ici que c’est le seul client (et sans conteste le meilleur) qui ait accepté de partager ce type de données : c’était inestimable en terme de valeur ajoutée dans l’approche SEO. Une fois que j’ai eu analysé les principales requêtes, j’ai analysé les pages cibles des sites concurrents pour essayer de déceler les facteurs clés de succès de l’industrie : quelques-uns sont apparus mais trop peu pour me convaincre d’atteindre un TOP3 sur l’une de ces requêtes.

C’est là où mon introduction prend tout son sens : la clé est venue d’une discussion avec le client où on s’opposait entre recommandations SEO et contraintes business. Notre discipline est reconnue pour être soumise à de âpres débats mais aussi à des compromis.
A l’issue de cette discussion donc, nous faisions tous deux des compromis et on décidait unanimement de penser tout à fait autrement la vision du site ecommerce.

Gamme de produits

On décidait d’abandonner les pages listes interminables en partant du principe que l’utilisateur avait besoin d’être guidé plus précisément jusqu’au produit répondant à sa question puis on réduisait le nombre de produits affichés : un produit disponible en plusieurs tailles, coloris, etc. donnait lieu à une seule fiche produit avec une liste de choix pour ce type d’attributs.

J’avais la chance de pouvoir compter sur un rédacteur web chez eux, en interne, qui rédigeait ensuite des descriptifs uniques présentant les différentes lignes.
On affichait également le produit le plus vendu sur les 15 derniers jours pour chacune des lignes.

Ligne de produits

Une fois à l’intérieur d’une ligne, on utilisait la navigation à facettes pour créer des pages avec un contenu spécifique uniquement pour les combinaisons de requête “nom de la ligne + marque” dépassant un certain nombre de recherches mensuelles.

Autrement, la page affichant l’ensemble des produits disponibles affichait un très court texte contextuel, accompagné d’une photo permettant la mise en situation. L’idée étant, à terme, de personnaliser le design de chacune des lignes. En effet, chacune s’adressait à un mode de consommation défini : l’un n’ayant pas avec l’autre au sein d’une même gamme.

Fiches produits

Il était simplement impossible au vu du nombre de produits dans le catalogue d’espérer disposer d’un contenu unique pour toutes les fiches produits. Grâce aux données du client (prix d’achat, bénéfice potentiel), nous avons, en plus, calculé :

  • Le coût du stock.
  • Le délai avant l’arrivée de produits plus innovants.
  • Le panier moyen estimé : serait-il plus élevé via le site web ou via un placement en tête de gondole en magasin ?
  • Le ROI par rapport au ROI du référencement payant (géré par une agence tierce).

On a ainsi pu distinguer les fiches produits en trois niveaux :

  • Niveau 1 : produits à fort intérêt. On devait donc afficher un descriptif long et unique, un avis d’expert rédigé avec l’appui d’un client ou d’un vendeur et les caractéristiques techniques.
  • Niveau 2 : produits à intérêt moyen. On affichait uniquement un descriptif long et les caractéristiques techniques.
  • Niveau 3 : produits à faible intérêt. Seules les caractéristiques techniques étaient présentes sur la fiche produit.

Côté technique, on décidait de mettre l’accent sur les éléments qui grevaient le plus les performances.

Temps de chargement

Un coup de chance ici sûrement : l’agence ayant développé le site était réactive et impliquée ce qui nous permettait d’avancer rapidement sur les chantiers techniques.
On commençait par alléger le code en retirant tous les appels n’ayant pas lieu d’être en fonction des pages. On retirait par exemple les codes de tracking pour les campagnes de référencement payant sur toutes les pages qui n’étaient pas des pages de destination des annonces payantes.
On réduisait également le poids des images sans rogner sur leur qualité grâce à un algorithme permettant de garder intacte la qualité des pixels les plus importants de l’image.
Les choix marketing notamment sur la profondeur de lignes permettait aussi naturellement de réduire le poids des pages.

Gestion du cycle de vie des produits

Il fallait d’abord gérer le flot d’erreurs 404 laissées là depuis des années par des produits supprimés. On lit souvent d’ailleurs, notamment sur le profil Twitter de John Mueller, que les erreurs 404 n’ont pas d’incidence mais quand on voit qu’elles représentent la moitié des hits de Googlebot sur une journée : on a de quoi s’interroger sur l’intérêt de les laisser telles quelles.

On a établit deux règles simples :

  • Si un produit de remplacement existe (plus innovant, etc.) alors on redirige l’ancien produit vers celui-ci.
  • Si il n’y a pas de produit de remplacement alors on affecte un code de réponse 410 (l’analyse de logs démontrant un crawl beaucoup plus faible sur ce code de réponse).

C’était un palliatif mais pas une solution pour toutes les prochaines erreurs 404 que l’on voyait arriver à grands pas. L’idée aussi étant d’automatiser ou de semi-automatiser le plus d’actions SEO possibles. Ainsi, on définissait une autre règle :

  • Lorsque le produit atteint un stock de 0 (ce qui peut être le fait de ventes ou d’un retrait du produit du catalogue pour une raison X ou Y), un script déclenche un mail d’alerte à la personne en charge des fournisseurs et du stock lui laissant 5 jours pour définir le produit de remplacement. Si aucune action n’est entreprise alors un code de réponse 410 est automatiquement affecté à la page.

Les résultats

Ces décisions ainsi que les actions apportées pour corriger toutes les failles SEO ont permis de retrouver le trafic naturel mensuel moyen d’avant la refonte, environ 160 jours plus tard.
Quelques semaines plus tard, on se plaçait en 3ème position pour LA requête principale qui englobait 65 000 recherches mensuelles moyennes puis on oscillait entre la 3ème et 5ème place ensuite (avant la refonte la page se trouvait en seconde page sur cette requête et littéralement aux oubliettes après la refonte) : une belle victoire donc.

De mon point de vue de SEO, c’était une réelle victoire. Quand on en a discuté avec le client, il m’a tout simplement répondu :

C’est bien mais ça ne me fait pas récupérer le chiffre d’affaires que j’ai perdu jusque-là.

Ca ne suffisait évidemment pas : il fallait trouver un moyen de récupérer le chiffre d’affaires perdu entre décembre 2016 et août 2017.

On pourrait se dire que sa réaction était exagérée, qu’il aurait dû s’estimer heureux de ne pas perdre à jamais son trafic et qu’en première intention, il suffisait de faire attention à son choix de prestataire mais … il y avait un réel challenge à aller chercher plus.

Le combo naturel et payant

On récupérait donc la gestion du référencement payant et on commençait par couper toutes les annonces menant à des pages qui performaient très bien en SEO. On coupait également l’achat du nom de marque (pas une grosse dépense en soi mais une question de logique à nos yeux), ainsi que les enchères sur les mots-clés à trop faible enjeu en terme de bénéfice potentiel.
Au bout d’un an, soit en mars 2018, on faisait environ 10% de plus, tous canaux confondus (SEA et SEO) qu’avant la refonte et on atteignait un chiffre d’affaires plus important que ce qui avait été atteint jusque-là.

Conclusion

Pourtant, peu après on se frottait à un concurrent avec qui il était difficile de rivaliser : Amazon. Je ne saurai dire quelle aurait été l’issue, certainement un arrêt de plus de 50% des campagnes de référencement payant et davantage d’efforts en SEO. L’entreprise s’est faite racheter plusieurs millions par le leader du secteur. On savait qu’on ne pourrait jamais rivaliser en terme de part de marché, je l’ai indiqué plus haut, mais tout porte à croire que nos actions ont porté leur fruit dans la légitimité de l’entreprise à se rendre suffisamment attrayante / dangereuse pour se faire racheter.

Publié dans SEO

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *