Optimiser l'indexation du catalogue produit
Pas d'indexation, pas de ranking ! Ne l'oublions pas, si les robots de Google ne visitent pas vos pages stratégiques, elles ne pourront pas être trouvées par votre cible. Notre client spécialisé dans la réparation de machines industrielles en a fait l'expérience. Suite à la refonte de son site, de nombreuses pages du catalogue produit n'étaient pas indexées. L'équipe SEO s'est chargé dans un premier temps d'optimiser le budget de crawl* afin de rendre visibles et accessibles ces pages essentielles à la vente.
*le budget de crawl correspond au nombre de page limite que le Googlebot va explorer sur un site.
Objectif :
Optimiser le budget de crawl
Le site possédant plus de 3000 pages, le budget de crawl ne permettait pas de couvrir l'analyse et l'indexation de toutes les URLs. Notre priorité était d'optimiser le budget de crawl existant afin qu'il soit alloué aux pages stratégiques, les pages produits.
Ce sont en effet ces pages qui sont génératrices de business pour notre client. Sans indexation, elles perdent toute visibilité et donc, toute valeur marchande.

Les enjeux : Un site multilingue avec du contenu similaire
Avant de procéder à des actions correctrices, nous devions comprendre pourquoi certaines pages étaient bien visitées par le Googlebot, mais non indexées. Plusieurs raisons pouvaient expliquer ce comportement.
Une arborescence trop profonde
Les pages produits composant le catalogue sont accessibles depuis plusieurs entrées. Néanmoins, de nombreuses pages intermédiaires viennent freiner l'accès aux pages produits. En tout, il faudra à l'utilisateur minimum 4 clics pour atteindre les fiches produits. Avec une telle profondeur, cela signifie que les robots de Google peuvent ne jamais réussir à atteindre ces pages.
Une similarité entre les pages produits
Les fiches produits ont été construites sur un template commun. L'utilisateur retrouve la référence du produit puis en dessous, un tableau descriptif de ses caractéristiques.
Traduit en 7 langues, les pages affichent un contenu quasi similaire qui peut induire en erreur le Googlebot, lui faisant croire à du contenu dupliqué. De ce fait, il considère ce contenu non pertinent à indexer 7 fois.
Les actions techniques
Réaliser une étude de logs
L'étude de logs était la première étape à effectuer afin de comprendre le comportement des robots dans leur crawl. Le croisement avec le rapport de couverture Search Console nous a également permis d'isoler toutes les pages indexées des pages exclues. Ce sont principalement les URLs des pages produits qui n'étaient pas indexées.
- Un fichier sitemap spécifique regroupant ces pages a donc été soumis à l'outil de la Search Console afin d'inciter les robots à revenir visiter et à indexer ces pages.
- Les pages intermédiaires non pertinentes ont été mises en no index afin que le budget de crawl puisse se concentrer seulement sur les pages stratégiques.
- La vitesse de crawl a été poussée au maximum manuellement via la propriété Search console du site .com (comptabilisant au total plus de 21 000 pages toutes langues confondues).
Optimiser le multilingue
Le balisage hreflang a été paramétré afin d'indiquer aux robots la distinction entre chaque page produit en fonction des langues déclarées.
Les résultats : une indexation qui monte en flèche !
18 janv. 2021
3,7K pages indexées VS 8,2 pages exclues
18 avr. 2021
7,7K pages indexées VS 5,5K pages exclues
La problématique d'indexation reste encore méconnue des clients car elle nécessite une connaissance des termes techniques, spécifiques au jargon SEO. Néanmoins, sans indexation, il est impossible d'envisager une stratégie de mots clés ou de netlinking. Parallèlement à cela, nous restons également limités dans notre périmètre d'action car les algorithmes Google amenant au crawl des pages sont extrêmement difficiles à anticiper. Nous pouvons dire que le défi est relevé en observant au bout de quelques mois la courbe s'inverser pour laisser place à une hausse majeure de pages indexées et une baisse régulière des pages exclues.
