Screaming Frog : Boostez votre SEO et votre trafic grâce à cet outil

Screaming Frog : Et si on parlait de cet outil génial ?

Avez-vous déjà pensé ou rêvé à un outil, façon couteau suisse qui gère tout votre SEO ?

 

Le genre d’outil qui fait tout et qui devient très vite indispensable ?

Vous n’auriez qu’à appuyer sur un bouton (voire même deux pour les plus courageux) et l’outil vous ferait tout votre référencement ?

 

  • Il remplirait lui-même les balises méta.
  • Il nettoierait le contenu dupliqué.
  • Il injecterait lui-même des contenus riches, intéressants pour l’utilisateur, et enrichis sémantiquement.
  • Il ferait lui-même votre cocon sémantique.
  • Il identifierait lui-même les nouveaux contenus à rédiger afin de compléter / enrichir le corpus sémantique d’une thématique.
  • Il serait capable d’analyser lui-même les sites des concurrents.
  • … Et bien d’autres actions encore.

 

Et bien, non, je mets fin à votre rêve, non ce genre d’outil n’existe pas (du moins pas à ma connaissance).

 

En revanche, j’ai un outil qui existe pour de vrai et qui réalise pour vous des analyses très pertinentes, très utiles, très efficaces.
C’est outil, c’est LA Grenouille Hurlante, Screaming Frog en anglais.

 

Un outil qui vous permet, entre autres, de déceler rapidement et facilement des axes d’améliorations structurelles sur votre site. A titre d’exemples :

 

  • Cas de duplications de contenus dans les url et les balises title et H1.
  • Niveaux de profondeur trop importants.
  • Erreurs dans les balises rel canonical.
  • Pages en noindex sans raison valable.

 

Alors non, l’objectif de cet article n’est pas de faire une déclaration d’amour (parce que vraiment je l’aime vraiment très fort) mais de vous montrer comment cet outil peut vous aider à booster votre SEO en corrigeant les erreurs structurelles.

Screaming Frog

Screaming Frog

Version gratuite, version payante de Screaming Frog, mon coeur balance

 

Non, cet outil n’est pas gratuit, enfin si il l’est, mais limité à 500 url par analyse.

On pourrait penser que c’est suffisant.

Vous allez me dire (à juste titre) « si mon site fait moins de 500 url, je peux l’utiliser en version gratuite ».

Oui, c’est tout à fait juste, mais si vous avez besoin d’analyser un site concurrent bien plus gros que vous, avec 800 url (mais on peut envisager des volumétries bien plus importantes), vous serez bien content.e d’avoir accès à la version payante, qui elle n’est pas limitée en terme de volume de pages à analyser.

Au pire, commencez par la version gratuite de Screaming frog , vous verrez par la suite selon vos besoins.

 

Mais si vous savez déjà que devrez analyser de gros sites je vous conseille très fortement de souscrire à la licence. Elle coûte une centaine d’euros par an, mais vraiment elle est très vite rentabilisée… (non je n’ai pas de part dans la société Screaming Frog, et non je ne prends pas de commission à chaque achat de licence).

Screaming Frog

Screaming Frog

Revenons aux basiques, qu’est-ce donc ce Screaming Frog ?

 

Les robots des moteurs de recherche analysent le code source de vos pages (c’est à dire qu’ils « crawlent » les pages de votre site) en suivant les liens présents sur lesdites pages jusqu’à ce qu’il n’y ait plus de nouvelle page à analyser (il s’agit là d’une explication très simplifiée du fonctionnement des moteurs).

Screaming Frog est un outil d’analyse structurelle de votre site ou n’importe quel autre, qui simule cette étape de crawl comme le feraient les robots de moteurs de recherche.

Il ressort de l’analyse différents indicateurs que je vais vous présenter ci-dessous (alors bien sûr il y a des axes d’améliorations à prévoir sur cet outil, tout n’est pas parfait, mais le rendu s’avère déjà très acceptable).

Comment utilises-tu cet outil Nicolas ?

 

Je l’utilise au quotidien, pour des analyses très diverses sur mon blog ou sur d’autres sites.

Je l’utilise dans le cadre d’audits, d’analyses plus ponctuelles ou spécifiques. Et surtout je l’utilise dans le cadre de mes ateliers et formations.

Je montre à mes apprenants pourquoi il est aussi puissant, et comment eux peuvent l’utiliser en toute autonomie de leur côté.

Libre à eux ensuite de l’utiliser ou non, en tout cas il me rend beaucoup de services.

Il permet de produire des analyses précises de manière macro / industrielle (il analyse en peu de temps des centaines, voire des milliers, centaines de milliers de pages), ce qui nous permet de gagner beaucoup de temps.

Forcément, plus votre site sera volumineux, plus l’analyse sera longue.

Il convient donc à des sites de plusieurs milliers de pages sans problème. Au-delà il commence à devenir un peu juste.

Pour télécharger Screaming Frog, c’est ici : https://www.screamingfrog.co.uk/seo-spider/Télécharger Screaming Frog

Il fonctionne sur Mac et Windows.

Quels seraient les axes d’améliorations que j’imagine (comme je le mentionnais plus haut) ?

Augmenter la puissance d’analyse (au bout de 50 000 url à analyser, il commence à peiner).

Le contenu de la balise keyword, pourquoi l’indiquer puisque celle-ci n’est plus prise en compte depuis belle lurette ?

Un onglet spécifique pour les balises rel prev rel next ?

Des inputs plus précis sur le temps de chargement de page ?

Bon, vous l’avez compris (ou êtes en train de le comprendre), je chipote. Il est possible d’approfondir les analyses sur ces indicateurs différemment et avec d’autres outils.

De toute manière, l’objectif n’est pas d’avoir un outil absolument parfait (ce qui n’existera jamais) mais d’utiliser un outil suffisamment efficace.

 

Quelles analyses propose Screaming Frog ?

 

Dans l’onglet « Mode » du menu en haut de page, vous voyez Spider et List.

Spider (en référence non pas à Spider Man, mais à spider comme les robots des moteurs de recherche) correspond à la fonctionnalité de simulation d’un crawl d’un site.

On l’utilise dans le cadre de l’analyse globale d’un site.

Et on a List.

On l’utilise pour analyser une ou des pages en particulier.

 

Analyses à partir d’une liste d’url : Fonction List

Screaming Frog

Screaming Frog

On peut donc uploader une liste d’url (à partir d’un fichier texte lambda).

Ou on peut rentrer les url à analyser à la main ou les copier / coller.

Mais on peut aussi indiquer l’url du fichier sitemap (ou sitemap index) que Screaming Frog devra analyser.

Pourquoi analyser les url du sitemap ?

Par exemple pour s’assurer qu’elles répondent bien en 200 (code serveur 200 correct).

Pour comparer les url du sitemap avec les url du site (qui ne correspondent pas toujours, loin de là, j’ai des tas d’exemples dans ce sens là).

(On peut tester si les url du sitemap sont bien indexées avec la commande site: sur Google).

Les url du sitemap sont une très bonne source d’analyse car souvent on se rend compte qu’elles ne matchent pas avec les url du site (url pas mises à jour suite à une migration ou refonte, catégories supprimées..;), tout simplement parce que le sitemap n’a pas été mis à jour.

C’est intéressant de faire analyser le fichier sitemap par l’outil car il peut ressortir des erreurs que vous n’aviez pas vues. Par exemple fichier incomplet (il manque 20% des url). Fichier comportant de nombreuses erreurs 404 ou redirections 301.

Besoin de conseils pour construire votre arborescence : Suivez le guide !

 

Je vous présente la liste exhaustive de tous les indicateurs analysés ci-dessous.

Analyses d’un site : Fonction Spider

 

Avec la fonction Spider, on peut donc générer le crawl d’un site.

Ce crawl peut répondre à plusieurs objectifs. A titre d’exemples :

 

Comptabiliser le volume réel de pages d’un site.

Entre le volume de pages en base de données et le volume de pages réel sur un site il peut y avoir un gap énorme (cas de duplication de contenus massifs par exemple).

Ensuite il peut être intéressant de comparer le volume de pages théorique, le volume de pages réel, et le volume de pages indexées sur Google.

 

Vérifier qu’un site est ‘crawlable » dans son ensemble.

Tout simplement vérifier que les pages « utiles » du site sont bien identifiées par l’outil.

 

– Comptabiliser le volume d’erreurs 404.

 

Comptabiliser le volume de redirections 301 / 302 présentes dans la structure du site.

 

– Identifier le nombre de niveaux de profondeur.

 

– Identifier le volume de H1 dupliquées.

 

– Identifier le volume de pages dupliquées (par url ou par balises title).

 

Par exemple, si l’outil n’arrive à crawler que 50% de votre site, c’est qu’il doit y avoir un problème structurel quelque part.

Vous avez 10000 pages produits sur votre site e-commerce, Screaming Frog n’en trouve que 5000. Cela signifie que les 5000 restantes sont introuvables, donc non présentes dans la structure du site.

C’est là que l’analyse structurelle a tout son intérêt.

Les pages manquantes sont-elles correctement rattachées aux catégories correspondantes ? Le contenu serait-il en Ajax? Ce sont ce genre de questions qu’on doit se poser pour comprendre l’origine du problème.

 

 

Liste exhaustive des indicateurs analysés (fonctions list et spider)

 

Que vous analysiez un site dans son ensemble, ou un simple lot d’url, l’outil d’analyse structurelle Screaming Frog va vous donner le rendu d’analyse des indicateurs suivants :

Les onglets

 

Screaming Frog

Screaming Frog

Code Réponse : Code 200, 301, 302, 404, 503…

Adresse. Il s’agit de l’url de chaque page.

Titre : Il de la balise title (à ne pas confondre à pas confondre avec le H1. La balise title est présente dans le code source de la page et apparait dans les résultats Google au-dessus des deux lignes de description)

Type de contenu : contenu texte ou média, js etc.

Longueur du titre (en caractères et en pixels).

Balise description. Cette balise n’a pas d’impact sur votre positionnement sur Google, mais sur le taux de clics potentiel au sein des listes de résultats Google (c’est pourquoi elle doit être « sexy »).

Longueur de la balise description (en caractères et en pixels).

Balise keyword (même si elle n’est plus prise en compte depuis longtemps par les moteurs de recherche).

Longueur de la balise keyword (en caractères et en pixels).

Balise H1. Il s’agit du titre de la page (en principe le titre le plus visible de la page, il doit correspondre au contenu de la page).

Longueur de la balise H1.

Balises H2.

Longueur des balises H2.

Règle de non-crawl venant du robots.txt. Valable si des pages de votre site n’ont pas vocation à être crawlées et indexées par Google.

Balise canonical. En cas de plusieurs url pour une même page, indique quelle est l’url de référence. Utile dans la gestion de contenus dupliqués.

– Nombre de mots présents.

– Niveau de profondeur.

– Nombre de liens entrants et sortants.

– Temps de chargement.

– Url de redirection (en cas de redirection).

 

Les filtres

 

Screaming Frog

Screaming Frog

 

Html. Contenus html. Ce qui sera en priorité indexé par les moteurs.

Js.

– Css.

– Images.

– Pdf. A voir si le fichier pdf présente un intérêt d’avoir une version en html.

Flash.

 

On peut aussi filtrer par url. Par exemple, je ne veux filtrer que les url articles. Je n’ai qu’à ajouter dans le champ de recherche le terme « articles/ ».

D’où l’intérêt d’avoir des formats d’url spécifiques par typologies d’url (/produit-* pour les pages produit par exemple, cela facilite grandement les analyses).

Par exemple on peut :

– Ranger les url par ordre croissant / décroissant.

– Objectif : Identifier le contenu dupliqué (via des filtres dans les url).

– Ranger les balises title, et / ou H1 par ordre croissant / décroissant.

– Objectif : Identifier le contenu dupliqué (titre en double, triple).

 

On peut identifier les contenus trop profonds, ou subissant un temps de chargement trop long.

On peut aussi identifier les erreurs au niveau des balises rel canonical quand celles-ci sont intégrées (même idée avec le code Analytics, GTM, et même les balises hreflang, bref, tout ce qui est indentifiable dans le robots.txt).

 

Identifier des pour-actions pratiques et opérationnels

 

Au-delà de ces informations, ce qui est intéressant c’est de pouvoir trier et analyser les résultats de l’analyse afin d’identifier, spécifier des actions concrètes et opérationnelles qui vous permettront à court / moyen terme de booster la visibilité de votre site sur les listes de résultats Google.

Encore une fois, l’outil a ses limites, il ne peut pas faire le travail minutieux de prioriser les actions. Tout dépend de ce que vous cherchez à analyser. L’outil ne va pas vous donner la réponse toute cuite, mais vous donner des informations pour valider ou non vos impressions.

L’intérêt de cet outil est de valider les pistes d’erreurs que vous avez identifiées à l’oeil nu sur le site.

Quid des onglets secondaires ?

Les onglets secondaires en bas du logiciel ne sont pas des filtres, mais donnent des informations complémentaires dès qu’on sélectionne une url.

Url info :  code réponse, balise rel canonical, titre, nombre de liens entrants, nombre de liens sortants, etc.

Inlinks : Les liens entrants.

Outlinks : Les liens sortants.

Image info : Attributs alt des images de la page.

Serps snippet : Rendu du résultat sur les listes de résultats Google.

Rendered Page : Page affichée.

View source : Code source.

Quid des fonctions avancées sur Screaming Frog ?

 

Screaming Frog

Screaming Frog

Il est possible avec Screaming Frog de customiser les analyses, c’est à dire de rentrer plus dans le détail du paramétrage de l’outil afin d’analyser des éléments en particulier (on notera que cette partie « fonction avancée » peut intervenir dans un second temps de l’analyse une fois que les indicateurs problématiques ont été identifiés).

Voici ci-dessous quelques exemples. Il y a beaucoup à dire, il faudrait un article supplémentaire dédié uniquement à ces fonctions avancées tellement elles sont nombreuses. L’idée ici n’est pas de toutes vous les présenter, mais au moins de vous donner un premier aperçu.

Pourquoi faire des analyses avancées ?

On ne fait pas d’analyses avancées juste pour le plaisir. Encore une fois, on fait des analyses avancées pour étudier un point particulier, et Screaming Frog peut nous aider à le faire.

Le secret est de savoir ce qu’on cherche et pourquoi on le cherche, dans quel but, qu’est ce que le résultat de l’analyse peut nous révéler et quelles seraient les actions correctrices à mettre en place. Une fois qu’on a cette idée en tête on peut réaliser toutes les analyses qu’on souhaite.

Export

On peut générer un export global (c’est à dire un export complet), ou choisir d’exporter seulement quelques éléments.

Sitemap

A partir d’une base d’url, on peut générer un fichier sitemap (url et / ou images). Voir l’onglet Sitemap.

 

Rapports

A partir d’une base d’url, on peut générer des rapports spécifiques :

Erreurs de Canonical.

Erreurs de balises rel prev rel next.

Pages orphelines (pages hors structure de votre site).

Erreurs sur les balises hreflang.

Chaines de redirection.

Configuration

On peut configurer les analyses de l’outil selon des besoins spécifiques.

A titre d’exemples :

On peut demander au crawleur de

Ne pas analyser les sous-domaines.

De s’arrêter à un certain niveau de profondeur.

Avec la fonction Spider on peut entre autres inclure ou exclure des url ou typologies d’url spécifiques.

On peut paramétrer la vitesse de crawl de l’analyse (pour éviter les sur-charges serveurs).

On peut indiquer un user-agent spécifique (utile par exemple pour les analyses de logs).

Avec la fonction Search / Extraction, on peut identifier les pages ayant ou n’ayant pas dans le code source un code spécifique, comme le code Analytics par exemple).

On peut augmenter la mémoire nécessaire en cas de grosse analyse.

On peut accéder aux API de Google Analytics, Google Search COnsole, Majestic SEO, Ahrefs, et Moz.

Selon les besoins on peut paramétrer le suivi des entêtes http.

On peut personnaliser le robots.txt propre à Screaming Frog pour des besoins spécifiques.

Bref, vous l’aurez compris, le champ des possibles s’avère vraiment large.

Par exemple :

Identifier les url /article- en 200 contenant le texte « Je m’inscris à la newsletter » mais ne contenant pas le texte « formation web marketing ».

Exemple de cas concret d’analyse structurelle avec Screaming Frog

 

J’ai un site e-commerce de 10000 pages produit et 100 pages catégories.

Avec Screaming Frog, je peux voir :

  • Identifier les pages produits grâce à leur format d’url si celui-ci est spécifique.
  • Les url dupliquées avec des variables inutiles (et surtout le volume de pages concernées). Exemple : filter=price
  • Les titres et H1 dupliqués.
  • Les balises canonical en erreur. Par exemple je peux être capable de dire que 20% des fiches produits ont une mauvaise rel canonical renseignées.
  • Ou je peux dire aussi que 67% des pages catégories sont massivement dupliquées avec le système de variable filter=minprice. Cette duplication représente 80% du volume du site.

 

Ces analyses sont possibles via les systèmes de filtre et de tri.

Le plus simple est de générer un export excel. De cette manière vous pouvez finaliser votre analyse en local sur votre machine.

L’outil permet de sortir des constats mais ne donne pas les solutions. C’est là, la limite de l’outil.

 

Conclusion

 

Screaming Frog

Screaming Frog

Vous l’avez vu, Screaming Frog est un outil très puissant qui peut réaliser des analyses très simples ou très poussées selon nos besoins et notre maturité par rapport à l’outil.

Personnellement j’utilise Screaming Frog très souvent pour étudier à peu près tout sur un site et cela de manière macro ce qui est très pratique.

Il m’aide à prendre de la hauteur par rapport une problématique donnée.

Vraiment je le recommande fortement.

Si vous ne vous sentez pas à l’aise avec l’outil, je me ferai un plaisir de vous le présenter, ou si vous avez un besoin spécifique n’hésitez pas à m’en parler, on en discutera de vive voix.

Des commentaires ? Des questions ? N’hésitez pas à commenter  !! 🙂

nvidal

Author nvidal

More posts by nvidal

Leave a Reply

Coaching et consulting SEO