Les fonctionnalités Screaming frog SEO Spider que vous devriez utiliser

Dans le cadre d’une optimisation SEO d’un site web, Screaming Frog ou SEO Spider s’avère être un crawler Windows/Mac assez complet (au niveau du crawl) qui permet d’aller plus loin sur l’audit SEO professionnel. L’export CSV ou sur Excel permet de traiter les données. Voici quelques fonctionnalités que nous trouvons intéressantes en SEO et que nous partageons avec vous :

Screaming Frog SEO Spider

Détecter le duplicate content grâce au hash (ou la signature MD5)

Un Hash MD5 représente la signature des données. Lorsque vous avez crawlé votre site et réalisé un export de vos données à traiter (Reports > Crawl overview), un traitement des hash en doublon sur votre site est un indicateur de contenu dupliqué sur votre site. Le contenu dupliqué est mauvais pour votre SEO !

Utiliser le mode « List »

Si le mode Spider permet de scanner 500 URLs, en entrant l’Url à scanner via « Enter URL to spider », le mode « List » permet d’importer en illimité les URLs de votre site. Sans achat de licence, il est possible de scanner jusqu’à 10k URLs et de les crawler.

Faire l’audit des redirections sur un site web

Cette fonctionnalité permet de visualiser les redirections (no response, 2XX, 4XX, 5XX) sur un site web ou/et d’auditer les redirections lors d’une refonte et migration SEO. Vous uploadez une liste initiale d’Urls (en mode List), vous les crawlez puis vous cliquez sur Reports > Redirects chain. Vous obtiendrez ainsi une liste de redirections incluant chaque URL de votre fichier d’origine, le nombre de redirections et les Urls de redirections jusqu’à l’Url finale.

Les liens entrants avec le Crawl path report

Vous pouvez visualiser la manière dont SEO Spider découvre vos URLs. La façon la plus rapide de le faire est de cliquer sur une URL et de visualiser les « inlinks » dans l’onglet gf« Response Code ».crawl-path-report

Mais parfois vous avez besoin de voir les inlinks (liens entrants) des inlinks pour retrouver la source originale. Dans ce cas, vous faites un clic droit sur une Url après avoir crawlé votre site, puis vous cliquez sur Export > Crawl path report. Vous obtiendrez ainsi la liste des urls et leur statuts, l’ancre, l’anchor, le statut du follow.

Le crawl d’Ajax

Screaming Frog crawle des sites qui adhèrent à l’Ajax crawling schema de Google. Il n’y a pas besoin de faire quelque chose en particulier. SEO Spider va afficher, exactement comme Google, les « ugly Urls » de type : www.exemple.com/ajax.html#!key=value et faire leur correspondance avec les « pretty URls » de type : www.exemple.com/ajax.html ?_escaped_fragment_=key=value

Xml Sitemap

Sur Screaming frog, vous n’avez pas besoin de convertir votre sitemap.xml en une liste d’Urls pour les crawler. Seo Spider peut crawler un format XML. Il vous suffit juste d’uploader « en mode list » votre sitemap.xml.

 

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.